Технический директор IBM Automation Джерри Куомо (Jerry Cuomo) недавно опубликовал сообщение в блоге, в котором изложил, как он утверждает, несколько рисков, связанных с использованием ChatGPT для предприятий.
Согласно сообщению в блоге, существует несколько ключевых областей риска, которые предприятия должны учитывать, прежде чем использовать ChatGPT. Однако в конечном итоге Куомо приходит к выводу, что с ChatGPT безопасны только неконфиденциальные данные:
«После того как ваши данные попадают в ChatGPT, — пишет Куомо, — вы не можете контролировать или знать, как они используются».
Согласно сообщению, этот тип непреднамеренной утечки данных также может поставить бизнес на крючок с юридической точки зрения, если данные партнеров, клиентов или потребителей становятся доступными для широкой публики после утечки в обучающие системы ChatGPT.
Куомо также ссылается на риски для интеллектуальной собственности и возможность того, что утечка может привести к нарушению компаниями соглашений об открытом исходном коде.
Согласно сообщению в блоге IBM:
«Если конфиденциальная информация третьих лиц или внутренняя информация компании вводится в ChatGPT, она становится частью модели данных чат-бота и может быть передана другим лицам, которые задают соответствующие вопросы».
Предствитель OpenAI по связям с общественностью прокомментировал приведенное выше заявление:
«Эти данные не будут переданы другим лицам, которые задают соответствующие вопросы».
Представитель также сослался на существующую документацию по функциям конфиденциальности ChatGPT, включая сообщение в блоге, в котором подробно описывается возможность веб-пользователей отключать историю чатов.
По данным OpenAI, в API ChatGPT обмен данными отключен по умолчанию.
«Политика API совершенно ясна — что сбивает с толку, так это политика в отношении разговоров, которые мы ведем с использованием веб-интерфейса ChatGPT и приложений iOS/Android», — написал в твиттере/X Саймон Уиллисон (@simonw) 15 августа 2023 г.
Однако критики отмечают, что разговоры в веб-версии сохраняются по умолчанию. Пользователи также должны отказаться как от сохранения своих разговоров (удобная функция для продолжения с того места, где они остановились), так и от использования их данных для обучения модели. На данный момент нет возможности сохранять разговоры без согласия на обмен данными.