BTC 91986.1$
ETH 2491.31$
Tether (USDT) 1$
Toncoin (TON) 3.39$
telegram vk
telegram vk Х
Russian English
"

ИИ: Регулировать, но не зарегулировать

Дата публикации:15.06.2023, 22:00
1304
1304
Поделись с друзьями!

CEO OpenAI Сэм Альтман был одним из самых активных сторонников государственного надзора за индустрией ИИ. Недавно он свидетельствовал перед Конгрессом во время слушаний, на которых он ясно заявил о своей убежденности в необходимости регулирования. Однако чуть позже он же   предостерег европейских регуляторов от чрезмерного регулирования.

ИИ как же это понимать?

Регулировать нужно и можно, но осторожно

На уже названных историческими слушаниях в Сенате по безопасности ИИ Альтман появился вместе с профессором Нью-Йоркского университета Гэри Маркусом и руководителем траста IBM Кристиной Монтгомери, чтобы обсудить, как правительство США должно регулировать отрасль искусственного интеллекта.

Заседание подкомитета Сената по судебной конфиденциальности, технологиям и законодательству стало первым официальным выступлением Альтмана перед Конгрессом, что дало сенаторам возможность задать вопрос генеральному директору OpenAI относительно взглядов его компании на регулирование.

«Если эта технология пойдет не так, она может пойти совсем не так», – сказал Альтман.

«Генеральный директор OpenAI Сэм Альтман признал во время слушаний в Сенате, что его «худшим опасением» является причинение «значительного вреда миру» посредством разработки технологий»,  — NowThis (@nowthisnews) 16 мая 2023 г.

Слушания на заседании, названном сенатором от Иллинойса Диком Дурбином историческим, были сосредоточены на понимании потенциальных угроз, создаваемых моделями генеративного искусственного интеллекта (ИИ), такими как ChatGPT, и на том, как законодатели должны подходить к регулированию этой отрасли.

Комментарии Альтмана, которые члены Конгресса и его коллега-спикер Маркус охарактеризовали как кажущиеся честными и искренними, похоже, застали врасплох некоторых членов Сената.

Нужен / не нужен новый надзорный орган?

Альтман выступил за создание федерального надзорного органа с полномочиями выдавать и отзывать лицензии на разработку, заявил, что, по его мнению, создатели должны получать компенсацию, когда их работа используется для обучения системы ИИ, и согласился с тем, что потребители, которым причинен вред при использовании продуктов ИИ, должны быть вправе подать в суд на разработчика.

Альтман проигнорировал вопросы, связанные с недавним письмом о приостановке ИИ, призывающим к шестимесячному мораторию на развертывание систем, более мощных, чем GPT-4, система ИИ, лежащая в основе ChatGPT, уклончиво сообщив, что OpenAI потратил более шести месяцев на оценку GPT-4 перед развертыванием и не планирует развертывать другую модель в течение следующих шести месяцев.

Маркус, подписавший предложение о шестимесячной паузе, признал, что он больше согласен с духом этого письма, чем с его содержанием, но призвал Конгресс рассмотреть вопрос о глобальном надзоре, а также о федеральном регулировании — мнение, с которым согласился и Альтман.

На протяжении всего слушания трое приглашенных докладчиков сошлись во мнении по большинству тем, включая поддержку защиты конфиденциальности, усиление государственного надзора, сторонний аудит и то, как скоро правительство США должно попытаться отрегулировать отрасль (на самом деле – немедленно).

Тем не менее, одним из источников разногласий стало утверждение Монтгомери из IBM о том, что для обеспечения соблюдения правил в индустрии искусственного интеллекта нет необходимости создавать новое агентство.

«Сенатор Линдси Грэм спрашивает свидетелей на слушании по регулированию искусственного интеллекта, должно ли быть агентство для лицензирования и надзора за инструментами ИИ. Все говорят «да», но у директора IBM по вопросам конфиденциальности и доверия Кристины Монтгомери есть условия»,

— сообщает Yahoo Finance (@YahooFinance) 16 мая 2023 г.

Монтгомери заявила, что IBM выступает за хирургический подход к регулированию с использованием уже существующих в настоящее время регулирующих органов, чтобы сосредоточить правоприменение на конкретных случаях использования.

Предубеждения и предупреждения

Хотя все трое выступавших согласились с тем, что ИИ может быть вредным и требует мер безопасности, Маркус ясно дал понять, что, по его мнению, в настоящее время никто не понимает и не может предсказать, насколько вредными могут быть или станут существующие продукты ИИ. Он выступил за осторожный подход, предполагающий большую прозрачность, заявив:

«Мы создали машины, похожие на слонов в посудной лавке: мощные, безрассудные и трудноуправляемые».

«Профессор Нью-Йоркского университета Гэри Маркус забил тревогу во время слушаний в Сенате во вторник по поводу возникающих угроз ИИ»,  — NowThis (@nowthisnews) 16 мая 2023 г.

Выступавшие также согласились с членами Конгресса в том, что США нужен национальный закон о конфиденциальности, аналогичный европейским. Однако Альтман не согласился с тем, что потребители должны иметь возможность отказаться от включения своих общедоступных веб-данных в наборы обучающих данных.

Альтман также не стал официально заявлять, что OpenAI возражает против предложения версии своих продуктов GPT на основе рекламы. Однако ранее в ходе слушаний было сказано, что продукты OpenAI соответствуют стандартам конфиденциальности потребителей, поскольку компания не создавала профили пользователей для показа адаптированной рекламы.

Ссылаясь на свой опыт работы в качестве выпускника Стэнфорда и депутата, работающего с децентрализованными финансами и компаниями Web3, сенатор от Нью-Джерси Кори Букер поднял проблему централизации конфиденциальности. Он спросил, каковы будут последствия централизации и монополизации для отрасли, и на этот вопрос Маркус ответил серьезным предупреждением о том, что страна рискует передать контроль над общественным мнением небольшому числу участников — ведущим компаниям, занимающимся искусственным интеллектом, с достаточным количеством денег, конкурирующим с Microsoft, Google и Amazon.

Альтман, чей проект Worldcoin сочетает в себе децентрализованный актив криптовалюты на блокчейне Ethereum с аутентификацией личности с помощью технологии сканирования радужной оболочки глаза, объяснил, что OpenAI просто предоставил платформу и что демократизация продуктов OpenAI произошла, когда разработчики, компании и конечные пользователи адаптировали GPT API для «фантастического» использование.

А что в Европе?

Глава OpenAI предупреждает европейских чиновников о предстоящих изменениях в области искусственного интеллекта

С тех пор как в ноябре 2022 года чат-бот ChatGPT с искусственным интеллектом (AI) стал доступен для публичного использования, создавшая его материнская компания OpenAI активно коммуницирует (если не сказать – борется) с регулирующими органами по всему миру. Вскоре после выступления в американском сенате генеральный директор компании Сэм Альтман поговорил с официальными лицами в Брюсселе разрабатываемом законе ЕС об искусственном интеллекте.

При этом Альтман говорил не о рисках ИИ вообще, а о проблемах, которые новый закон создает для детища его компании. Он особо подчеркнул, что в закон планируется включить технологию искусственного интеллекта общего назначения, такую как OpenAI GPT-4, и сказал, что «детали имеют значение» в отношении такого законодательства, предупредив, что   деятельности компании в Европе будет прекращена, если вступят в силу слишком ограничительные правила:

«Мы постараемся выполнить требования закона, но если мы не сможем их выполнить, мы прекратим работу».

Сундар Пичаи, генеральный директор Google, также посетил на этой неделе европейские столицы, чтобы поговорить с регулирующими органами, поскольку они создают преграды для развития сферы ИИ. По словам присутвовавших на встречах, Пичаи призвал к принятию правил, которые не препятствовали бы инновациям.

Закон ЕС об искусственном интеллекте, который, как ожидается, будет завершен в следующем году, должен стать одним из лучших в мире пакетов регулирования для технологий искусственного интеллекта.

Первоначально законодательство было создано для конкретных случаев использования ИИ с высоким риском. Однако после бума популярности и доступности ИИ были включены дополнительные правила, затрагивающие «основные модели», такие как ChatGPT, которые должны нести ответственность за использование своих приложений, даже если никак не могут это контролировать.

Кроме того, компании должны будут публиковать сводки материалов, защищенных авторским правом, используемых для обучения ИИ, а технологии будут классифицироваться в зависимости от риска, который они представляют для общества, и степень этого риска будет определяться политиками.

Таким образом, в то время как компании внутри отрасли согласны с тем, что некоторое регулирование необходимо, руководители громко заявляют об опасности а) чрезмерного регулирования и б) собственно ИИ.

Понять, что страшнее, кажется, пока не удалось.

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24