Страны «Большой семерки» (G7) планируют согласовать кодекс поведения разработчиков искусственного интеллекта (ИИ) 30 октября.
Согласно отчету, кодекс состоит из 11 пунктов, которые направлены на продвижение «безопасного, надежного и заслуживающего доверия ИИ во всем мире» и помогают «воспользоваться» преимуществами ИИ, одновременно устраняя риски, которые он представляет.
План был разработан лидерами G7 в сентябре. В нем говорится, что он предлагает добровольное руководство действиями для «организаций, разрабатывающих самые передовые системы искусственного интеллекта, включая самые передовые базовые модели и генеративные системы искусственного интеллекта».
Кроме того, он предполагает, что компаниям следует публиковать отчеты о возможностях, ограничениях, использовании и неправильном использовании создаваемых систем. Также рекомендуются надежные меры безопасности для указанных систем.
Страны, участвующие в G7, включают Канаду, Францию, Германию, Италию, Японию, Великобританию, США и Европейский Союз.
В этом году «Большая семерка» прошла в Хиросиме, Япония, а 29 и 30 апреля состоялась встреча всех участвующих министров цифровых технологий.
Темы, затронутые на встрече, включали новые технологии, цифровую инфраструктуру и искусственный интеллект, а пункт повестки дня был специально посвящен ответственному использованию систем искусственного интеллекта и международному регулированию ИИ.
Кодекс поведения в области искусственного интеллекта «Большой семерки» появился в то время, когда правительства во всем мире пытаются справиться с проблемами и противоречиями, которые появились наряду с полезными возможностями ИИ. ЕС был одним из первых, кто установил руководящие принципы в своем знаменательном Законе ЕС об искусственном интеллекте, первый проект которого был принят в июне.
26 октября Организация Объединенных Наций учредила консультативный комитет из 39 членов для решения вопросов, связанных с глобальным регулированием ИИ.
Правительство Китая также ввело собственное регулирование ИИ, которое начало вступать в силу еще в августе.
Внутри отрасли разработчик популярного чат-бота ChatGPT с искусственным интеллектом, OpenAI, объявил, что планирует создать команду «готовности», которая будет оценивать ряд рисков, связанных с ИИ.