Советник целевой группы по искусственному интеллекту (ИИ) при премьер-министре Соединенного Королевства сказал, что у людей есть примерно два года, чтобы научиться контролировать и регулировать ИИ, прежде чем он станет слишком мощным.
В интервью британскому СМИ Мэтт Клиффорд, который также является председателем государственного Агентства перспективных исследований и изобретений (ARIA), подчеркнул, что современные системы становятся «все более и более способными с постоянно растущей скоростью».
Он считает, что если чиновники не будут учитывать безопасность и правила сейчас, то системы станут «очень мощными» через два года.
«У нас есть два года, чтобы создать структуру, которая сделает контроль и регулирование этих очень крупных моделей гораздо более возможным, чем сегодня».
Клиффорд предупредил, что когда дело доходит до ИИ, существует «множество различных типов рисков», как в краткосрочной, так и в долгосрочной перспективе, которые он назвал «довольно пугающими».
Интервью появилось после недавнего открытого письма, опубликованного Центром безопасности ИИ и подписанного 350 экспертами по ИИ, в том числе генеральным директором OpenAI Сэмом Альтманом, в котором говорилось, что ИИ следует рассматривать как экзистенциальную угрозу, подобную той, что исходит от ядерного оружия и пандемий.
«Они говорят о том, что происходит, когда мы эффективно создаем новый вид, своего рода интеллект, который превосходит человеческий».
Советник целевой группы по ИИ сказал, что угрозы, исходящие от ИИ, могут быть «очень опасными» и могут «убить многих... через два года».
По словам Клиффорда, основное внимание регулирующих органов и разработчиков должно быть сосредоточено на понимании того, как управлять моделями, а затем на внедрении правил в глобальном масштабе.
Он заявил, что на данный момент самый большой страх у него вызывает непонимание того, почему модели ИИ ведут себя так, а не иначе.
«Люди, которые создают самые совершенные системы, открыто признают, что они не совсем понимают, как системы ИИ демонстрируют то поведение, к которому они пришли».
Клиффорд подчеркнул, что многие руководители организаций, занимающихся созданием ИИ, также согласны с тем, что мощные модели ИИ должны пройти некий процесс аудита и оценки перед развертыванием.
В настоящее время регулирующие органы во всем мире изо всех сил пытаются понять технологию и ее разветвления, пытаясь создать правила, которые защищают пользователей и при этом позволяют внедрять инновации.
5 июня официальные лица в Европейском союзе зашли так далеко, что предложили обязать маркировать весь контент, созданный ИИ, чтобы предотвратить дезинформацию.
В Британии один из передовых членов оппозиционной Лейбористской партии повторил мнение, упомянутое в письме Центра безопасности ИИ, заявив, что технологии должны регулироваться так же, как медицина и ядерная энергетика.