Илон Маск подписал открытое письмо, призывающее прекратить обучение новых моделей ИИ, более мощных, чем GPT-4.
Есть понимание, что быстрое развитие ИИ может представлять серьезные риски для человечества.
Пришло время сначала сделать перерыв и убедиться, что мы понимаем, как мы можем это контролировать?
По мнению экспертов, поскольку многие блокчейн и криптопроекты, предположительно, в значительной степени полагаются на ИИ и алгоритмы машинного обучения, потенциальное воздействие нерегулируемых экспериментов в этой области может иметь катастрофические последствия.
Стив Возняк, соучредитель Apple, присоединился к Маску в подписании открытого письма, подчеркнув срочность ситуации. Согласно знакомым источникам, поскольку криптография все больше переплетается с ИИ, надлежащая интеграция с правительствами и регулирующими органами становится первостепенной.
Без надлежащего надзора риски, связанные с неконтролируемыми экспериментами, могут привести к катастрофе для зарождающейся отрасли. Таким образом, многие эксперты призывают к приостановке всех крупномасштабных проектов в области ИИ, пока эти проблемы не будут решены.
Предупреждение о мощных системах ИИ и их влиянии на криптографию
В письме содержится призыв к технологическим компаниям не разрабатывать системы искусственного интеллекта (ИИ), которые превосходят возможности GPT-4, которая является самой последней передовой технологией в системах обработки больших языков.
В частности, в письме упоминается GPT-4 как "новейшая передовая технология в системах обработки больших языков”. Согласно статье, опубликованной в журнале Fortune, эффективность моделей искусственного интеллекта пропорциональна как размеру моделей, так и количеству специализированных компьютерных чипов, которые необходимы для их обучения.
В результате письмо призвано служить предупреждением о том, что любые дополнительные разработки в области искусственного интеллекта могут привести к созданию машин, неподконтрольных людям. Согласно письму, технологический сектор бизнеса в настоящее время находится на перепутье, на котором он должен выбрать, делать ли упор на безопасность или продолжать расширять границы роста искусственного интеллекта.
Есть опасения, что если предприятия продолжат разработку систем искусственного интеллекта, выходящих за рамки возможностей GPT-4, это может привести к катастрофическим последствиям, таким как потеря рабочих мест, вторжение в частную жизнь и даже экзистенциальные опасности для человечества. В результате письмо призывает технологические компании задуматься о потенциальных результатах своей деятельности и более ответственно подойти к разработке искусственного интеллекта.
В двух словах, письмо призывает технологические компании проявлять осторожность и воздерживаться от разработки систем искусственного интеллекта, которые являются более совершенными, чем те, которые предлагаются конкретными фирмами.