Главная›Статьи›Генеральный директор OpenAI Сэм Альтман хочет привлечь 7 триллионов долларов на производство чипов
Генеральный директор OpenAI Сэм Альтман хочет привлечь 7 триллионов долларов на производство чипов
Дата публикации:22.02.2024, 09:07
1269
1269
Поделись с друзьями!
Сообщается, что соучредитель OpenAI Сэм Альтман стремится собрать до 7 триллионов долларов на проект, направленный на решение проблемы глобального дефицита полупроводниковых чипов, вызванного быстрым ростом спроса на генеративный искусственный интеллект (GenAI).
Но, по словам Альтмана, это гораздо больше.
“Мы считаем, что миру нужно больше инфраструктуры искусственного интеллекта — производственных мощностей, энергии, центров обработки данных и т.д., — чем люди в настоящее время планируют построить. Создание масштабной инфраструктуры искусственного интеллекта и устойчивой цепочки поставок имеет решающее значение для экономической конкурентоспособности. OpenAI постарается помочь!”,- Альтман написал в посте X.
Масштабирование с такой суммой денег подразумевает, что все будет построено на GenAI, с конечной целью достижения общего искусственного интеллекта, систем, превосходящих человеческий интеллект, что само по себе является дискуссионным вопросом.
И зачем нам “масштабирование” инфраструктуры искусственного интеллекта?
“Вы можете работать, чтобы помочь обеспечить наше коллективное будущее, или вы можете написать подзаголовки о том, почему мы потерпим неудачу”, - добавил Альтман в следующем посте.
вы можете работать, чтобы помочь обеспечить наше коллективное будущее, или вы можете написать подзаголовки о том, почему мы потерпим неудачу
Это действительно для обеспечения “нашего коллективного будущего”? Или будущего OpenAI?
OpenAI нуждается в большей вычислительной мощности и большем количестве центров обработки данных (в настоящее время он полагается на Microsoft), чтобы преодолеть ограничения роста, особенно нехватку чипов искусственного интеллекта, которые необходимы для обучения большим языковым моделям (LLM), таким как ChatGPT.
Помимо огромной суммы денег — которая превышает ВВП любой страны, кроме Соединенных Штатов и Китая, — в “запросе” Альтмана есть что-то безответственное.
Ни одна технология не совершенна, и ИИ не исключение. Потенциал ИИ приносить огромную пользу обществу так же велик, как и его способность причинять ущерб. Законодатели требуют, чтобы компании придерживались ответственного искусственного интеллекта и ответственных инноваций, и мы, как общество, должны требовать этого.
Ответственные инновации - это идея заставить новые технологии работать на благо общества, не создавая больше проблем, чем они решают. Это относится ко всем технологиям, всем инновациям во всех организациях, отраслях и регионах.
Не забегаем ли мы вперед? Не должны ли мы учитывать риски и вызовы, связанные с системами искусственного интеллекта, снижать и контролировать их, следить за тем, чтобы они не создавали больше проблем, чем решали, прежде чем масштабировать их?
Риски и вызовы искусственного интеллекта
ИИ управляется данными, и с GenAI мы рассматриваем огромные объемы данных. Такая зависимость от данных сопряжена со множеством критических рисков и проблем. Данные могут быть неполными или ошибочными или использоваться неуместно, некорректно или неточно. Если входные данные неверны, то же самое будет и выходные: “Мусор поступил, мусор вышел”. В мире LLM мы сейчас сталкиваемся с “мусором на входе, мусором на выходе” на стероидах. Когда LLM обрабатывают плохую или устаревшую информацию, они не просто воспроизводят ее. Они усиливают его, заставляя звучать корректно и правдоподобно. Этот феномен “мусора на стероидах” подводит нас к решающему моменту.
Более того, одной из центральных проблем систем искусственного интеллекта является предвзятость алгоритмов, и было хорошо задокументировано, что это приводит к дискриминации. Эта проблема до сих пор не была должным образом решена, хотя законодатели просили технологические компании сделать это.
И есть другие проблемы, особенно связанные с GenAI: галлюцинации, неверная информация, отсутствие объяснения, мошенничество, авторские права, конфиденциальность пользователей и безопасность данных — все это не было полностью рассмотрено и смягчено. Менее обсуждаемый, но важный вопрос - это последствия искусственного интеллекта для окружающей среды. Системы искусственного интеллекта - это хищник энергии, который требуется для вычислений и центров обработки данных.
Международное энергетическое агентство прогнозирует, что мировой спрос на электроэнергию, обусловленный ростом искусственного интеллекта, удвоится к 2026 году. Эту проблему можно было бы смягчить по мере повышения эффективности компьютеров или с помощью более эффективных методов сокращения энергопотребления или использования возобновляемых источников энергии. Но эти потенциальные решения не были протестированы, и многие из них еще не были полностью разработаны.
Администрация Байдена и Европейский союз призывают к ответственному искусственному интеллекту
Законодатели призывают к "ответственному ИИ" — безопасному, защищенному и заслуживающему доверия. Президент Джо Байден подписал в сентябре исполнительный указ (EO), требующий, среди прочего, чтобы компании 1) разрабатывали инструменты искусственного интеллекта для поиска и устранения уязвимостей в кибербезопасности; 2) разрабатывали и использовали методы сохранения конфиденциальности - такие как криптографические инструменты, которые сохраняют конфиденциальность подготовленных данных; 3) защищали потребителей, пациентов и студентов — чтобы искусственный интеллект не повышал риск травмирования, введения в заблуждение или иного причинения вреда американцам; 4) защищали работников от опасностей усиления слежки на рабочем месте, предвзятости и смены работы; и 5 ) особое внимание уделять алгоритмической предвзятости и дискриминации, чтобы убедиться, что алгоритмическая предвзятость учитывается на протяжении всей разработки и обучения этих систем.
В июле 2023 года OpenAI подписала добровольное обязательство с администрацией Байдена управлять рисками, создаваемыми ИИ, и придерживаться ответственного ИИ. OpenAI не совсем продемонстрировала действенный "ответственный ИИ", который она обязалась предпринять.
Как и EO, Закон Европейского союза об искусственном интеллекте требует прозрачности документации и аудита последующих разработок, особенно для foundation models и GenAI. Системы искусственного интеллекта не настроены таким образом, чтобы предоставлять эту информацию, и законодатели не предложили никаких практических решений. Возникает потребность в проверяемом ответственном ИИ. Именно здесь технология блокчейн может помочь предоставить решение, которое позволит компаниям выполнять запросы законодателей и внедрять "проверяемый ответственный искусственный интеллект” — безопасный и заслуживающий доверия. Возможно, OpenAI могла бы рассмотреть возможность внедрения такого решения и продемонстрировать надлежащую проверяемость систем искусственного интеллекта.
Внедрение ответственного искусственного интеллекта, включая возможность проверки систем искусственного интеллекта и смягчение последствий для энергетики, — все это с удовлетворительными результатами, должно быть рассмотрено до масштабирования этих систем, не говоря уже о “массовом масштабировании”.
Ответственное внедрение инноваций и обеспечение безопасности систем искусственного интеллекта и доверия обеспечат наше коллективное будущее. Возможно, это не путь Сэма Альтмана, но это правильный путь.
Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости