BTC 96756.2$
ETH 2703.08$
Tether (USDT) 1$
Toncoin (TON) 3.75$
telegram vk
telegram vk Х
Russian English
"

DeepSeek — сигнал о необходимости ответственных инноваций и управления рисками

Дата публикации:06.02.2025, 20:26
98
98
Поделись с друзьями!

С момента своего запуска 20 января DeepSeek R1 привлек внимание пользователей, а также технологических магнатов, правительств и политиков по всему миру, вызвав реакцию в диапазоне от похвал до критики, от принятия до запретов, от восхищения инновационным блеском до указания на уязвимости конфиденциальности и безопасности.

Кто прав? Короткий ответ: все и никто.

Это не “момент Спутника”

DeepSeek разработал большую языковую модель (LLM), сопоставимую по производительности с OpenAI GTPo1, ​​за малую часть времени и затрат, которые потребовались OpenAI (и другим технологическим компаниям) для создания собственной LLM.

Используя умную оптимизацию архитектуры, которая сокращает стоимость обучения модели и вывода, DeepSeek смог разработать LLM всего за 60 дней и менее чем за 6 миллионов долларов.

Действительно, DeepSeek следует вручить награду за инициативу по поиску лучших способов оптимизации структуры модели и кода. Это тревожный звонок, но это далеко не «момент Спутника».

Каждый разработчик знает, что есть два способа повысить производительность: рптимизация кода и «выброс» большого количества вычислительной мощности. Последний вариант очень затратен, и разработчикам всегда советуют максимально оптимизировать архитектуру, прежде чем прибегать к большему количеству вычислений.

Кажется, что с высокими оценками стартапов в области искусственного интеллекта и огромными инвестициями разработчики стали ленивыми. Зачем тратить время на оптимизацию архитектуры модели, если у вас есть миллиарды долларов на вычислительную мощность? Это звонок всем разработчикам — требование вернуться к основам. Внедряйте инновации ответственно, выходите из зоны комфорта, мыслите нестандартно и не бойтесь бросать вызов нормам. Не нужно тратить деньги и ресурсы — используйте их с умом.

Как и любой другой LLM, DeepSeek R1 не хватает рассуждений, возможностей сложного планирования, понимания физического мира и постоянной памяти. Так что здесь нет никаких потрясающих инноваций. Пришло время ученым выйти за рамки LLM, устранить эти ограничения и разработать «новую парадигму архитектур ИИ». Это может быть не LLM или генеративный ИИ — настоящая революция.

Прокладывая путь для ускоренных инноваций

Подход DeepSeek может побудить разработчиков по всему миру, включая развивающиеся страны, внедрять инновации и разрабатывать собственные приложения ИИ, несмотря на нехватку ресурсов. Чем больше людей вносят вклад в исследования и разработки ИИ, тем быстрее развиваются инновации и могут быть достигнуты значимые прорывы.

Это соответствует проекту Nvidia: сделать ИИ доступным и дать каждому разработчику или ученому возможность разрабатывать собственные приложения ИИ. В этом смысл проекта DIGITS, анонсированного в начале января, графического процессора за 3000 долларов для вашего настольного компьютера. Нам нужны «все умы на палубе» для решения насущных проблем человечества. Ресурсы больше не могут быть препятствием — пришло время встряхнуть старые парадигмы.

В то же время выпуск DeepSeek также стал сигналом о необходимости действенного управления рисками и ответственного ИИ.

Прочитайте написанное мелким шрифтом

Все приложения имеют условия обслуживания, которые общественность часто склонна игнорировать. Некоторые тревожные детали в условиях обслуживания DeepSeek, которые могут повлиять на вашу конфиденциальность, безопасность и даже на вашу бизнес-стратегию:

  • Хранение данных: удаление вашей учетной записи не означает, что ваши данные будут стерты — DeepSeek их сохранит.
  • Наблюдение: приложение имеет право отслеживать, обрабатывать и собирать вводимые и выводимые пользователем данные, включая конфиденциальную информацию.
  • Правовое воздействие: DeepSeek регулируется китайским законодательством, что означает, что государственные органы могут получать доступ к вашим данным и отслеживать их по запросу — китайское правительство активно отслеживает ваши данные.
  • Односторонние изменения: DeepSeek может обновлять условия в любое время — без вашего согласия.
  • Споры и судебные разбирательства: все претензии и юридические вопросы регулируются законами Китайской Народной Республики.

Вышеперечисленное является явным нарушением Общего регламента по защите данных (GDPR) и другими нарушениями конфиденциальности и безопасности GDPR, как указано в жалобах, поданных Бельгией, Ирландией и Италией, которые также временно запретили использование DeepSeek.

В марте 2023 года итальянские регуляторы временно запретили OpenAI ChatGPT за нарушения GDPR, прежде чем разрешить его снова в сети через месяц после улучшений соответствия. Будет ли DeepSeek также соответствовать требованиям?

Предвзятость и цензура

Как и другие LLM, DeepSeek R1 галлюцинирует, содержит предвзятость в своих обучающих данных и демонстрирует поведение, которое отражает политические взгляды Китая на определенные темы, такие как цензура и конфиденциальность. Поскольку это китайская компания, этого и следует ожидать. Закон Китая о генеративном ИИ, который применяется к поставщикам и пользователям систем ИИ, гласит в статье 4:

"Статья 4: Предоставление и использование генеративных услуг ИИ должно соответствовать требованиям законов и административных правил, уважать общественные нормы, этику и мораль и подчиняться следующим положениям: (1) Соблюдать основные социалистические ценности; контент, запрещенный законами и административными правилами: подстрекательство к подрыву национального суверенитета или свержению социалистической системы, угроза национальной безопасности и интересам или нанесение вреда имиджу нации, разжигание сепаратизма или подрыв национального единства и социальной стабильности, пропаганда терроризма или экстремизма, пропаганда этнической ненависти и этнической дискриминации, насилия и непристойности, а также ложная и вредная информация…"

Источник: Закон КНР о генеративном ИИ.

Уязвимости безопасности LLM

LLM могут подвергаться состязательным атакам и уязвимостям безопасности. Эти уязвимости вызывают еще больше беспокойства, поскольку они повлияют на любые приложения, созданные на основе этого LLM любой организацией или отдельным лицом.

Qualys протестировала очищенный вариант DeepSeek-R1 LLaMA 8B на уязвимости, этические проблемы и юридические риски. Модель не прошла половину попыток взлома — т. е. попыток обойти меры безопасности и этические принципы, встроенные в модели ИИ, такие как LLM — протестированных атак.

Goldman Sachs рассматривает возможность использования DeepSeek, но модель нуждается в проверке безопасности. Это проблема для любой компании, которая использует модель ИИ для своих приложений, независимо от того, китайская эта модель или нет. Goldman Sachs внедряет правильное управление рисками, и другим организациям следует следовать этому подходу, прежде чем принимать решение об использовании DeepSeek.

Извлеченные уроки

Мы должны быть бдительными и усердными и внедрять адекватное управление рисками перед использованием любой системы или приложения ИИ.

Чтобы смягчить любую «повестку дня» LLM и цензуру, вызванную централизованной разработкой, мы могли бы рассмотреть децентрализованный ИИ, предпочтительно структурированный как децентрализованная автономная организация (DAO).

ИИ не знает границ. Возможно, пришло время рассмотреть единые глобальные правила ИИ.

Об авторе:

Мерав Озаир — доктор философии.

Эта статья предназначена для общих информационных целей и не должна восприниматься как юридический или инвестиционный совет. Мнения, мысли и мнения, выраженные здесь, принадлежат исключительно автору.

 

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24