BTC 94714.7$
ETH 1803.54$
Tether (USDT) 1$
Toncoin (TON) 3.22$
telegram vk
telegram vk Х
Russian English
"

Проблема черного ящика ИИ в криптопространстве

Дата публикации:03.08.2023, 15:40
1913
1913
Поделись с друзьями!

Давайте заглянем в черный ящик и поищем там решение дилеммы доверия и стратегии для прозрачного ИИ.

Искусственный интеллект (ИИ) произвел фурор своей способностью революционизировать подход людей к решению различных задач и сложных проблем. ИИ и связанные с ним модели машинного обучения продемонстрировали свой потенциал для оптимизации сложных процессов, улучшения моделей принятия решений и раскрытия ценных идей в самых разных областях — от здравоохранения до финансов.

Однако, несмотря на огромный потенциал технологии ИИ, серьезным препятствием для ее внедрения по-прежнему является сохраняющаяся проблема «черного ящика»,  связанная с вопросами о прозрачности и интерпретируемости этих сложных систем.

Попросту говоря, проблемой черного ящика называется трудность понимания того, как системы ИИ и модели машинного обучения обрабатывают данные и генерируют прогнозы или решения. Эти модели часто основаны на сложных алгоритмах, которые нелегко понять людям, что приводит к отсутствию ответственности и доверия.

Поскольку ИИ все больше интегрируется в различные аспекты нашей жизни, решение данной проблемы имеет решающее значение для обеспечения ответственного и этичного использования этой мощной технологии.

Что такое проблема черного ящика?

Метафорическое определение «черный ящик» возникло из представления о том, что системы ИИ и модели машинного обучения работают скрытым от человеческого понимания образом: мы будто видим запечатанный непрозрачный ящик, в котором происходят какие-то незримые процессы. Системы ИИ построены на сложных математических моделях и многомерных наборах данных, которые создают сложные взаимосвязи и шаблоны, управляющие их процессами принятия решений. Однако эта внутренняя работа недоступна или непонятна людям.

С практической точки зрения, проблема «черного ящика» ИИ заключается в сложности расшифровки мотивировок и причин прогнозов или решений системы ИИ. Эта проблема особенно распространена в моделях глубокого обучения, таких как нейронные сети, где несколько уровней взаимосвязанных узлов обрабатывают и преобразовывают данные иерархическим образом. Сложность этих моделей и нелинейные преобразования, которые они выполняют, чрезвычайно затрудняют отслеживание обоснования их результатов.

Никита Бруднов, генеральный директор BR Group — панели маркетинговой аналитики на основе ИИ — говорит, что отсутствие прозрачности в том, как модели ИИ приходят к определенным решениям и прогнозам, может быть проблематичным во многих контекстах, таких как медицинский диагноз, принятие финансовых решений и судебные разбирательства, а это существенно влияет на дальнейшее внедрение ИИ.

«В последние годы большое внимание уделялось разработке методов интерпретации и объяснения решений, принимаемых моделями ИИ, таких как генерация показателей важности функций, визуализация границ решений и выявление контрфактических гипотетических объяснений, — сказал он, добавив: — Однако эти методы все еще находятся в зачаточном состоянии, и нет гарантии, что они будут эффективны во всех случаях».

Бруднов также считает, что при дальнейшей децентрализации регулирующие органы могут потребовать, чтобы решения, принимаемые системами ИИ, были более прозрачными и подотчетными, чтобы обеспечить их этическую обоснованность и общую справедливость. Он также предположил, что потребители не решатся использовать продукты и услуги на основе ИИ, если не будут понимать, как те работают и принимают решения.


Рисунок 1. Черный ящик. Источник: Investopedia.

Джеймс Во, основатель DFG — инвестиционной компании, которая активно вкладывается в технологии, связанные с ИИ, — считает, что проблема «черного ящика» не повлияет на внедрение в обозримом будущем. Согласно Ву, большинству пользователей не обязательно знать о том, как работают существующие модели ИИ, и они рады просто извлечь из них пользу, по крайней мере, на данный момент.

«В среднесрочной перспективе, когда новизна этих платформ исчезнет, определенно будет больше скептицизма в отношении методологии черного ящика. Вопросы также будут увеличиваться по мере того, как использование ИИ входит в криптопространство и Web3, где необходимо учитывать финансовые ставки и последствия», — признал он.

Влияние на доверие и прозрачность

Одной из областей, где отсутствие прозрачности может существенно повлиять на доверие, является медицинская диагностика с использованием ИИ.

Например, модели ИИ могут анализировать сложные медицинские данные в сфере здравоохранения для постановки диагноза или рекомендаций по лечению. Однако, когда клиницисты и пациенты не понимают обоснование сделанных ИИ предположений, они могут усомниться в надежности и обоснованности этих выводов. Этот скептицизм может еще больше привести к нерешительности в отношении внедрения решений ИИ, что потенциально способно помешать прогрессу в области ухода за пациентами и персонализированной медицины.

В финансовой сфере системы ИИ могут использоваться для оценки кредитоспособности, обнаружения мошенничества и выявления рисков. Однако проблема «черного ящика» может создать неопределенность в отношении справедливости и точности этих кредитных рейтингов или обоснования предупреждений о мошенничестве, что ограничивает способность технологии оцифровывать отрасль.

Криптоиндустрия также сталкивается с последствиями проблемы черного ящика. Например, цифровые активы и технология блокчейн основаны на децентрализации, открытости и возможности проверки. Системы ИИ, которым не хватает прозрачности и интерпретируемости, могут привести к разрыву между ожиданиями пользователей и реальностью решений на основе ИИ в этой области.

Регуляторные проблемы

С точки зрения регулирования проблема «черного ящика» ИИ уникальна. Во-первых, непрозрачность процессов ИИ может затруднить регулирующим органам оценку соответствия этих систем существующим правилам и рекомендациям. Более того, отсутствие прозрачности может усложнить способность регулирующих органов разрабатывать новые структуры, которые способны устранять риски и проблемы, связанные с приложениями ИИ.

Законодателям может быть сложно оценить справедливость, непредвзятость и методы обеспечения конфиденциальности данных в системах ИИ, а также их потенциальное влияние на права потребителей и стабильность рынка. Кроме того, без четкого понимания процессов принятия решений в системах, управляемых ИИ, регулирующие органы могут столкнуться с трудностями при выявлении потенциальных уязвимостей и обеспечении наличия соответствующих мер безопасности для снижения рисков.

Одним из заметных нормативных изменений в отношении этой технологии стал Закон Европейского Союза об искусственном интеллекте. Предварительное политическое соглашение по нему было достигнуто 27 апреля, и вскоре, как ожидается, он станет частью свода законов.

По своей сути Закон об ИИ направлен на создание надежной и ответственной среды для развития ИИ в ЕС. Законодатели приняли систему классификации, которая классифицирует различные типы ИИ по степени риска: неприемлемый, высокий, ограниченный и минимальный. Эта структура предназначена для решения различных проблем, связанных с проблемой «черного ящика» ИИ, включая вопросы прозрачности и подотчетности.

Неспособность эффективно контролировать и регулировать системы ИИ уже обострила отношения между различными отраслями и регулирующими органами.

В начале прошлого месяца популярный чат-бот с искусственным интеллектом ChatGPT был заблокирован в Италии на 29 дней, в первую очередь из-за проблем с конфиденциальностью. Агентство по защите данных страны инициировало блокировку ChatGPT в связи с подозрениями в нарушении Общего регламента ЕС по защите данных (GDPR). Тем не менее, платформе было разрешено возобновить свои услуги 29 апреля — после того, как генеральный директор Сэм Альтман объявил, что он и его команда предприняли конкретные шаги для выполнения требований регулятора, включая раскрытие методов обработки данных и внедрение реализации возрастных ограничений.

Неадекватное регулирование систем ИИ может подорвать общественное доверие к приложениям ИИ, поскольку пользователи все больше обеспокоены присущими им предубеждениями, неточностями и этическими последствиями.

Решение проблемы черного ящика

Для эффективного решения проблемы черного ящика ИИ необходимо использовать комбинацию подходов, обеспечивающих прозрачность, интерпретируемость и подотчетность. Двумя такими взаимодополняющими стратегиями являются объяснимый искусственный интеллект (XAI) и модели с открытым исходным кодом.

XAI — это область исследований, посвященная преодолению разрыва между сложностью систем искусственного интеллекта и потребностью в интерпретации его заключений человеком. XAI фокусируется на разработке методов и алгоритмов, которые могут предоставить понятные человеку объяснения решений, принимаемых ИИ, предлагая понимание причин, лежащих в основе этих выборов.

Методы, часто используемые в XAI, включают суррогатные модели, анализ важности признаков, анализ чувствительности и локальные интерпретируемые объяснения, не зависящие от модели. Внедрение XAI в разных отраслях может помочь заинтересованным сторонам лучше понять процессы, управляемые ИИ, повысить доверие к технологии и облегчить соблюдение нормативных требований.

В тандеме с XAI эффективной стратегией решения проблемы черного ящика может стать содействие внедрению моделей ИИ с открытым исходным кодом. Модели с открытым исходным кодом предоставляют полный доступ к алгоритмам и данным, которые управляют системами ИИ, позволяя пользователям и разработчикам тщательно изучать и понимать лежащие в их основе процессы.

Такая повышенная прозрачность может помочь укрепить доверие и будет способствовать сотрудничеству между разработчиками, исследователями и пользователями. Кроме того, подход с открытым исходным кодом может создавать более надежные, подотчетные и эффективные системы искусственного интеллекта.

Проблема черного ящика в криптопространстве

Проблема черного ящика имеет значительные последствия для различных аспектов криптопространства, включая торговые стратегии, прогнозы рынка, меры безопасности, токенизацию и смарт-контракты.

В сфере торговых стратегий и рыночных прогнозов модели на основе ИИ набирают популярность, поскольку инвесторы стремятся извлечь выгоду из алгоритмической торговли. Однако проблема черного ящика мешает пользователям понять, как работают эти модели, что затрудняет оценку их эффективности и потенциальных рисков. Следовательно, эта непрозрачность также может привести к необоснованному недоверию к инвестиционным решениям, основанным на искусственном интеллекте, или, наоборот, сделать инвесторов чрезмерно зависимыми от автоматизированных систем.

ИИ должен сыграть решающую роль в усилении мер безопасности в экосистеме блокчейна, обнаруживая мошеннические транзакции и подозрительные действия. Тем не менее, проблема черного ящика усложняет процесс проверки для этих решений безопасности на основе ИИ. Отсутствие прозрачности в процессе принятия решений может подорвать доверие к системам безопасности, вызывая опасения по поводу их способности защищать активы и информацию пользователей.

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24