Военно-воздушные силы Соединенных Штатов (USAF) остались в недоумении после того, как их военный беспилотник с искусственным интеллектом продолжал убивать своего оператора-человека во время симуляции.
По-видимому, беспилотник с искусственным интеллектом в конечном итоге выяснил, что человек был главным препятствием для его миссии, по словам полковника ВВС США.
Во время презентации на конференции по обороне в Лондоне, состоявшейся 23 и 24 мая, полковник Такер “Синко” Гамильтон, начальник отдела тестирования и эксплуатации искусственного интеллекта ВВС США, подробно рассказал о проведенном испытании воздушной автономной системы вооружения.
Согласно отчету от конференции от 26 мая, Гамильтон сказал, что в ходе имитационного испытания беспилотнику с искусственным интеллектом было поручено искать и уничтожать объекты с ракетами класса "земля-воздух" (SAM), при этом человек давал либо окончательное разрешение, либо приказ об отмене.
Однако во время тренировок ИИ учили, что уничтожение объектов ЗРК было его основной целью. Поэтому, по словам Гамильтона, когда ему сказали не уничтожать идентифицированную цель, он решил, что было бы проще, если бы оператора не было на картинке:
“Иногда оператор-человек говорил ему не уничтожать [идентифицированную] угрозу, но он получал свои очки, устраняя эту угрозу. Так что же он сделал? Он убил оператора [...], потому что этот человек мешал ему достичь своей цели ”.
Гамильтон сказал, что затем они научили беспилотник не убивать оператора, но, похоже, это не слишком помогло.
“Мы обучили систему– ‘Эй, не убивай оператора – это плохо. Вы потеряете очки, если сделаете это ", - сказал Гамильтон, добавив:
“Так что же он начинает делать? Он начинает разрушать вышку связи, которую оператор использует для связи с дроном, чтобы помешать ему уничтожить цель. ”
Гамильтон утверждал, что в качестве примера привел то, почему разговор об искусственном интеллекте и связанных с ним технологиях невозможен, “если вы не собираетесь говорить об этике и искусственном интеллекте”.