Японские эксперты и исследователи в области искусственного интеллекта призывают к осторожности в отношении использования незаконно полученной информации для обучения ИИ, что, по их мнению, может привести к «большому количеству случаев нарушения авторских прав», а также к потере рабочих мест, ложной информации и утечке конфиденциальных данных.
26 мая был представлен проект правительственного совета по стратегии в области искусственного интеллекта, в котором выражается обеспокоенность по поводу отсутствия регулирования в отношении искусственного интеллекта, включая риски нарушения авторских прав, связанные с технологией.
По словам японского депутата Такаси Кии, в настоящее время нет законов, запрещающих искусственному интеллекту использовать материалы, защищенные авторским правом, и незаконно полученную информацию для обучения.
«Прежде всего, когда я проверил правовую систему (закон об авторском праве) в Японии в отношении анализа информации с помощью ИИ, я обнаружил, что в Японии, будь то в коммерческих или некоммерческих целях или для действий, отличных от дублирования, полученные с незаконных сайтов», — сказал Такаши.
«Министр Нагаока четко заявил, что использовать произведение для анализа информации можно независимо от метода, независимо от содержания», — добавил Такаши, имея в виду министра образования, культуры, спорта, науки и технологий Кейко Нагаока.
Такаши также спросил о руководящих принципах использования чат-ботов с искусственным интеллектом, таких как ChatGPT, в школах, что также создает собственный набор дилемм, учитывая, что технология, как сообщается, должна быть принята системой образования уже в марте 2024 года.
«Министр Нагаока ответил «как можно скорее», конкретного ответа относительно сроков не было», — сказал он.
Эндрю Петале, юрист и поверенный по товарным знакам Y Intellectual Property в Мельбурне, говорит, что этот вопрос все еще находится в «серой зоне».
«Большая часть того, чего люди на самом деле не понимают, заключается в том, что авторское право защищает способ выражения идей, а не сами идеи. Так что в случае с ИИ у вас есть человек, вводящий информацию в программу», — сказал он.
«Таким образом, входные данные исходят от людей, но фактическое выражение исходит от самого ИИ. Как только информация введена, она практически не зависит от человека, поскольку она генерируется или выкачивается искусственным интеллектом. Думаю, пока законодательство не признает, что машины или роботы могут быть авторами, это действительно своего рода серая зона и своего рода ничейная территория», – пояснил Петале.
Петале добавил, что это ставит много гипотетических вопросов, которые сначала нужно решить в судебном порядке и регулировании.
«Я думаю, вопрос в том, ответственны ли разработчики ИИ за создание инструмента, используемого для нарушения авторских прав, или ответственность несут люди, которые на самом деле используют его для нарушения авторских прав?» – сказал он.
С точки зрения компаний, занимающихся ИИ, они обычно утверждают, что их модели не нарушают авторские права, поскольку их ИИ-боты преобразуют оригинальную работу во что-то новое, что квалифицируется как добросовестное использование в соответствии с законами США, где и начинается большая часть разработок.