BTC 97561.2$
ETH 3135.33$
Tether (USDT) 1$
Toncoin (TON) 5.45$
telegram vk Х
telegram vk Х
Russian English

Deepfakes: как распознать поддельные аудио и видео

Дата публикации: 05.10.2024
978
Поделись с друзьями!
1

Введение

Дипфейки — это поддельные видео или аудио, созданные с помощью искусственного интеллекта, чтобы создать впечатление, будто кто-то сделал или сказал что-то, чего на самом деле не было.

Обратите внимание на странные выражения лица, несоответствующие движения губ или необычное видеоосвещение. Что касается звука, прислушивайтесь к роботизированным звукам или неестественным паузам.

Убедитесь, что контент исходит из надежного источника. Если он  подозрительный, это может быть deepfake.

Используйте расширения для браузера или приложения, чтобы обнаружить поддельный контент, проверяя его на наличие признаков манипуляции.

В современную цифровую эпоху становится все сложнее отличить правду от лжи, особенно когда речь идет об аудио- и видеоматериалах.

Представьте себе, что вы видите видео известного технологического миллиардера, анонсирующего уникальный криптовалютный проект, который предлагает монету по схеме «купи одну — получи вторую бесплатно», или слышите его голос, рекламирующий возможность эйрдропа. Звучит убедительно, не так ли? Но что, если все это фейк ?

Такова реальность дипфейков — видео- и аудиоклипов, созданных с помощью искусственного интеллекта, чтобы создать впечатление, будто кто-то сказал или сделал что-то, чего на самом деле не было.

В то время как некоторые дипфейки предназначены только для развлечения, другие могут использоваться для мошенничества, дезинформации или даже для манипулирования общественным мнением. Австралийская федеральная полиция раскрыла, что мошенники используют дипфейки и  мошенничество с «разделкой свиней» в качестве основных тактик обмана жертв в стране.

Но хорошая новость в том, что существуют способы распознать эти подделки, и вы можете избежать обмана, проявив немного осведомленности. Рассмотрим, как можно начать распознавать дипфейки.

Что такое дипфейки ?

Цифровые измененные видео или аудио, которые используют передовые технологии для манипулирования внешностью или голосом кого-либо, называются deepfakes. Хорошо поддельное видео или аудио выглядит так, будто кто-то сказал или сделал что-то нереальное. Но как возможно создать такие медиа?

Это не что иное, как инструменты создания дипфейков, которые упростили создание этих фейковых видео или аудио для любого, что привело к тому, что некоторые из них стали вирусными в сети. Хотя некоторые примеры дипфейков используются в развлекательных целях, влияние дипфейков на общество может быть пагубным.

Например, были случаи, когда в видео с дипфейком фигурировали публичные личности, такие как Илон Маск, которые, казалось бы, одобряли фейковые криптосхемы. Эти известные видео с дипфейком могут распространять дезинформацию, создавать путаницу и даже наносить ущерб репутации, поскольку они легко вводят людей в заблуждение, заставляя их инвестировать в мошеннические проекты.

Самая сложная часть заключается в том, что методы манипуляции дипфейками становятся настолько продвинутыми, что порой сложно отличить дипфейки от настоящего видео.

Термин «deepfake» произошел от сочетания «глубокого обучения» (тип ИИ, используемый для создания фейкового контента) и «фейка». Фейковые видеоролики, созданные с помощью ИИ, впервые привлекли внимание общественности в конце 2017 года, когда пользователь Reddit под ником Deepfakes поделился порнографическими видеороликами, созданными с помощью алгоритма подмены лиц на основе глубокой нейронной сети.

2

Как работают дипфейки?

Deepfakes обучаются на реальных данных, используя мощный ИИ, а затем производят контент, который выглядит и звучит как настоящий, но таковым не является.

Вот как они создаются:

  • Сбор данных: Во-первых, технологии нужно много примеров лица или голоса человека, чтобы учиться на реальных данных. Это могут быть фотографии, видео или аудиозаписи.
  • Обучение ИИ: Примеры служат основой для ИИ, чтобы узнать, как выглядит и звучит человек.
  • Создание фейка: ИИ генерирует новый контент после получения достаточных знаний. Он кажется реалистичным, когда меняет лица или выражения для видео. При использовании с аудио он имитирует голос, чтобы сказать то, чего человек никогда не говорил.
  • Тонкая настройка: ИИ может вносить небольшие коррективы, чтобы сделать поддельный контент еще более правдоподобным. Это влечет за собой тонкую настройку деталей, чтобы гарантировать максимально аутентичность аудио или видео контента. Теперь, когда вы знаете, как создаются дипфейки , пришло время узнать, как от них защититься.
3

Как распознать дипфейковые видео?

Вот несколько предупреждающих знаков, которые вам нужно знать, чтобы определить, является ли видео подлинным или deepfake :

  • Ищите несоответствия: Deepfakes не всегда могут имитировать естественную мимику. Если вы найдете видео со странными выражениями лица или несоответствующими движениями губ, оно, вероятно, сгенерировано ИИ.
  • Проверьте глаза: внимательно посмотрите на глаза. У Deepfakes часто возникают проблемы с движениями глаз или отражениями, которые могут казаться неестественными или несинхронизированными.
  • Проверьте освещение и тени: видео может быть поддельным, если освещение лица не соответствует остальной части сцены.
  • Слушайте внимательно: если это дипфейк -аудио, прислушивайтесь к неестественным паузам, роботизированным тонам.
  • Проверьте источник: если видео взято с неизвестного или подозрительного аккаунта или из ненадежного источника, оно может быть поддельным.
  • Используйте инструменты обнаружения: доступные инструменты могут анализировать видео на предмет признаков фальсфикации. Хотя они не являются абсолютно надежными, они могут стать полезным первым шагом.
  • Перепроверьте информацию, полученную из надежных источников: найдите другие источники или новостные агентства, чтобы подтвердить, является ли контент подлинным или он был отмечен как поддельный.

Одна из мошеннических схем с использованием криптовалюты Deepfake представляла собой поддельный сайт с логотипом «Сделаем Америку снова великой» и изображением Дональда Трампа, ложно заявляя, что проводит «крупнейшую раздачу криптовалюты Трампа на сумму 100 000 000 долларов».

4

Как можно определить, настоящий контент или подделка

  • Прислушивайтесь к роботизированным тонам: Deepfake часто имеет странное, механическое качество. Например, если голос инфлюенсера лишен естественных подъемов и падений и звучит более плавно, чем ожидалось, это может быть признаком фальсификации.
  • Обратите внимание на речевые модели: обратите внимание  на естественность  речевого потока. Запись может быть не настоящая, если эксперт делает неловкие паузы, речевые модели кажутся неправильными, и есть неестественные паузы или заикания.
  • Проверьте эмоциональную составляющую: настоящие голоса обычно передают чувства, соответствующие ситуации. Это может быть дипфейком, если эксперт выглядит чрезмерно возбужденным или странно спокойным, обсуждая что-то, что должно вызывать иную эмоциональную реакцию.
  • Сравните с известными записями: Если у вас есть другие записи эксперта, сравните их. Есть ли различия в том, как они говорят или произносят слова? Это может помочь вам обнаружить подделку.
  • Обратите внимание на фоновый шум: настоящие записи часто содержат фоновые звуки, такие как офисный гул или отдаленная болтовня. Если звук слишком чистый или в нем отсутствуют эти детали, это тревожный сигнал.
  • Используйте программное обеспечение для обнаружения: доступны инструменты, которые анализируют аудио для обнаружения признаков манипуляции. Прогон клипа через один из этих инструментов может обеспечить дополнительный уровень проверки.
5

Инструменты для выявления дипфейков

По данным Bitget Research, в 2024 году ожидается, что потери криптовалют от мошенничества с дипфейками превысят $25 млрд, что более чем вдвое превысит показатели прошлого года. В их июньском отчете отмечен рост инцидентов с дипфейками на 245%,

Существует несколько инструментов, которые помогут вам обнаружить дипфейки :

  • Расширения браузера: некоторые расширения можно добавить в веб-браузер, чтобы отмечать потенциально поддельный контент во время просмотра страниц.
  • Инструменты для видеокриминалистики: эти инструменты сканируют видеофайлы на предмет признаков манипуляции, таких как несовпадение пикселей или измененная информация.
  • Deepfake: Эти приложения сканируют фотографии и видео на предмет признаков подделки. Они часто отслеживают изменения в освещении и выражении лица.
  • Обратный поиск изображений: такие инструменты, как Google Reverse Image Search, могут помочь вам найти оригинальный источник изображения, что может показать, было ли оно изменено.
  • Программное обеспечение для анализа голоса: оно может помочь обнаружить поддельный звук, анализируя голосовые записи на предмет синтетических тонов.

Bitget прогнозирует, что без более серьезных мер защиты к 2026 году дипфейки могут составить до 70% преступлений, связанных с криптовалютой.

6

История дипфейков

Поскольку вы узнали, что такое deepfakes и как распознать поддельные видео и аудио, вы, возможно, захотите узнать, как мир оказался с видео, которые выглядят такими реальными, но являются полностью поддельными. Вот краткий экскурс в историю deepfakes :

Начало

  • 1990-е: Люди начали заставлять компьютеры менять лица в видеороликах.
  • 1997: Программа под названием «Video Rewrite» могла изменять лицо человека на видео, чтобы оно соответствовало другому голосу.

Рост числа дипфейков

  • 2017: Термин «дипфейк» привлек широкое внимание с появлением Reddit, subreddit и выпуска инструментов для создания deepfake с открытым исходным кодом (например, фреймворков глубокого обучения, таких как TensorFlow и PyTorch).
  • 2018: Поскольку качество дипфейков росло, а их потенциал для злоупотреблений увеличивался, они стали серьезной проблемой.
  • 2019: Дипфейки использовались в различных вредоносных целях, включая политическую дезинформацию и финансовое мошенничество.

Борьба с дипфейками

2020 г. по настоящее время: По мере совершенствования технологий, усилия по поиску способов идентификации поддельных аудиозаписей и видео, таких как несоответствующая синхронизация губ и неестественные речевые паттерны, становятся все более активными. Исследователи также разрабатывают инструменты обнаружения поддельных видео, которые могут помочь анализировать несоответствия, которые могут быть не видны невооруженным глазом.

7

Этические проблемы дипфейков

Не стоит игнорировать существенные этические проблемы, связанные с дипфейками. Они поднимают серьезные вопросы о правде и доверии, поскольку способны производить поддельные, но очень реалистичные видео и аудио.

Например, дипфейки могут использоваться для распространения вводящей в заблуждение информации, обмана людей, заставляя их думать, что они слышат правду, или даже разрушения репутации путем фабрикации противоречий.

Кроме того, технология может нарушать конфиденциальность, используя голоса или лица людей во вводящих в заблуждение или ненадлежащих обстоятельствах. Это напоминает наличие суперспособности, которую можно применять как в негативных, так и в позитивных целях.

Дипфейки становятся все более продвинутыми, поэтому крайне важно, чтобы технологические компании, правительства и частные лица сотрудничали для поиска решений, которые позволят остановить их неправомерное использование и обеспечить безопасность людей.

Bitget прогнозирует, что без более серьезных мер защиты к 2026 году дипфейки могут составить до 70% преступлений, связанных с криптовалютой.

8

Будущее технологии deepfake

Deepfake может полностью изменить то, как люди производят и потребляют медиа. Ее можно использовать для создания реалистичных и захватывающих впечатлений от виртуальной реальности, возвращения умерших актеров или создания новых персонажей, которые когда-то были недоступны никому.

Но есть и обратная сторона. Дипфейки могут распространять неверную информацию или создавать убедительные фальшивые доказательства. Чтобы полностью реализовать потенциал дипфейков, одновременно ограничивая их вредоносное применение важно следовать этическим принципам.

Плюс, может быть полезной блокчейн- криминалистика. Используя блокчейн для создания четкой, защищенной от несанкционированного доступа записи о том, откуда поступают медиаданные и как они были изменены, становится проще проверять подлинность цифрового контента. Этот подход может работать вместе с Законом о защите происхождения контента и целостности от отредактированных и поддельных медиаданных, помогая различать реальный и сфальсифицированный контент. Поиск правильного баланса между инновациями и осторожностью будет иметь решающее значение по мере развития технологий.

978
12
12
Поделись с друзьями!
Другие вопросы