Дипфейки и ИИ: как технологии становятся оружием информационной войны и манипуляций

Factcheck

16 декабря 2024 в передаче «Скриншот, посвященной дипфейкам, на телеканале АТН было озвучено несколько важных заявлений:

Согласно последним исследованиям, три из четырех новостей распространяются в соцсетях без предварительного прочтения. Увидел броский заголовок – тут же поделился. Эмоции снижают порог критического мышления. говоря, исключают мозг как промежуточное звено между глазами и пальцами. Только вдумайтесь, какое количество фейков и дезинформации нас сегодня окружает. Машинное обучение и искусственный интеллект делают их настолько качественно, что практически нереально заподозрить обман. Вот, например, один из последних дипфейков, на котором якобы глава норвлянского райисполкома Владимир Антоненко заявляет о введении комендантского чеса.

Когнитивная война выходит на первый план в глобальном противостоянии. Изменить предпочтение общества, внедрить чуждые нарративы и, как следствие, дестабилизировать обстановку. Для достижения этих целей сегодня активно используют искусственный интеллект. С его помощью можно с легкостью синтезировать голос политиков или подделать видеообращение. Отличить подделку с каждым разом становится все сложнее. Дипфейки стали едва ли не ключевым инструментом в попытках раскачивания общественного мнения. В руках грамотных политтехнологов подобный инструмент открывает фактически безграничные возможности для манипулирования общественным мнением. Создание политической напряженности и даже общественных разногласий в период электоральных кампаний — это традиционная задача желающих оказать влияние на ход и результаты избирательной кампании. В этом смысле важно знать и понимать, если новость или видео вызывают у вас резкий всплеск эмоций и желание сделать репост, скорее всего, вами манипулируют.

Дипфейки становятся и частью массовой культуры. Они находят отражение в особой форме политического протеста в странах западного блока. У создателей не стоит задача ввести своим творчеством в заблуждение. Ролики носят юмористический характер и отражают отношение к политикам, растерявшим народную поддержку.

Наш вердикт на основании проведенных анализов:

Вердикт: Неправильный


Причины:

  • Причинно-следственные связи и связи явно не существуют, как утверждается.
  • Предполагаемая цитата является вымышленной; человек никогда не говорил ничего подобного или чего-то подобного.
  • Предполагаемое событие является вымышленным и никогда не имело места.
  • Заявление о фото/видео/документе или исследовании/статистике является ложным. Например, потому что изображения показывают нечто иное, чем заявлено, или исследование/статистика были неверно истолкованы.


Рейтинговая шкала проверки

Полностью видео:

Выполним анализ дезинформационных нарративов и семантический анализ.

Анализ нарративов
Уровень риска: high
информационная война

Дипфейки и дезинформация как инструменты манипуляции общественным мнением и создания политической напряженности.

апелляция к эмоциям

использование авторитетных источников

создание страха

Уверенность: 85%
технологическая угроза

Использование искусственного интеллекта и дипфейков для манипуляции и мошенничества.

подавление критического мышления

создание ложного доверия

примеры из жизни

Уверенность: 80%
критика современных технологий

Предостережение о последствиях использования новых технологий в контексте дезинформации.

аналогия с историей

обобщение

предостережение

Уверенность: 75%
Общая оценка

Видео поднимает важные вопросы о влиянии технологий на общественное мнение и безопасность, используя манипулятивные техники для акцентирования внимания на рисках дезинформации.

Эмоциональный анализ
Основные темы

манипуляции с помощью технологий

влияние дипфейков на общественное мнение

информационная война и дезинформация

Эмоциональный анализ
Преобладающий тон:
negative
0

-0.6

Ключевые эмоции:

осознание

недоверие

тревога

Было найдено только 73 упоминания «Наровля и комендантский час» в беларуских телеграм-каналах и публичных чатах в период с 18 ноября по 01 декабря 2024 года.
Топикстартер публикация:

Распределение публикаций:

При анализе времени публикации заметна синхронизация у большого количества токсичных каналов:

Опубликованное в них видео было использовано в передаче «Скриншот».

Оцените статью
Factсheck BY