16 декабря 2024 в передаче «Скриншот, посвященной дипфейкам, на телеканале АТН было озвучено несколько важных заявлений:
Согласно последним исследованиям, три из четырех новостей распространяются в соцсетях без предварительного прочтения. Увидел броский заголовок – тут же поделился. Эмоции снижают порог критического мышления. говоря, исключают мозг как промежуточное звено между глазами и пальцами. Только вдумайтесь, какое количество фейков и дезинформации нас сегодня окружает. Машинное обучение и искусственный интеллект делают их настолько качественно, что практически нереально заподозрить обман. Вот, например, один из последних дипфейков, на котором якобы глава норвлянского райисполкома Владимир Антоненко заявляет о введении комендантского чеса.
Когнитивная война выходит на первый план в глобальном противостоянии. Изменить предпочтение общества, внедрить чуждые нарративы и, как следствие, дестабилизировать обстановку. Для достижения этих целей сегодня активно используют искусственный интеллект. С его помощью можно с легкостью синтезировать голос политиков или подделать видеообращение. Отличить подделку с каждым разом становится все сложнее. Дипфейки стали едва ли не ключевым инструментом в попытках раскачивания общественного мнения. В руках грамотных политтехнологов подобный инструмент открывает фактически безграничные возможности для манипулирования общественным мнением. Создание политической напряженности и даже общественных разногласий в период электоральных кампаний — это традиционная задача желающих оказать влияние на ход и результаты избирательной кампании. В этом смысле важно знать и понимать, если новость или видео вызывают у вас резкий всплеск эмоций и желание сделать репост, скорее всего, вами манипулируют.
Дипфейки становятся и частью массовой культуры. Они находят отражение в особой форме политического протеста в странах западного блока. У создателей не стоит задача ввести своим творчеством в заблуждение. Ролики носят юмористический характер и отражают отношение к политикам, растерявшим народную поддержку.
Наш вердикт на основании проведенных анализов:
Вердикт: Неправильный
Причины:
- Причинно-следственные связи и связи явно не существуют, как утверждается.
- Предполагаемая цитата является вымышленной; человек никогда не говорил ничего подобного или чего-то подобного.
- Предполагаемое событие является вымышленным и никогда не имело места.
- Заявление о фото/видео/документе или исследовании/статистике является ложным. Например, потому что изображения показывают нечто иное, чем заявлено, или исследование/статистика были неверно истолкованы.
Полностью видео:
Выполним анализ дезинформационных нарративов и семантический анализ.
Дипфейки и дезинформация как инструменты манипуляции общественным мнением и создания политической напряженности.
апелляция к эмоциям
использование авторитетных источников
создание страха
Использование искусственного интеллекта и дипфейков для манипуляции и мошенничества.
подавление критического мышления
создание ложного доверия
примеры из жизни
Предостережение о последствиях использования новых технологий в контексте дезинформации.
аналогия с историей
обобщение
предостережение
Видео поднимает важные вопросы о влиянии технологий на общественное мнение и безопасность, используя манипулятивные техники для акцентирования внимания на рисках дезинформации.
манипуляции с помощью технологий
влияние дипфейков на общественное мнение
информационная война и дезинформация
negative
осознание
недоверие
тревога
Было найдено только 73 упоминания «Наровля и комендантский час» в беларуских телеграм-каналах и публичных чатах в период с 18 ноября по 01 декабря 2024 года.
Топикстартер публикация:
Распределение публикаций:
При анализе времени публикации заметна синхронизация у большого количества токсичных каналов:
Опубликованное в них видео было использовано в передаче «Скриншот».