80 лет Великой Победе!

Россиянам рассказали, как не стать жертвой розыгрыша с помощью ИИ

Поэтому специалисты из управления по борьбе с противоправным использованием информационно-коммуникационных технологий МВД РФ рекомендуют обращать внимание на источники видео, проводить обратный поиск по фотографиям и использовать специализированные сервисы для защиты от подобных угроз.

Согласно представленным данным, подростки могут использовать ИИ для создания реалистичных сценариев, направленных на запугивание родителей. Например, они могут сгенерировать изображение неопрятного мужчины, представив его как "бездомного", и затем записать реакцию родителей на видео. Эти видео потом могут быть опубликованы в социальных сетях, вызывая тревогу и панику у зрителей.

Для защиты от подобных манипуляций важно обучать людей различным методам проверки информации, особенно когда речь идет о контенте, созданном с использованием ИИ. Предупреждение и образование в области цифровой грамотности могут помочь снизить риски попадания в ловушки мошенников и преступников, действующих с применением новейших технологий.

Сейчас создание дипфэйков стало настолько простым, что в ведомстве подчеркнули: в розыгрышах нет злого умысла, но они являются отражением современной реальности.

По словам представителей МВД, с использованием современных нейросетей можно легко создавать видео, которые кажутся правдоподобными, но при этом несут в себе потенциальные угрозы. Фейковые новости, лживые заявления от лиц известных людей или мошеннические призывы к инвестициям могут быть распространены под видом развлекательного контента.

Для того чтобы избежать попадания в ловушку подобных махинаций, важно всегда проверять источник информации. Если видео не имеет явного происхождения, это должно вызвать подозрение и послужить поводом для бдительности. Проверка официальных аккаунтов, сайтов или Telegram-каналов поможет избежать попадания в ловушку дезинформации.

При анализе видео контента важно обращать внимание не только на общие характеристики, но и на мелкие детали, которые могут выдать его синтетическую природу. Например, неровные контуры лица, "дрожащие" тени, странные движения губ и глаз, а также запаздывающий звук могут свидетельствовать о том, что материал был искусственно создан.

Важно помнить о контексте при анализе видео. Если в ролике человек говорит необычно для себя, стоит проверить, соответствует ли это его реальной позиции. Также следует быть бдительным при получении фотографий от неизвестных и особенно от детей, так как контент может быть искажен или взят из другого источника. Рекомендуется использовать обратный поиск изображений через Яндекс или Google Images для проверки подлинности кадров.

В управлении подчеркивают, что проведение детального анализа видео материалов является важным этапом в выявлении поддельных или манипулированных данных. Понимание тонкостей и методов проверки контента поможет эффективно фильтровать информацию и избегать дезинформации.

Эксперты рекомендуют обращаться к специализированным сервисам для определения синтетического монтажа в видео. Они отмечают, что российские лаборатории кибербезопасности активно тестируют нейросети-детекторы дипфейков, включая face-swap в видеозвонках. Тем не менее, следует помнить, что ни одна технология не обеспечивает абсолютной надежности. Алгоритмы лишь оценивают вероятность манипуляций, а окончательное решение всегда остается за человеком, подчеркнули в управлении.

Источник и фото - ria.ru