У молодежи появился новый тренд в соцсетях. Для создания смешных и вирусных видеороликов некоторые блогеры используют ИИ-инструменты. В итоге максимально реалистичный неопрятный мужчина якобы оказывается у них дома и просит о помощи.
Молодые люди отправляют своим родителям фото незнакомца и поясняют, что они якобы приютили «бездомного человека», чтобы тот мог выпить воды или отдохнуть. О новом рисковом розыгрыше сообщили в пресс-службе УБК ГУ МВД по Петербургу и Ленобласти.
В полиции отмечают, что зачастую родители испытывают настоящий шок. Они эмоционально реагируют на розыгрыш с испугом, тревогой и криками. Эти эмоциональные моменты молодежь не стыдится фиксировать на видео и публиковать в социальных сетях.
В полиции США уже попросили граждан прекратить проводить подобные розыгрыши, поскольку их реалистичность приводила к реальным вызовам экстренных служб.
В российском МВД пояснили, что даже если эти розыгрыши не имеют злого умысла, но они ярко демонстрируют важные черты современного общества.
Создание дипфэйков стало простым, ведь нейросети автоматически подгоняют лицо и голос под текст, делая видео реалистичным. Но все это создает риски: фейковые новости, ложные заявления публичных лиц и мошеннические призывы могут распространяться под видом шуток. Как распознать дипфэйки, чтобы не стать жертвой розыгрыша или преступления?
1. Видео без ясного источника требует внимательного подхода. Рекомендуется проверить официальные аккаунты, сайты и телеграм-каналы для получения достоверной информации.
2. Стоит всегда обращать внимание на мелкие детали. В частности, на неровные очертания лица, «дрожащие» тени, неестественные движения губ и глаз. Иногда звук слегка запаздывает — именно такие мелкие неточности выдают искусственность видео.
3. Если человек в видео ведет себя не так, как обычно, стоит проверить, соответствует ли это реальному положению дел и его публичной позиции. Если же фото с бездомным присылает ребенок, важно сохранять спокойствие.
Технологии, которые помогают проверять контент:
Системы мониторинга синтетического медиа, используемая крупными платформами. Приложения, которые позволяют оперативно проверять видеоролики и изображения на наличие дипфейков. Лаборатории кибербезопасности активно тестируют нейросети, способные выявлять дипфейки, включая технологии, изменяющие лицо в видеозвонках.
В полиции отмечают, что никакая технология не может гарантировать 100%-й результат. Алгоритмы лишь оценивают вероятность, а окончательное решение остаётся за человеком.