МК АвтоВзгляд Охотники.ру WomanHit.ru
Санкт-Петербург

Петербуржцам рассказали об опасности нового модного «пранка с бездомным»

Фото: Архив МК в Питере.

У молодежи появился новый тренд в соцсетях. Для создания смешных и вирусных видеороликов некоторые блогеры используют ИИ-инструменты. В итоге максимально реалистичный неопрятный мужчина якобы оказывается у них дома и просит о помощи.

Молодые люди отправляют своим родителям фото незнакомца и поясняют, что они якобы приютили «бездомного человека», чтобы тот мог выпить воды или отдохнуть. О новом рисковом розыгрыше сообщили в пресс-службе УБК ГУ МВД по Петербургу и Ленобласти.

В полиции отмечают, что зачастую родители испытывают настоящий шок. Они эмоционально реагируют на розыгрыш с испугом, тревогой и криками. Эти эмоциональные моменты молодежь не стыдится фиксировать на видео и публиковать в социальных сетях.

В полиции США уже попросили граждан прекратить проводить подобные розыгрыши, поскольку их реалистичность приводила к реальным вызовам экстренных служб.

В российском МВД пояснили, что даже если эти розыгрыши не имеют злого умысла, но они ярко демонстрируют важные черты современного общества.

Создание дипфэйков стало простым, ведь нейросети автоматически подгоняют лицо и голос под текст, делая видео реалистичным. Но все это создает риски: фейковые новости, ложные заявления публичных лиц и мошеннические призывы могут распространяться под видом шуток. Как распознать дипфэйки, чтобы не стать жертвой розыгрыша или преступления?

1. Видео без ясного источника требует внимательного подхода. Рекомендуется проверить официальные аккаунты, сайты и телеграм-каналы для получения достоверной информации.

2. Стоит всегда обращать внимание на мелкие детали. В частности, на неровные очертания лица, «дрожащие» тени, неестественные движения губ и глаз. Иногда звук слегка запаздывает — именно такие мелкие неточности выдают искусственность видео.

3. Если человек в видео ведет себя не так, как обычно, стоит проверить, соответствует ли это реальному положению дел и его публичной позиции. Если же фото с бездомным присылает ребенок, важно сохранять спокойствие.

Технологии, которые помогают проверять контент:

Системы мониторинга синтетического медиа, используемая крупными платформами. Приложения, которые позволяют оперативно проверять видеоролики и изображения на наличие дипфейков. Лаборатории кибербезопасности активно тестируют нейросети, способные выявлять дипфейки, включая технологии, изменяющие лицо в видеозвонках.

В полиции отмечают, что никакая технология не может гарантировать 100%-й результат. Алгоритмы лишь оценивают вероятность, а окончательное решение остаётся за человеком.

Следите за яркими событиями Санкт-Петербурга у нас в Telegram

Самое интересное

Фотогалерея

Что еще почитать

Видео

В регионах