Петербуржцам рассказали об опасности нового модного «пранка с бездомным»

Петербуржцам рассказали об опасности нового модного «пранка с бездомным»
Фото: Архив МК в Питере.

У молодежи появился новый тренд в соцсетях. Для создания смешных и вирусных видеороликов некоторые блогеры используют ИИ-инструменты. В итоге максимально реалистичный неопрятный мужчина якобы оказывается у них дома и просит о помощи.

Молодые люди отправляют своим родителям фото незнакомца и поясняют, что они якобы приютили «бездомного человека», чтобы тот мог выпить воды или отдохнуть. О новом рисковом розыгрыше сообщили в пресс-службе УБК ГУ МВД по Петербургу и Ленобласти.

В полиции отмечают, что зачастую родители испытывают настоящий шок. Они эмоционально реагируют на розыгрыш с испугом, тревогой и криками. Эти эмоциональные моменты молодежь не стыдится фиксировать на видео и публиковать в социальных сетях.

В полиции США уже попросили граждан прекратить проводить подобные розыгрыши, поскольку их реалистичность приводила к реальным вызовам экстренных служб.

В российском МВД пояснили, что даже если эти розыгрыши не имеют злого умысла, но они ярко демонстрируют важные черты современного общества.

Создание дипфэйков стало простым, ведь нейросети автоматически подгоняют лицо и голос под текст, делая видео реалистичным. Но все это создает риски: фейковые новости, ложные заявления публичных лиц и мошеннические призывы могут распространяться под видом шуток. Как распознать дипфэйки, чтобы не стать жертвой розыгрыша или преступления?

1. Видео без ясного источника требует внимательного подхода. Рекомендуется проверить официальные аккаунты, сайты и телеграм-каналы для получения достоверной информации.

2. Стоит всегда обращать внимание на мелкие детали. В частности, на неровные очертания лица, «дрожащие» тени, неестественные движения губ и глаз. Иногда звук слегка запаздывает — именно такие мелкие неточности выдают искусственность видео.

3. Если человек в видео ведет себя не так, как обычно, стоит проверить, соответствует ли это реальному положению дел и его публичной позиции. Если же фото с бездомным присылает ребенок, важно сохранять спокойствие.

Технологии, которые помогают проверять контент:

Системы мониторинга синтетического медиа, используемая крупными платформами. Приложения, которые позволяют оперативно проверять видеоролики и изображения на наличие дипфейков. Лаборатории кибербезопасности активно тестируют нейросети, способные выявлять дипфейки, включая технологии, изменяющие лицо в видеозвонках.

В полиции отмечают, что никакая технология не может гарантировать 100%-й результат. Алгоритмы лишь оценивают вероятность, а окончательное решение остаётся за человеком.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

...
Сегодня
...
...
...
...
Ощущается как ...

Автовзгляд

Womanhit

Охотники.ру