В МВД зафиксировали рост мошеннических схем, в которых кибермошенники при помощи ИИ создают правдоподобные видео с «родственниками».В таких роликах знакомый человек как будто напрямую просит занять у него деньги. Об этом рассказали в пресс-службе ГУ МВД по Санкт-Петербургу и Ленобласти.
Нейросети, по информации ведомства, могут теперь воссоздавать мимику, голос и движения человека даже по одной фотографии. Преступники используют эти технологии для создания видео, которые рассылают близким и друзьям жертвы, надеясь на доверие и быстрый перевод средств. Зачастую жертва не подозревает, что её изображение используется без её ведома.
Специалисты МВД обращают внимание: любое фото, попавшее в руки злоумышленников, может стать средством для мошенничества. В связи с этим, если вам поступают неожиданные просьбы о финансовой помощи через видеозвонки или мессенджеры, важно тщательно проверять информацию. Рекомендуется связаться с человеком напрямую и убедиться, что это действительно он и что он действительно нуждается в помощи.
Введение таких схем совпало с последовательным введением новых мер по защите граждан. С лета в России введены ограничения на использование мессенджеров госорганами и банками для общения с клиентами, а также запрет на спам-рассылки. Ранее «МК в Питере» писал, что с 1 сентября через портал «Госуслуги» можно будет наложить персональный запрет на оформление SIM-карт.