В последнее время злоумышленники все чаще применяют возможности искусственного интеллекта, чтобы завоевать доверие своих жертв. Об этом сообщили в ГУ МВД России по Петербургу и Ленобласти.
Теперь мошенники используют фальшивые аудио- и видеоматериалы, чтобы общаться со своими жертвами. С помощью технологии синтеза речи преступники создают реалистичные голосовые записи, имитирующие голоса родственников жертвы, используя небольшие образцы аудио, найденные в мессенджерах и социальных сетях. Кроме того, новые технологии позволяют заменять лицо одного человека на лицо другого в видео.
Недавно пожилая женщина получила звонок, в котором незнакомый голос, похожий на голос ее внучки, сообщил, что та попала в больницу после аварии. Почувствовав неладное, женщина прервала разговор и позвонила родственнице. Убедившись, что с внучкой все в порядке, она обратилась в полицию. Этот случай показывает, насколько важно быть внимательным и не верить всему, что слышишь. В полиции отметили, что бдительность играет ключевую роль в борьбе с мошенничеством.
Ранее «МК в Питере» писал, что злоумышленники разработали новый способ обмана, который базируется на применении имен известных личностей из мира российского шоу-бизнеса. От имени знаменитостей проводятся розыгрыши, в которых участникам предлагается выбрать коробку с призом.