В России преступники могут использовать клон голоса человека для вымогательства денег. О новой мошеннической схеме с использованием искусственного интеллекта предупредило Роскачество.
- Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота, - акцентировали внимание специалисты.
Схема обмана та же, но инструменты более прогрессивные. Искуственный интеллект звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП.
Сейчас нейросеть можно обучить языкам, и она с легкостью осваивает любые акценты, чтобы умело вести диалог. «Нужно срочно расплатиться! Вот номер продавца, скинь ему деньги», - теперь сможет услышать ни о чем не подозревающий человек на том конце провода.
Эксперты рекомендуют не поддаваться эмоциям, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу. А еще лучше придумайте кодовое слово, для своих. Прямо как в банке. И таким образом, вы будете знать, что звонят действительно родные и близкие, а не мошенники с нейросетью.
- Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные, - рассказали специалисты.
Технология именуется «дипфейк» (от англ. deepfake - подделка). Ее продукты можно видеть в сети уже сейчас, часто в качестве пародий и розыгрышей.
За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны пока еще выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.
Новейшие технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. По оценке специалистов, до России технология тоже непременно дойдет в ближайшее время. Она будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.
В Роскачестве объяснили, как распознать дипфейк:
- Неестественная мимика - движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций.
- Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой - брови, уголки рта.
- Звук опережает картинку или не успевает за движениями персонажа.
Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. В целом, для обычного пользователя лучший способ защититься от дипфейков - быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.
В России телефонные мошенники обзванивают целые семьи, чтобы выудить деньги, сообщала ранее «Живая Кубань».
Самые важные новости теперь в нашем Telegram-канале. Подписывайтесь, чтобы не пропустить: https://t.me/live_kuban.