НЕ СДАВАЙТЕ БИОМЕТРИЮ... Искусственный интеллект позвонил и украл сотни тысяч долларовВ Европе произошла первая крупная кража денег с использованием искусственного интеллекта. Афера с помощью имитации голоса произошла в Великобритании... Жертвой мошенников стал гендиректор британской энергетической фирмы, пишет The Wall Street Journal. Мужчина разговаривал по телефону с вышестоящим лицом, исполнительным директором немецкой головной компании. Голос в трубке был с узнаваемым акцентом, он попросил в течение часа перечислить 243 тысячи долларов венгерскому поставщику. Подчиненный ничего не заподозрил и деньги перечислил. Неладное он почуял только после третьего звонка, когда фальшивый начальник запросил новый перевод. ![]() Константин Трапаидзе председатель коллегии адвокатов «Ваш юридический поверенный»:
Изменение голоса - технология не новая. Есть программы для обработки звука, есть приложения на телефоне. Британский случай уникален тем, что искусственный интеллект процедурно генерировал реплики и имитировал речь конкретного человека. Для такого трюка нужны были исходные данные о владельце голоса, говорит судебный эксперт-фоноскопист Дмитрий Зиновьев. Дмитрий Зиновьев судебный эксперт-фоноскопист:
Куратор ФинЦЕРТ Центробанка Артем Сычев в недавнем интервью «Известиям» рассказал, что регулятор в курсе новой напасти. Но отметил, что такой способ мошенничества «дорого стоит». Поэтому чаще всего такие аферы пытаются провернуть против компаний, а не физлиц. Несколько тысяч похищенных рублей не окупят затраты. Впрочем, такое положение вещей продлится недолго, уверен гендиректор «Корпорации роботов» Игорь Никитин. Игорь Никитин гендиректор «Корпорации роботов»:
Развитие действительно не стоит на месте: можно вспомнить последние случаи мошенничества с помощью голосовых помощников. Или примеры, когда аферисты с успехом выдают себя за банковских сотрудников, используя технологические примочки. Загвоздка в том, что меры защиты и законодательная практика за мошенниками пока не поспевают. Приходится держать ухо востро. И не верить фальшивым голосам.
|
19 ноября 2019
Просмотров: 2 447