НЕ СДАВАЙТЕ БИОМЕТРИЮ... Искусственный интеллект позвонил и украл сотни тысяч долларов

В Европе произошла первая крупная кража денег с использованием искусственного интеллекта. Афера с помощью имитации голоса произошла в Великобритании...     

Жертвой мошенников стал гендиректор британской энергетической фирмы, пишет The Wall Street Journal. Мужчина разговаривал по телефону с вышестоящим лицом, исполнительным директором немецкой головной компании. Голос в трубке был с узнаваемым акцентом, он попросил в течение часа перечислить 243 тысячи долларов венгерскому поставщику. Подчиненный ничего не заподозрил и деньги перечислил. Неладное он почуял только после третьего звонка, когда фальшивый начальник запросил новый перевод.
   
Страховая компания покрыла убытки - и этот факт тоже примечателен, говорит председатель коллегии адвокатов 
   
Константин Трапаидзе председатель коллегии адвокатов «Ваш юридический поверенный»: 

«Преступником оказался не ИИ, а лица, использовавшие ИИ в качестве орудия. Интересна позиция страховой компании, которая выплатила компенсацию, страховую премию. Я думаю, что вряд ли был учтен искусственный интеллект в качестве пункта договора страхования. Скорее всего, были некие неполадки, или технические сложности, или технические сбои, которые могут привести к такому необоснованному платежу. По механизму совершения - ничего нового. Другой вопрос, что изощренность увеличивается, оттачиваются инструменты».
     
Изменение голоса - технология не новая. Есть программы для обработки звука, есть приложения на телефоне. 
   
Британский случай уникален тем, что искусственный интеллект процедурно генерировал реплики и имитировал речь конкретного человека. Для такого трюка нужны были исходные данные о владельце голоса, говорит судебный эксперт-фоноскопист Дмитрий Зиновьев.
   
  Дмитрий Зиновьев судебный эксперт-фоноскопист: 
«На самом деле это вполне реально. Действительно, технологии уже дошли до такого уровня. Очень много на самом деле на настоящий момент есть инструментов, которые способны видоизменить голос и сделать голос любым практически. Музыканты работают с этими инструментами. В первую очередь у мошенника должно быть достаточно информации о том человеке, чей голос он подделывает. Если мы говорим, например, о склейке, то профессиональный эксперт легко увидит эти склейки на записи».
     
Куратор ФинЦЕРТ Центробанка Артем Сычев в недавнем интервью «Известиям» рассказал, что регулятор в курсе новой напасти. Но отметил, что такой способ мошенничества «дорого стоит». Поэтому чаще всего такие аферы пытаются провернуть против компаний, а не физлиц. Несколько тысяч похищенных рублей не окупят затраты. Впрочем, такое положение вещей продлится недолго, уверен гендиректор «Корпорации роботов» Игорь Никитин.
   
Игорь Никитин гендиректор «Корпорации роботов»: 

«Это, к сожалению, реальность. Будет все больше дешеветь эта технология. Мы не стоим на месте, двигаемся вперед. Есть алгоритмы, которые имитируют, создают музыку. Есть алгоритмы, которые создают картины наподобие того же Пикассо. И появляются нейросетевые алгоритмы, которые из очень небольшого количества звуковых данных, там, вы выложили в соцсетях свое видео, на котором что-то комментируете, то есть берут ваши вот эти ключевые слова, алгоритмы формируют ваше виртуальное «я». Придется защищаться от таких систем. Я уверен, что буквально через несколько лет, может быть, пять-десять лет, появятся такие алгоритмы, которые видеозвонок даже начнут подделывать».
     
Развитие действительно не стоит на месте: можно вспомнить последние случаи мошенничества с помощью голосовых помощников. Или примеры, когда аферисты с успехом выдают себя за банковских сотрудников, используя технологические примочки. Загвоздка в том, что меры защиты и законодательная практика за мошенниками пока не поспевают. Приходится держать ухо востро. И не верить фальшивым голосам. 
19 ноября 2019   Просмотров: 1 846