С годами технология Deepfake стала невероятно сложной, что позволяет нам даже воскрешать голоса мертвых. А некоторые люди даже используют технологию в более криминальных целях.
Так было в случае с банком в Объединенных Арабских Эмиратах, в котором преступники обманули сотрудника, использовав клонирование голоса с помощью искусственного интеллекта с целью украсть 35 миллионов долларов. Судебные документы, недавно попавшие в руки Forbes, показали, что мошенники использовали фальшивый голос руководителя компании, чтобы обмануть менеджера банка и получить миллионы долларов на собственном банковском счете.
Предполагаемый руководитель сказал менеджеру, что его компания собирается совершить некое приобретение и для этого нужны деньги. Управляющий банка, естественно, узнал голос руководителя. Поэтому, полагая, что все было в порядке, он совершил перевод прямо на счета преступников.
Будьте уверены: по мере того, как технологии, лежащие в основе Deepfake, становятся все более и более совершенными, мы увидим еще больше попыток мошенничества в будущем.
Автор: Курашвили Цотне