Мошенничество выходит на новый уровень – теперь обмануть можно буквально голосом. Специалисты из британской компании NCC Group заявили, что современные ИИ-системы уже способны копировать голос человека в режиме реального времени, передает наш сайт со ссылкой на IEEE Spectrum.
Это значит, что вам может позвонить “сын”, “коллега” или “банковский сотрудник”, и вы даже не догадаетесь, что разговариваете с подделкой.
“Исследователи протестировали десятки случаев так называемого “голосового дипфейка” и пришли к тревожному выводу: достаточно всего нескольких секунд записи речи, чтобы создать реалистичный голосовой клон. И никакие суперкомпьютеры не нужны – хватит обычного ноутбука с видеокартой уровня RTX A1000”, – сообщает источник.
Технология, получившая название “реал-тайм дипфейк-фишинг”, позволяет подменять голос без задержки – собеседник слышит мгновенную, естественную речь.
В одном из экспериментов специалисты имитировали звонок от близкого человека. Люди на том конце провода не заподозрили ничего, даже услышав личные фразы, сгенерированные искусственным интеллектом.
Разговоры звучали настолько убедительно, что люди сами переводили деньги мошенникам.
Эксперты советуют:
– не сообщать коды и пароли по телефону, даже если голос кажется знакомым;
– использовать кодовые фразы или секретные слова, известные только вам и близким;
– перезванивать на официальный номер компании, если разговор вызывает сомнение.
-
Мошенники действуют от имени банков и операторов — МВД РК
-
Определитель мошенников от Kcell: как работает и как подключить
-
Мошенники рассылают фальшивые штрафы казахстанским автовладельцам
