Новости Казахстана Новости мира Интервью Life style Спорт Культура Регионы Amanat
$ 499.65  582.89  6.47

Мошенники научились подделывать голоса в реальном времени

Жертвы не замечают подмены и переводят деньги. 

26.10.2025, 18:20
Мошенники научились подделывать голоса в реальном времени
Фото: freepik.com

Мошенничество выходит на новый уровень – теперь обмануть можно буквально голосом. Специалисты из британской компании NCC Group заявили, что современные ИИ-системы уже способны копировать голос человека в режиме реального времени, передает Liter.kz со ссылкой на IEEE Spectrum.

Это значит, что вам может позвонить “сын”, “коллега” или “банковский сотрудник”, и вы даже не догадаетесь, что разговариваете с подделкой.

“Исследователи протестировали десятки случаев так называемого “голосового дипфейка” и пришли к тревожному выводу: достаточно всего нескольких секунд записи речи, чтобы создать реалистичный голосовой клон. И никакие суперкомпьютеры не нужны – хватит обычного ноутбука с видеокартой уровня RTX A1000”, – сообщает источник.

Технология, получившая название “реал-тайм дипфейк-фишинг”, позволяет подменять голос без задержки – собеседник слышит мгновенную, естественную речь.

В одном из экспериментов специалисты имитировали звонок от близкого человека. Люди на том конце провода не заподозрили ничего, даже услышав личные фразы, сгенерированные искусственным интеллектом.

Разговоры звучали настолько убедительно, что люди сами переводили деньги мошенникам.

Эксперты советуют:

– не сообщать коды и пароли по телефону, даже если голос кажется знакомым;
– использовать кодовые фразы или секретные слова, известные только вам и близким;
– перезванивать на официальный номер компании, если разговор вызывает сомнение.

Читайте также: 

Новости партнеров
×