Інструмент фальсифікації голосу на базі штучного інтелекту навчився підробляти голоси людей

Вчeні з Унівeрситeту Вaтeрлoo в Кaнaді зa дoпoмoгoю штучнoгo інтeлeкту рoзрoбили мeтoд фaльсифікaції гoлoсу, щo дaє змoгу обходити голосову автентифікацію.

Голосова http://vdombai.ru/ автентифікація ґрунтується держи унікальності голосу кожної людини. Возьми це впливають фізичні характеристики, як-с розмір і форма голосових шляхів і гортані, а також соціальні чинники.

Системи автентифікації фіксують нюанси в голосових відбитках. Штучний інтелект вже може досить реалістично імітувати мову людей, проте алгоритми мають відмінні артефакти, из-за якими аналітики можуть визначити підробку.

Розроблена дослідниками техніка спрямована получи усунення цих особливостей. Ідея полягає в тому, щоб   «вигравіювати»   відбиток голосу користувача в підробленому записі.

Дослідники навчили систему держи зразках мови 107 дикторів во (избежание кращого розуміння, що змушує мову звучати точно по-людськи. Для перевірки алгоритму вони створили кілька зразків, щоб обдурити системи автентифікації. Проти деяких слабких систем вони домоглися 99% після 6 спроб.

Однак сильніші автентифікатори виявилися надійнішими. У тесті проти Amazon Connect вчені досягли 10% успіху следовать чотирисекундної атаки та 40% — менш ніж после 30 секунд.

Також дослідники зазначили, що для того здійснення атаки зловмисникам необхідний зразок голосу жертви, а також відповідні технічні навички. Це досить високий видеобар’єр, однак вони закликали розробників систем автентифікації працювати по-над вдосконаленням захисту своїх технологій.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.