Измамници вече могат да копират гласа ви за секунди

През последните месеци в САЩ, Канада и Европа рязко се увеличават случаите на т.нар. AI voice scams

0
27
Изкуствен интелект, AI, ChatGPT
Изкуствен интелект, AI, ChatGPT. Снимка: Искра.бг

Измамници вече могат да копират гласа ви за секунди. Доскоро подобни истории звучаха като сцена от научнофантастичен филм. Днес вече са реалност.

Изкуственият интелект навлиза все по-дълбоко в ежедневието, но заедно с удобствата идва и нещо друго — нов тип измами, които стават все по-трудни за разпознаване.

През последните месеци в САЩ, Канада и Европа рязко се увеличават случаите на т.нар. AI voice scams — измами, при които чрез изкуствен интелект се копира гласът на реален човек. В някои случаи са достатъчни само няколко секунди аудио от видео в TikTok, Facebook или Instagram, за да бъде създаден почти неразличим гласов модел.

След това започват обажданията.

„Мамо, катастрофирах.“

„Татко, имам нужда от пари.“

„Шефът иска спешен превод.“

„Обаждам се от банката.“

И най-притеснителното е, че хората все по-често вярват.

Според предупреждения на финансови институции и експерти по киберсигурност AI измамите вече не разчитат само на фалшиви имейли и съмнителни линкове. Новото поколение атаки използва:

• клониране на глас,
• deepfake видео,
• фалшиви видео разговори,
• автоматично генерирани лица,
• AI чатове, които звучат напълно човешки.

Проблемът е, че технологията става достъпна за почти всеки. Преди подобни инструменти бяха скъпи и сложни. Днес десетки платформи предлагат генериране на глас срещу няколко долара месечно.

Именно това тревожи експертите.

Според тях навлизаме в период, в който вече няма да е достатъчно човек просто „да чуе гласа“ на близък или колега, за да е сигурен, че отсреща е истинският човек.

Няколко случая през последните месеци предизвикаха сериозен отзвук. В Хонконг служител на международна компания превежда милиони долари след видео разговор с хора, които смятал за свои колеги. По-късно се оказва, че всички участници в разговора са били deepfake образи, генерирани от изкуствен интелект.

В САЩ родители вече подават сигнали за обаждания с „гласа“ на собствените им деца. В някои случаи измамниците използват паника и стрес, за да поискат спешен превод на пари.

Темата започва да влиза и във фокуса на банките. Част от финансовите институции вече предупреждават клиентите си:

• да не вярват сляпо на гласови обаждания,
• да проверяват всяка спешна финансова заявка,
• да използват кодови думи със семейството си,
• и да не публикуват прекалено много аудио и видео съдържание онлайн.

Парадоксът е, че колкото повече хора качват видеа и гласови записи в социалните мрежи, толкова повече „материал“ дават на системите за изкуствен интелект.

Именно затова експерти предупреждават, че следващата голяма вълна киберизмами няма да изглежда като класическия спам от миналото.

Тя ще изглежда истинска.

Ще звучи истинска.

И точно това я прави толкова опасна.

Присъединете се към нашия Телеграм

Радев: Стабилността на цените зависи от това дали ще имаме силно българско производство

ВАШИЯТ КОМЕНТАР

Моля, напишете вашия коментар!
Моля, напишете името си тук