Foto: Freepik
Představte si následující situaci: vaše babička zvedne telefon a na druhém konci slyší známý hlas svého oblíbeného vnoučete. Zdá se, že jde o naléhavou prosbu – třeba o peníze na okamžitou pomoc. Hlas zní přesvědčivě, problémy vypadají reálně, a navíc je v nich emoce. Co by měla udělat? FBI doporučuje, aby byla připravena položit otázku, kterou zná jen ona a daný člen rodiny, například: „Co říká osel mravenečníkovi?“
S rostoucími schopnostmi generativní umělé inteligence je tento typ podvodů na vzestupu. I když systémy umělé inteligence při generování obrázků a videí zatím často selhávají, imitace lidského hlasu je dnes až znepokojivě dokonalá. FBI proto vydala seznam preventivních opatření, jak se chránit před zneužitím hlasových klonů, a jedním z hlavních tipů je právě vytvoření tajného slova nebo fráze, kterou znáte jen vy a vaši nejbližší.
Jak funguje klonování hlasu?
Klonování hlasu využívá audiozáznamů skutečného člověka, aby model umělé inteligence dokázal reprodukovat jeho tón, zabarvení hlasu, intonaci a řečové vzorce. Tyto technologie byly původně vyvíjeny pro praktické a neškodné účely – například Google je využil k vytvoření umělých hlasových moderátorů pro systém NotebookLM. Pro posluchače je téměř nemožné poznat, že nejde o skutečné lidi.
Foto: Freepik
Tento vývoj však otevírá dveře i zneužití. Podvodníci mohou za pomoci veřejně dostupných nahrávek něčího hlasu vytvořit klon, který přesvědčivě napodobí originál. Poté mohou zkoušet podvody, například vymáhání peněz, získání citlivých údajů nebo manipulaci ve firemním prostředí.
Tajná fráze jako ochrana
Tajné slovo nebo fráze funguje jako druh autentizačního systému – podobně jako vícefaktorová autentizace při přihlášení na internet. Váš hlas je jedním z faktorů, ale klíčová je i správná odpověď na dohodnutou otázku. Například otázka „Co říká osel mravenečníkovi?“ může mít odpověď „Ve středu odpoledne v Nepálu“. Takový nesmyslný dialog je těžké předvídat a generativní systémy AI se v podobných situacích snadno odhalí.
I když tento přístup není stoprocentní – všichni zúčastnění si musí frázi pamatovat a reagovat rychle – může být první linií obrany. Pokud odpověď nesedí, je důvod být ostražitý a ověřit si situaci jinak.
Rizika ve firemním prostředí
Problém s klonováním hlasu však nekončí u rodinných podvodů. Ve firemním prostředí se objevují podobné situace – podvodníci mohou napodobit hlas manažera nebo vedoucího pracovníka a přesvědčit podřízené, aby odeslali citlivé informace nebo finance. Zatímco na e-mailové podvody si většina zaměstnanců již dává pozor, hlasová imitace přináší nový rozměr problému.
Jedním z řešení by bylo zavedení unikátních hesel nebo frází i na pracovišti, což však může být logisticky náročné. Firmy by proto měly zvážit širší vzdělávací programy zaměřené na prevenci těchto moderních podvodů.
Co můžeme udělat jako jednotlivci?
Není snadné se proti této formě podvodů chránit. I kdyby největší technologické firmy jako OpenAI, Google nebo Microsoft integrovaly do svých systémů mechanismy, které by vždy odhalily, že mluví AI, vždy se najdou jedinci, kteří vytvoří vlastní modely, jež tato pravidla obejdou.
Proto je klíčová prevence:
- Minimalizujte veřejné sdílení svého hlasu: Zvažte, zda je nutné, aby vaše hlasové záznamy byly veřejně dostupné.
- Zavádějte tajné fráze: Dohodněte si s blízkými jednoduché, ale nezapomenutelné otázky a odpovědi, které budou sloužit jako „hesla“.
- Buďte skeptičtí: Pokud se hovor zdá podezřelý, ověřte si jeho pravost jiným způsobem – například zpětným zavoláním na známé číslo.
- Vzdělávejte se: Sledujte trendy v oblasti podvodů s využitím AI a sdílejte informace se svými blízkými.
Technologie generativní umělé inteligence přinášejí fascinující možnosti, ale také zcela nové hrozby. Klíčem k bezpečnosti je informovanost, kritické myšlení a ochota přijmout jednoduchá preventivní opatření, která mohou zkomplikovat práci podvodníkům. Tajná fráze je možná drobný krok, ale může znamenat rozdíl mezi úspěšným podvodem a odhalením. A nakonec – obezřetnost nikdy neuškodí.
Zdroj: PCGamer.com (odkaz)