FBI vydala nové varování před rostoucími hrozbami, ve kterých hackeři používají AI (umělou inteligenci) k výrobě přesvědčivých hluboce falešných videí pro podvody s únosy. Používají klipy vygenerované umělou inteligencí, aby poskytly důkaz o životě a pak tlačí na oběť, aby zaplatila výkupné. Zločinci údajně shromažďují online obrázky a videa, aby se zaměřili na rodiny.
FBI varuje, že hackeři používají AI k vytváření podvodů s únosy
Podle nového doporučení vydaného FBI zločinci používají obrázky a videa dostupná online k zacílení na rodiny. Vloží je do generativních nástrojů a poté požadují rychlé platby, než budou mít oběti čas analyzovat, zda je materiál skutečný. Hackeři spoléhají na sofistikované systémy umělé inteligence, aby rozšířili taktiku vydírání.
Zločinci nejprve identifikují oběť, poté hledají fotografie a videa na účtech sociálních sítí a dalších digitálních platformách. Jakmile nashromáždí dostatek informací, zpracují je pomocí generativních nástrojů umělé inteligence k simulaci scénářů rukojmích. Vykonstruovaná média jsou pak odeslána jako údajný důkaz, že byl unesen člen rodiny.
FBI říká, že je stále těžké ověřit, zda je video skutečné nebo ne, protože nástroje AI postupují nebývalou rychlostí. Zločinci také používají funkce časovaných zpráv, takže cíle mají omezenou možnost zkoumat obsah.
Úřad poskytuje tipy, jak podvod identifikovat
Autenticita dodala, že nesrovnalosti jako zkreslené tělesné proporce nebo chybějící identifikační znaky mohou odhalit manipulaci. Doporučili uživatelům, aby neposílali platby žádné náhodné osobě. Doporučují několik opatření ke snížení zranitelnosti vůči těmto podvodům s únosy řízenými umělou inteligencí.
Vyzýváme občany, aby omezili osobní údaje, které sdílejí online, zejména na cestách, a aby si vybírali, kdo si může prohlížet rodinné fotografie nebo videa. FBI také vyzvala uživatele, aby navázali přímé spojení s předpokládanou obětí, než se podřídí jakýmkoli pokynům ohledně výkupného.
Zdroj: androidheadlines.com