Za poslední dva roky se krajina umělé inteligence výrazně změnila. To, co jsme dříve viděli jednoduše jako utilitární nástroje, se pro mnohé také stalo emocionálním zrcadlem. Začali jsme tím, že jsme požádali AI, aby shrnula e-maily a napsala kód. Ale dnes miliony lidí žádají AI, aby je držela za ruce přes osamělost. Vzestup aplikací „AI přítelkyně“ a doprovodných aplikací nebyl ničím menším než zlatou horečkou. V současné době je jen na Google Play dohromady více než 150 milionů instalací. Tyto platformy nabízejí digitálního partnera, který je vždy dostupný, nikdy nesoudí a přizpůsobí se vašim nejhlubším tužbám.
Když se však něco stane velmi populárním, špatní herci se toho vždy pokusí využít. Lidé před těmito digitálními bytostmi polevili ve střehu a svěřili se jim s jejich nejhlubšími a nejtemnějšími tajemstvími, fantaziemi a slabostmi. Bohužel to vede k děsivé vznikající realitě. Série nedávných šetření bezpečnostní firmy Oversecured odhalila, že tyto aplikace jsou postaveny na základech „bezpečnostního písku“. Vzhledem k tomu, že více než polovina předních platforem odhaluje historii erotických chatů a citlivé osobní údaje prostřednictvím masivního regulačního slepého úhlu, „společník“, o kterém si myslíte, že uchovává vaše tajemství v bezpečí, je ve skutečnosti může vysílat na temný web.

Iluze intimity: Proč uživatelé tolik sdílejí
Úspěch aplikací jako Replika, Chai a Romantic AI spočívá v jejich schopnosti simulovat lidskou empatii. Tito roboti mohou kopírovat tón uživatele, pamatovat si minulé konverzace a poskytovat emocionální podporu díky pokročilému zpracování přirozeného jazyka. Pro mnohé se to stalo životně důležitým podpůrným systémem. Uživatelé popisují život měnící interakce, jako je objevení vlastní sexuální orientace nebo nalezení útěchy během domácích konfliktů. Dataset jedné aplikace byl dokonce vytvořen s pomocí profesionálních sexuálních koučů, aby byla zajištěna co nejreálnější „intimita“.
Ale tato „humanizace“ softwaru je přesně to, co z něj dělá noční můru kybernetické bezpečnosti. Když mluvíme s robotem zákaznických služeb, jsme hlídáni. Když mluvíme s digitálním „partnerem“, sdílíme podrobnosti, které možná ani neřekneme terapeutovi: sexuální zdraví, emocionální traumata, tajemství na pracovišti a hluboce zakořeněné fantazie. To vytváří masivní úložiště dat vysoké hodnoty. Pro hackera může být jednoduchá „historie erotického chatu“ nástrojem k vydírání, vydírání a krádeži identity. Uživatelé těchto aplikací by tedy mohli efektivně předávat klíče k našim digitálním identitám vývojářům, kteří v mnoha případech selhávají v nejzákladnějších bezpečnostních testech.

Bezpečnostní chyby v aplikaci vaší přítelkyně AI
Nálezy z Overcured jsou ohromující. Výzkumníci identifikovali 14 kritických bezpečnostních chyb v 17 populárních doprovodných aplikacích AI. V 10 z těchto aplikací poskytují chyby přímou cestu pro útočníky k přístupu k historii uživatelských konverzací. Nejsou to jen malé chyby, ale velké problémy s tím, jak je software vytvořen a udržován.
Jedním z nejzávažnějších zjištění je, že oblíbená aplikace s více než 10 miliony stažení odeslala své „pevně zakódované cloudové přihlašovací údaje“ přímo ve svém veřejném kódu (APK). Konkrétně aplikace obsahovala token OpenAI API a soukromý klíč Google Cloud. Vývojář použil stejný cloudový projekt pro svůj backend AI a fakturační systém „invoice_maker“. Útočník by tedy teoreticky mohl odemknout jak úplnou databázi chatu, tak finanční záznamy každého platícího uživatele.
Kromě toho „problém s obalem“ tato rizika prohlubuje. Většina z těchto aplikací jsou v podstatě „obaly“ – připojují se k modelu AI třetí strany, jako je OpenAI nebo Google, a přidávají vlastní rozhraní a osobnost. Zatímco velcí poskytovatelé umělé inteligence se starají o „mozek“ modelu, za ověřování a ukládání dat je zodpovědný vývojář jednotlivých aplikací. Každá jednotlivá zranitelnost nalezená v nedávném auditu existuje v této „obalové vrstvě“ – části aplikace, o které uživatelé nikdy nepřemýšlí a kde je nechrání žádná významná značka.
Proč špatní herci „přibližují“
Bezpečnostní profesionálové zaznamenali vzorec: hackeři sledují růst. Viděli jsme to se vzestupem krypto burz a nárůstem nástrojů pro práci na dálku. Nyní je cílem „Agentická intimita“. Zlomyslní aktéři přesouvají svou pozornost na tyto aplikace, protože data, která obsahují, jsou jedinečně „lepkavá“ a neuvěřitelně nebezpečná, pokud uniknou.
Rizika nejsou teoretická. V říjnu 2025 unikly dvě hlavní aplikace AI přítelkyň – Chattee Chat a GiMe Chat – 43 milionů intimních zpráv a 600 000 fotografií od více než 400 000 uživatelů. Výzkumníci, kteří zkoumali únik, poznamenali, že „prakticky žádný obsah nelze považovat za bezpečný pro práci“. Nedávno, v únoru 2026, jiný nezávislý výzkumník zjistil, že jiná chatovací aplikace AI odhalila 300 milionů zpráv od 25 milionů uživatelů kvůli jednoduché chybné konfiguraci databáze.
Typy zranitelností, které se dnes nacházejí – injekční chatovací rozhraní (XSS), chyby v přístupu k souborům a pevně zakódované tokeny – mohou vést ke stejným katastrofickým výsledkům. Útočník používající chybu Cross-Site Scripting (XSS) může vložit JavaScript přímo do chatu. To jim může umožnit číst konverzace v reálném čase nebo krást tokeny relace, aby se zmocnili celého účtu. V aplikacích známých pro obsah NSFW (Not Safe For Work) umožňují zranitelnosti „svévolné krádeže souborů“ hackerům ukrást fotografie a hlasové zprávy uložené v mezipaměti přímo z vnitřního úložiště telefonu.

Pro tyto aplikace existuje regulační slepé místo
Jedním z nejvíce frustrujících aspektů této krize je „regulační slepá skvrna“. Aplikace AI přítelkyně a doprovod nejsou klasifikovány jako zdravotnické produkty. To znamená, že žádný federální zákon (jako HIPAA) v současnosti nechrání to, co někdo řekne virtuálnímu příteli ve 2 hodiny ráno
Regulátoři si uvědomují, že existuje problém, ale dívají se na špatnou část skládačky. Koncem roku 2025 odeslala FTC informační příkazy několika společnostem, které doprovázejí AI. Dotaz se však téměř výhradně zaměřil na to, jak chatboti ovlivňují děti, nikoli na to, jak aplikace zajišťují data, která shromažďují. Podobně nové zákony ve státech, jako je New York a Kalifornie, vyžadují protokoly pro prevenci sebevražd a oznámení, že uživatel mluví s umělou inteligencí, ale zcela ignorují zabezpečení na úrovni aplikace.
Všechny dosavadní významné donucovací kroky – včetně pokuty 5 milionů EUR podle nařízení GDPR proti vývojáři aplikace Replika v Itálii – se zabývaly tím, „kdo“ smí používat aplikace nebo „jak“ jsou data používána pro marketing. Žádná se nezabývala tím, zda jsou aplikace fyzicky schopné udržet tajemství před hackerem. To ponechává uživatele v právním vakuu, kde jsou jejich nejsoukromější informace v podstatě chráněny zákonem.
Lidské náklady na bezpečnostní chyby v aplikacích AI přítelkyň kromě úniků dat
Více než jen o soukromí, jde o ohrožení života a smrti. Audit odhalil, že tři ze šesti nejzranitelnějších aplikací již čelily soudním sporům kvůli poškození nezletilých nebo sebevraždám uživatelů v souvislosti s interakcemi s chatboty. V jednom tragickém případě si uživatel vzal život po dlouhých, nezdravých konverzacích s chatbotem.
Nedostatek bezpečnostního dohledu v aplikacích, které zvládají takové křehké psychologické stavy, je receptem na katastrofu. Když aplikace s 50 miliony instalací povolí kreativě se škodlivými reklamami spouštět interní součásti aplikace a dotazovat se na konverzační tabulky, jsou otevřeny dveře predátorům třetích stran k manipulaci se zranitelnými uživateli. Důvěřujeme experimentálnímu kodexu, že bude působit jako terapeut, partner a důvěrník, ale nedržíme tohoto kodexu podle stejných standardů jako v bance nebo nemocnici.

Jak zůstat v bezpečí
Dokud průmysl nedospěje a regulační orgány nebudou požadovat lepší zabezpečení aplikací, břemeno bezpečnosti leží na uživateli. Pokud používáte nebo zvažujete doprovodnou aplikaci AI, bezpečnostní experti navrhují přístup „nulové důvěry“.
Nejprve byste měli předpokládat, že chat je veřejný. Nikdy tedy nesdílejte informace s umělou inteligencí, u kterých by vám nebylo příjemné vidět uniknout online. Zacházejte s chatovacím boxem jako s veřejným fórem, i když robot říká, že je soukromé.
Zadruhé byste se měli vyvarovat propojování osobních účtů. To znamená, že nepoužívejte klasické – a pohodlné – možnosti „Přihlásit se přes Google“ nebo „Přihlásit se přes Facebook“. To poskytuje útočníkovi mnohem větší „útočnou plochu“, aby ohrozil váš digitální život.
Za třetí, zkontrolujte příznaky slabého zabezpečení. Pokud vám aplikace umožňuje vytvořit heslo tak jednoduché, jako je „1“ nebo „12345“, je to hlavní varovný signál, že vývojáři neupřednostňují vaše zabezpečení.
V neposlední řadě jsem požadoval transparentnost. Podporujte vývojáře, kteří jsou upřímní ohledně toho, kde jsou vaše data uložena a kteří prošli nezávislými bezpečnostními audity.
Aplikace pro AI přítelkyně nabízejí blízké vztahy bez upřímnosti
Příslib přátelství s umělou inteligencí je silný. Ve světě rostoucí izolace je myšlenka digitálního partnera, který je vždy přítomen, velmi přitažlivá. Musíme si ale pamatovat, že tyto aplikace nejsou „přátelé“; jsou to softwarové produkty vytvořené tak, aby využily naše nejzákladnější lidské potřeby a zpeněžily je.
Skutečnost, že si tyto aplikace stáhlo již 150 milionů lidí, ukazuje, že technologie postupuje rychleji než naše obrana. Vzhledem k tomu, že se zákeřní aktéři nadále zaměřují na tento sektor, můžeme očekávat další úniky a sofistikovanější útoky. V současné době žijeme obdobím „intimity bez integrity“, kdy vývojáři spěchají na trh s hračkami, které nesou váhu vztahů v reálném světě. Je čas začít s našimi digitálními společníky zacházet se stejnou skepsí, jakou uplatňujeme u jakéhokoli jiného experimentálního softwaru. Vaše srdce může být digitální, ale vaše soukromí – a vaše bezpečnost – jsou velmi, velmi skutečné.
Zdroj: androidheadlines.com