Regulace, regulace, regulace! To je slovo, které se kolem tématu umělé inteligence šíří už měsíce a my stále čekáme, až vláda přijde a začne vytvářet nějaká pravidla. No, podle nové zprávy, Bílý dům začíná zasahovat proti AI a pokládá základy pro předpisy.
Právě teď drží velké společnosti AI ve svých rukou spoustu moci, protože vyvíjejí technologii, která může mít velký dopad na technologický průmysl. Od generativního výbuchu AI se vládní orgány snaží najít způsoby, jak udržet AI v bezpečí. I když máme rádi Google, Microsoft a další společnosti, nedůvěřujeme těmto ziskovým společnostem, že jsou skutečně odpovědné za AI. To je důvod, proč se od nynějška hra jmenuje regulace.
Bílý dům zavádí některá pravidla pro regulaci AI
V pondělí Bidenova administrativa představila nový výkonný příkaz k regulaci společností AI vyvíjejících další generaci AI. Tento výkonný příkaz „…zastává se spotřebitelů a pracovníků, podporuje inovace a hospodářskou soutěž, posouvá americké vedoucí postavení po celém světě a jako všechny výkonné příkazy má i tento sílu zákona,“ řekl vysoký představitel administrativy.
Jde o to, že umělá inteligence by mohla mít zásadní dopad na spotřebitele, národní bezpečnost a zdraví a pohodu milionů lidí, ne-li miliard. Tento příkaz bude fungovat jako první soubor pravidel a pokynů, které zajistí, že se AI nevymkne kontrole. Ty jsou trochu vágní, protože všichni stále máme představu o tom, co umělá inteligence dokáže a jaké druhy opatření bychom měli zavést.
Co očekává EO od společností?
Pojďme si tedy projít, co tato objednávka přiměje tyto společnosti udělat.
Zpráva federální vládě
Takže u těchto větších společností, pokud jejich modely mají potenciál ovlivnit národní bezpečnost, národní ekonomickou bezpečnost nebo národní veřejnou bezpečnost a zdraví (což s největší pravděpodobností mají), musí o tom informovat federální vládu, než je vyškolí. To dává vládě vědět, co společnost dělá.
Sdílejte data červeného týmu
Dále jsou povinni sdílet všechny své výsledky testů červeného týmu. Pokud nevíte, co jsou červené týmy, jsou to v podstatě týmy lidí, kteří mají za úkol přimět AI chatboty říkat škodlivé nebo urážlivé věci. Nutí chatboty tyto věci říkat, aby věděli, kde se mají zlepšit.
Federální vláda bude chtít sledovat, jaké škodlivé reakce mohou tito chatboti poskytnout. Tímto způsobem může získat lepší představu o tom, jak špatné mohou být jejich odpovědi.
Sdílejte tréninkové běhy
Společnosti by také měly sdílet školení pro své LLM. To poskytne federální vládě časovou osu ukazující, jak testy v průběhu času postupovaly. Průběh školení dá vládním úředníkům představu o tom, jak školení pokračovalo.
Jak si dokážete představit, pokud se vládě nelíbí výsledky nebo to, na čem trénuje svou AI, bude jednat. To vše je nutné, než společnost zpřístupní model AI veřejnosti. Pokud má model umělé inteligence nebezpečný potenciál a dostane se na veřejnost, není cesty zpět.
Jaké jsou výjimky?
Tento výkonný příkaz se zaměřuje na široké spektrum technologií AI, ale jeho příkaz má své limity. Ukazuje na hlavní, důležitý společnosti AI; společnosti, jejichž modely umělé inteligence mají potenciál ovlivnit národní bezpečnost nebo ekonomickou bezpečnost. Bavíme se o mnohamilionových nebo mnohamiliardových modelech s největším dosahem.
Mezi ně patří produkty od OpenAI, Google, Meta, Anthropic atd. Menší modely a start-upy jsou prozatím z objednávky vyjmuty. „Tohle nezachytí systémy umělé inteligence vycvičené postgraduálními studenty nebo dokonce profesory,“ řekl úředník z administrativy. Pokud tedy začnete dělat LLM ve svém suterénu hned teď, nebudete se na vás řídit pravidly.
Také se nevztahují na produkty, které jsou dnes na trhu. To znamená, že hlavní produkty jako Bing AI, ChatGPT, Bard (porota sedí na Gemini), Snapchat My AI a další nepodléhají pravidlům. Budoucí modely umělé inteligence s kapacitou 10^26 petaflops jsou však pod pravidly.
EO se zaměřuje na více než jen společnosti AI
Tento výkonný příkaz se snaží nenechat kámen na kameni. Rozkaz se obrací na ministerstvo energetiky a vnitřní bezpečnosti. Toto oddělení je přesvědčováno, aby řešilo potenciální hrozby pro „kritickou infrastrukturu, stejně jako chemická, biologická, radiologická, jaderná a kybernetická rizika“. To jen ukazuje, jak hluboko může vliv AI sahat.
Nejsme si jisti, jak bude oddělení tato rizika řešit, ale je nesmírně důležité, aby tak učinilo. Umělá inteligence se používá pro obchodní aplikace a není pochyb o tom, že by mohla být v blízké budoucnosti použita ve vládních odvětvích. Musíme se ujistit, že to nezpůsobí žádné velké problémy.
Kybernetická bezpečnost
Pokud jde o téma kybernetické bezpečnosti, příkaz se snaží vytvořit program kybernetické bezpečnosti, který bude využívat umělou inteligenci k autonomnímu vyhledávání a odstraňování kybernetických hrozeb.
To by mohlo být velkým přínosem pro kybernetickou bezpečnost, ale potenciální výsledky se teprve uvidí. To je pouze vyjádření záměru vytvořit program. Nevíme, kdy program vznikne a kdo se na něm bude podílet. Tento EO je stále nový, takže opravdu nic není vytesané do kamene.
Vodoznak
Toto další téma zasahuje na osobnější frontě. Je stále těžší zjistit, zda obsah, který vidíte na internetu, vytvořil člověk nebo umělá inteligence. V raných dobách DALL-E to bylo tak jasné jako záhadné nosy na obličejích generovaných AI. Nyní to začíná být k nerozeznání.
Pro lidi je docela snadné vytvářet hluboce falešný a klamavý obsah a oklamat masy. K tomu dojde během volebního období.
To je důvod, proč EO projevuje zájem o vytvoření systému vodoznaků, aby lidé věděli, že obsah generovaný AI je skutečně generován AI.
I když tomu tak bylo, objednávka neukazovala na žádné konkrétní plány nebo metody pro vytvoření systému. V podstatě jen konstatovalo, že je to na mysli vlády. Na další informace v této oblasti si budeme muset počkat.
Občanská práva
Další horké téma umělé inteligence souvisí s diskriminací. To je hlavní problém s AI. Jakkoli jsou LLM chytří, nemají morální kompas. Jsou vyškoleni v informacích na internetu a na všech neobjektivních informacích, které s nimi přicházejí. To znamená, že modely umělé inteligence by mohly být neúmyslně zaujaté vůči určitým skupinám lidí. Pokud je tomu tak, toto zkreslení se přenese do jakýchkoli aplikací, pro které se AI používá.
Cílem EO je bojovat proti tomu rozšířením na „pronajímatele, programy federálních výhod a federální dodavatele“. To vše jsou oblasti, kde mají rasové a jiné formy diskriminace zásadní vliv. Řekněme, že jste pronajímatel a používáte AI k procházení aplikací nadějných nájemníků. No, pokud je AI trénována na neobjektivních informacích týkajících se Afroameričanů, pak automaticky odmítne lidi s jinou barvou pleti a propustí je, i když jsou dokonale kvalifikovaní.
To také zahrnuje „použití umělé inteligence při odsuzování, podmíněném propuštění a probaci, propuštění a vazbě v přípravném řízení, hodnocení rizik, sledování, předpovídání zločinu a prediktivní policejní práci a forenzní analýze“. To jsou oblasti, které potřebují lidský vliv a ne algoritmicky přiváděná data. Tento tlak zajistí, že AI nepovede k nezákonnému stíhání nebo diskriminaci.
Soukromí
EO se také dotkl velmi důležitého tématu soukromí. Tento je také dost vágní, protože je stále v rané fázi. Víme, že to bude vyžadovat upřednostňování metod sběru dat, které neohrožují informace uživatelů. LLM jsou jen monumentální zásoby informací, které čekají na únik.
Tato objednávka se bude snažit zajistit lepší zabezpečení osobních údajů. Veřejnosti nejsou k dispozici žádné solidní plány. Stejně jako ostatní části této objednávky máme pouze slovo o záměru. Víme, že řešení mohou zahrnovat „kryptografické nástroje, které chrání soukromí jednotlivců“.
Práva pracujících
Toto je oblast umělé inteligence, která zasahuje nejblíže k domovu. Již dlouho známe strach z toho, že nás vyhodí z práce, když nás technologie činí zastaralými. Studna. Umělá inteligence se ukázala jako extrémně schopná nahradit lidské bytosti několika úkoly.
To je něco, co se EO snaží řešit. Přinese to „vývoj zásad a osvědčených postupů zaměstnavatelů, které zmírňují škody a maximalizují přínos umělé inteligence pro pracovníky,“ říká správní úředník. Cílem těchto pokynů bude zabránit tomu, aby pracovní místa v různých odvětvích propouštěla velké části svých zaměstnanců namísto technologie AI. Pomůže také chránit vyšší a výkonné pozice před automatizací pomocí AI.
Toto je jen první krok
Právě teď to nelze považovat za předpisy nebo zákony. Dokonce i nyní, téměř rok poté, co se ChatGPT dostal na trh, si stále teprve začínáme uvědomovat potenciál technologie AI – ať už dobrý nebo špatný. Je tedy těžké skutečně říci, co společnosti AI mohou a co ne.
Tento EO je však prvním krokem k vytvoření knihy pravidel, kterou by se společnosti měly řídit. Postupem času budou přicházet další pravidla a předpisy. Nezbývá nám než čekat.
Zdroj: androidheadlines.com