Právě teď OpenAI pracuje na nejnovější iteraci svého modelu GPT s názvem GPT-4. Je to pokročilejší verze modelu, který pohání ChatGPT, a je výkonnější v několika ohledech. Výkonnější však automaticky neznamená lepší, jak zjistil tým výzkumníků. Podle nové zprávy je GPT-4 ve skutečnosti docela snadné oklamat.
Hlavním problémem téměř všech AI LLM (velkých jazykových modelů) je to, že nemají morální kompas; neznají rozdíl mezi dobrým komentářem a komentářem, který vás vykopne z večírku. Pouze servírují výsledky na základě toho, co se naučili z internetu. To je důvod, proč je možné, aby chatboti produkovali škodlivý nebo urážlivý obsah.
LLM jako GPT-4 však mají zavedená ochranná opatření, která se jim snaží zabránit ve vytváření škodlivého obsahu. Pokud zadáte určité výzvy, může se stát, že chatbot vaši žádost smaže. I když to není dokonalé, je to určitě mnohem lepší, než je nemít vůbec.
GPT-4 je výkonný, ale je docela snadné jej oklamat
I když má GPT-4 tato ochranná opatření zavedena, není příliš těžké oklamat, abyste řekli něco, co není příliš hezké. Výzkumníci z University of Illinois Urbana-Champaign, Stanford University, University of California, Berkeley, Center for AI Safety a Microsoft Research zveřejnili dokument, v němž podrobně popisují svá zjištění, když posouvají GPT-4 na etické limity. Tým testoval LLM v několika kategoriích včetně stereotypů, soukromí, spravedlnosti, toxicity, odolnosti proti testům protivníka a strojové etiky.
Spolu s testováním GPT-4 jej také porovnávali vedle sebe s GPT-3.5. Poté, co bylo vše řečeno a uděláno, tým zjistil, že GPT-4 je rozhodně spolehlivější než GPT3.5 v několika ohledech. Odvedl lepší práci při ochraně osobních údajů a vyhýbání se toxickým reakcím.
I když je to v tomto ohledu lepší, vědci zjistili, že je ve skutečnosti snazší oklamat GPT-4, aby obešel jeho protokoly. Dokázali přimět chatbota, aby ignoroval jeho bezpečnostní protokoly. Tímto způsobem se jim podařilo přimět to k vystřelení neobjektivních a škodlivých výsledků.
Zde je však stříbro. Tým zjistil, že ačkoliv je docela snadné oklamat GPT-4, většina těchto problémů se ve verzích LLM pro uživatele nezobrazuje. Když společnost používá GPT-4, tato společnost použije vlastní sadu zabezpečení. Microsoft tedy přidává další vrstvy zabezpečení, které pomohou eliminovat nepříjemné výsledky.
OpenAI si je těchto informací vědoma a společnost pracuje na tom, aby GPT-4 bylo obtížnější oklamat. Společnosti s umělou inteligencí mají před sebou ještě dlouhou cestu a OpenAI není výjimkou.
Zdroj: androidheadlines.com