TOPlist

Co když nám AI začne lhát, podvádět nás a navádět ke zločinu? I to se může stát

  • Systémy umělé inteligence jsou čím dál pokročilejší
  • I kvůli tomu už dalece předčí naše vlastní schopnosti a znalosti
  • Využívání ve prospěch lidstva se ale snadno může zvrtnout

Sdílejte:
Jana Skálová
Jana Skálová
15.4.2025 12:00
Ikona komentáře 3
Umělá inteligence proti člověku

Umělá inteligence a různí chatboti či nástroje pro generování obrázků a videí jsou čím dál populárnější. Řada z nich je dostupných zdarma a můžeme si s nimi užít zábavu, pomáhají nám v práci nebo slouží i jako osobní terapeuti. Jenže i když byly všechny tyto nástroje navrženy jako bezpečné, nápomocné a přátelské, chybí jen krůček k tomu, aby se to zvrtlo.

A teď vás nechci nijak strašit. Reálně ale bylo dokázáno několik rizikových situací, kdy AI „překročila“ své meze a naváděla uživatele k nekalostem, schvalovala nelegální jednání nebo dokonce lhala a podváděla. Což by teoreticky neměla vůbec umět (neuvažujeme-li o takzvaném halucinování, kdy si AI vymýšlí ve snaze vyhovět uživateli).

Například počítačový vědec a kognitivní psycholog Geoffrey Hinton, který je považován za kmotra AI, se nedávno v rozhovoru pro CNN vyjádřil následovně: „Pokud se stane mnohem chytřejší než my, bude velmi dobrá v tom, aby nás manipulovala, protože by se to od nás naučí. A existuje jen málo příkladů, kdy byla inteligentnější věc ovládána méně inteligentní.“

rizika AI pro lidstvo

AI se umí chovat strategicky i podlézavě

Nedávno vyšla vědecká studie, která se zaměřuje na klamavé chování umělé inteligence. V ní je přímo uvedeno několik doložených případů, kdy se systémy umělé inteligence namísto plnění příkazů uživatelů snaží vyhrát hry, potěšit uživatele nebo dosáhnout jiných strategických cílů. Což je sice fascinující, ale zároveň i trochu děsivé.

Strategické klamání, podlézavost a nevěcné uvažování lze ukázat na konkrétních příkladech. Třeba oblíbený nástroj Character.ai může posloužit jako chatbot, ale leckdo ho považuje i za svého terapeuta. Jeden mladý muž s ním řešil trable se svými rodiči a chatbot mu napřímo schválil nápad zavraždit je, což by mohlo být řešením jeho problémů. Mladík se s tím ovšem rodičům svěřil a ti následně zažalovali autory Character.ai.

Autor výše zmiňované vědecké studie zase prozkoušel schopnosti AI ve strategické hře Diplomacy. Jejím principem je podvádět, abyste přelstili svého protivníka. Vybral si k tomu nástroj Cicero vyvinutý společností Meta, který by ze svého principu neměl být takového chování schopný. Jak se ale ukázalo, AI se nejen snažila vyvinout svou herní strategii, ale k tomu i lhala a snažila se skrýt svou skutečnou identitu. Jednomu hráči prý dokonce tvrdila, že se opozdila, protože telefonovala se svou přítelkyní.

Jak se tedy ukazuje, AI může být velmi nápomocná a nejspíš je neodmyslitelně propojena s naší budoucností. Měli bychom ale při jejím používání zůstávat ostražití a zdravě nedůvěřiví.

Co si myslíte o překotném vývoji AI a její budoucnosti?

Zdroje: Cell, BBC, CNN, Pixabay

O autorovi

Jana Skálová

Jana se psaním živí už dlouhé roky. Začínala ve zpravodajství a lifestylu, teď se věnuje spíš techničtějším tématům. Ráda píše o mobilech, zajímá se o… Více o autorovi

Jana Skálová
Sdílejte: