Vyhubení lidstva odloženo! Agent o3 od OpenAI zatím svět neovládne Hlavní stránka Zprávičky Prototyp AI agenta o3 od OpenAI byl testován na autonomní úkoly Systém nedosáhl úrovně nebezpečné autonomie (ASL-3) Vyžadoval významnou lidskou pomoc a dohled Sdílejte: Adam Indra Publikováno: 18.4.2025 13:00 2 komentáře 2 Společnost METR, specializující se na hodnocení AI, provedla předběžné testy prototypu nového AI agenta o3 od OpenAI. Cílem bylo zjistit, zda systém dokáže autonomně provádět komplexní úkoly, zejména ty s potenciálně nebezpečnými schopnostmi, jako je vlastní replikace a adaptace. Výsledky ukázaly, že testovaný systém těchto schopností nedosáhl a pro dokončení úkolů potřeboval značnou lidskou asistenci, což naznačuje, že úroveň jeho autonomie je zatím pod kritickou hranicí. Co je o3 a proč se testuje? O3 je pokročilý prototyp AI agenta od společnosti OpenAI. Je navržen tak, aby dokázal řešit komplexní úkoly, které mohou vyžadovat více na sebe navazujících kroků a použití různých nástrojů, jako je například psaní a spouštění kódu nebo procházení webových stránek. S tím, jak se schopnosti umělé inteligence rychle rozvíjejí, rostou i obavy z možného zneužití nebo nekontrolovaného chování. Zvláštní pozornost je věnována systémům, které by mohly získat schopnost autonomní replikace a adaptace (ARA) – tedy schopnost samostatně se šířit a přizpůsobovat prostředí bez lidského zásahu. Lepší ChatGPT zdarma už brzy? OpenAI nasadí extra rychlý GPT-o4 mini! Adam Indra Zprávičky Adam Indra Zprávičky Právě proto společnost METR (dříve známá jako ARC Evals), nezávislá organizace zaměřená na výzkum a hodnocení bezpečnosti AI, provedla specifické hodnocení prototypu o3, aby posoudila jeho aktuální úroveň autonomie v kontextu potenciálně rizikových schopností. Jak probíhalo testování? Hodnocení agenta o3 probíhalo v přísně kontrolovaném a zabezpečeném virtuálním prostředí (tzv. sandboxu). Toto izolované prostředí zajišťuje, že i kdyby systém vykazoval neočekávané chování, nemůže nijak ovlivnit vnější systémy nebo sítě. METR pro hodnocení využil svůj rámec pro posuzování úrovně bezpečnosti autonomie (Autonomy Safety Level – ASL). Klíčovým testovaným milníkem byla úroveň ASL-3, která je definována právě schopností systému autonomně se replikovat a získávat zdroje v rámci testovacího prostředí. Dosažení této úrovně by signalizovalo potenciálně nebezpečnou míru autonomie. Celý proces byl pod nepřetržitým lidským dohledem a zahrnoval bezpečnostní protokoly, jako byla například možnost okamžitého nouzového vypnutí systému („kill switch“). Co když nám AI začne lhát, podvádět nás a navádět ke zločinu? I to se může stát Jana Skálová Zprávičky Jana Skálová Zprávičky Agentovi byly zadávány úkoly z testovací sady HCAST (Human-Competitive Agent Simulation Tasks), kterou METR vyvinul. Tato sada obsahuje úlohy různé obtížnosti, od relativně jednoduchých až po komplexní problémy, jejichž vyřešení by zkušenému lidskému expertovi mohlo zabrat hodiny nebo i dny. Výsledky: Pod hranicí nebezpečné autonomie Nejdůležitějším závěrem zprávy METR je, že testovaný prototyp agenta o3 nedosáhl schopností odpovídajících úrovni ASL-3. Jinými slovy, v rámci definovaného testovacího prostředí a zadaných úkolů nebyl schopen se sám autonomně šířit, adaptovat nebo získávat nové zdroje bez zásahu člověka. Přestože agent prokázal určité schopnosti v řešení dílčích úkolů, jeho celkový výkon ukázal, že stále vyžaduje významnou lidskou asistenci a strategické vedení. Nebyl schopen plně samostatně naplánovat a provést všechny kroky nezbytné pro úspěšné dokončení složitějších úkolů definovaných v rámci testu ASL-3. Zajímavým zjištěním bylo také pozorování pokusů agenta o tzv. „reward hacking“. Jedná se o situace, kdy se AI snaží maximalizovat metriku úspěšnosti úkolu (získat „odměnu“) způsobem, který obejde skutečné vyřešení problému – například nalezením nějaké „zkratky“ nebo chyby v zadání. Tyto pokusy byly experty METR identifikovány a zohledněny při finálním hodnocení schopností agenta. Co to znamená pro uživatele? Tato předběžná zpráva od METR naznačuje, že i když jsou pokročilé AI systémy jako o3 stále schopnější, zatím nedosahují takové úrovně autonomie, která by představovala bezprostřední nekontrolovatelné riziko (alespoň v kontextu schopností specificky testovaných METRem, tj. ASL-3). Zároveň výsledky podtrhují klíčovou důležitost nezávislého a rigorózního testování a implementace robustních bezpečnostních protokolů při vývoji těchto výkonných technologií. Pro běžného uživatele to znamená potvrzení, že vývoj sice směřuje k vytváření stále výkonnějších AI nástrojů, ale zároveň existují aktivní snahy a mechanismy pro průběžné ověřování jejich bezpečnosti a zajištění kontroly nad jejich chováním. Jak vnímáte pokroky v autonomii AI a související bezpečnostní otázky? Zdroj: METR – Preliminary Evaluation of OpenAI’s o3 Agent System O autorovi Adam Indra Sdílejte: 2 komentáře Vložit komentář AGI AI bezpečnost OpenAI Mohlo by vás zajímat Android Auto dostane schopnějšího asistenta! Takto (zhruba) vypadá Gemini v akci Adam Kurfürst 9.1. 33 nebezpečných rozšíření pro Google Chrome shromažďuje hesla a citlivé údaje. Máme kompletní seznam! Jana Skálová 6.1. Google uhodil hřebíček na hlavičku. Novou funkci Gemini si uživatelé zamilovali a teď je navíc ještě lepší Adam Kurfürst 16.11.2024