Chtěl od umělé inteligence recept na přípravu jedovaté houby, ta mu ho poradila
- Zprávičky
- Libor Foltýnek
- 2.12.2024
- 0
- Meta nasadila do Facebookové skupině o houbách chatbota poháněného umělou inteligencí
- Chatbot jménem FungiFriend bez varování poskytl recept na přípravu toxické houby
- Událost ukazuje limity současné umělé inteligence
Nepříjemného překvapení se mohli dočkat členové skupiny Northeast Mushroom Identification & Discussion na Facebooku. Meta totiž do této skupiny nasadila chatbota pojmenovaného FungiFriend. Ten byl poháněn umělou inteligencí a měl lidem radit s identifikací a všem okolo hub. Jenže se nezdráhal poskytnout recent na houbu, která je jedovatá. Jednalo se o baňku velkokališnou (Sarcosphaera coronaria).
Zdá se, že chybná reakce umělé inteligence byla vyprovokována schválně manipulativně položenou otázkou. Ještě nedávno se navíc dotyčná houba konzumovala, ale zjistilo se, že hyperakumuluje arsen a dokonce existuje zdokumentované úmrtí po požití této houby. Chatbot ale bez zaváhání nabídnul několik receptů. Místo, aby upozornil na nebezpečnost této houby, zmínil jen její vzácnost.
Podle správců skupiny chatbota přidala společnost Meta bez předchozí diskuze. Incident poukazuje na to, že umělá inteligence v současném stupni vývoje je sice velice užitečná, ale stále má jisté hranice. U dotazů na programování chybnou odpověď rozpoznám rychle, ale ptát se AI na potenciálně nebezpečné věci je evidentně přílišné riziko.
Zkusil jsem podobnou otázku položit ChatGPT. Ten sice také poskytl recept, ale aspoň upozornil na to, že houba není považována za zcela bezpečnou.
Co říkáte na to, že umělá inteligence poradila recept na toxickou houbu?
Zdroj: 404media
Libor Foltýnek je redaktor s rozsáhlými zkušenostmi v oblasti technologií a fotografie. Jeho práce je charakterizována důkladným výzkumem, poutavým vyprávěním a praktickými radami, které zpřístupňují… více o autorovi
Komentáře (0)
Přidat komentář