Minority Report v Británii? AI má tajně hledat budoucí vrahy! Hlavní stránka Zprávičky Britská vláda tajně údajně vyvíjí systém umělé inteligence (AI) pro identifikaci osob s vysokou pravděpodobností spáchání vraždy Systém by měl analyzovat velké množství osobních údajů z vládních a policejních databází Projekt vyvolává značné obavy ohledně ochrany soukromí, etiky a možného zneužití Sdílejte: Adam Indra Publikováno: 14.4.2025 13:00 6 komentářů 6 Britská vláda, konkrétně ministerstvo spravedlnosti a vnitra, pracuje na vývoji nástroje založeného na umělé inteligenci, který by měl předpovídat, které osoby s největší pravděpodobností spáchají v budoucnu vraždu. Tento ambiciózní a zároveň kontroverzní projekt počítá s analýzou rozsáhlých souborů osobních údajů občanů, včetně záznamů z policejních databází. Cílem je identifikovat potenciální pachatele ještě před spácháním činu, což ale vyvolává vážné etické otázky a obavy z narušení soukromí, podobně jako ve filmu Minority Report. Tajný projekt prediktivní AI Informace o projektu přinesla jako první organizace Statewatch, která monitoruje občanské svobody v Evropě, a následně deník The Guardian. Podle dostupných dokumentů ministerstvo spravedlnosti (Ministry of Justice – MoJ) a ministerstvo vnitra (Home Office) investují do výzkumu a vývoje systému, který by dokázal vyhodnotit riziko spáchání násilného trestného činu, konkrétně vraždy. Projekt je zatím ve výzkumné fázi a jeho existence byla odhalena navzdory snahám o utajení. Jaké údaje má systém využívat? Klíčovým prvkem systému má být analýza dat z různých zdrojů. Zvažuje se využití informací z: Policejních databází: Záznamy o předchozích trestných činech, kontaktech s policií, varováních. Probace a vězeňské služby: Informace o osobách v podmínce nebo ve výkonu trestu. Zdravotnických záznamů: Potenciálně údaje o duševním zdraví (ačkoliv přístup k těmto datům je velmi citlivý a regulovaný). Sociálních služeb: Informace o sociální situaci, možném zneužívání návykových látek apod. Cílem je vytvořit komplexní profil rizikovosti dané osoby. Dokumenty naznačují, že systém by se mohl zaměřit i na osoby, které dosud nebyly odsouzeny za násilný trestný čin, ale vykazují určité rizikové vzorce chování identifikované AI. Etické otazníky a obavy veřejnosti Vývoj takového nástroje nevyhnutelně vyvolává řadu vážných obav. Kritici varují před: Narušením soukromí: Shromažďování a analýza obrovského množství osobních údajů bez vědomí dotčených osob. Rizikem chybovosti a diskriminace: AI systémy mohou přebírat a posilovat existující předsudky ve společnosti a v datech, což může vést k nespravedlivému označení určitých skupin obyvatel jako rizikovějších. „Presumpcí viny“: Označení někoho za potenciálního vraha na základě algoritmu, nikoli konkrétních činů, je eticky velmi problematické. Nedostatkem transparentnosti: Projekt je vyvíjen v tajnosti, což ztěžuje veřejnou kontrolu a debatu. Možností zneužití: Technologie by mohla být v budoucnu využita k širšímu sledování populace. Přirovnání k dystopickému filmu Minority Report, kde speciální jednotka zatýkala lidi ještě před spácháním zločinu na základě předpovědí, se v médiích objevuje velmi často a vystihuje jádro obav. Cíl: Prevence násilí Zastánci projektu (především z řad vládních úředníků, jak naznačují uniklé dokumenty) argumentují, že hlavním cílem je prevence nejzávažnějších trestných činů a ochrana veřejnosti. Identifikace vysoce rizikových jedinců by mohla umožnit včasnou intervenci, například prostřednictvím sociálních nebo zdravotnických služeb, a potenciálně tak zabránit tragédiím. Zda je však tento cíl dosažitelný bez nepřijatelného zásahu do základních práv a svobod, zůstává klíčovou otázkou. Projekt navazuje na dřívější snahy, jako byl National Data Analytics Solution (NDAS), který se snažil využívat data k predikci násilných trestných činů spojených se zbraněmi, ale byl kritizován pro nedostatečnou efektivitu a etické problémy. Myslíte si, že potenciální přínosy AI v prevenci zločinu vyváží rizika spojená se soukromím a možnou chybovostí? Zdroj: Statewatch, The Guardian, ČT24, Engadget O autorovi Adam Indra Sdílejte: 6 komentářů Vložit komentář AI Umělá inteligence Velká Británie Mohlo by vás zajímat Android Auto dostane schopnějšího asistenta! Takto (zhruba) vypadá Gemini v akci Adam Kurfürst 9.1. Fotky Google dají uživatelům větší kontrolu, chyby AI půjde opravit Libor Foltýnek 10.1. Roztomilý robůtek od Samsungu zamíří do domácností. Malý AI asistent pomůže zahnat nudu i samotu Jana Skálová 9.1.