Apple poleze lidem do mobilů. Skousli byste toto u Androidu?
- Zprávičky
- Marek Houser
- 8.8.2021
- 5
Společnost Apple se rozhodla velmi radikálním (a s ohledem na ochranu soukromí uživatelů také velmi kontroverzním) způsobem bojovat proti šíření dětské pornografie. Prostřednictvím nového nástroje s přiléhavým názvem Child Sexual Abuse Material (CSAM) bude přímo v telefonech iPhone kontrolovat fotky a videa. Tím překročí doposud zavedenou hranici, kdy společnosti svými algoritmy a roboty kontrolovaly jen obsah odeslaný do vzdáleného cloudového úložiště. To teď bude probíhat rovnou v telefonech. Zatím v USA a po jednání s politiky a úřady možná i v dalších zemích.
Tento krok samozřejmě vyvolal hlasitou kritiku, nicméně Apple se snaží odpůrce uklidnit několika argumenty. Systém, který bude fungovat díky porovnávání s reálnými citlivými snímky poskytnutými Národním centrem pro pohřešované a zneužívané děti, má mít velmi nízkou chybovost. Aby byl někdo křivě obviněn z uchovávání či šíření dětské pornografie, se prý může stát u jednoho z miliardy případů. Poté, co algoritmus objeví podezřelý snímek, totiž bude obsah zkontrolován i živým člověkem. Postihy třeba za fotku vlastního nahého potomka na zahradě tak prý nehrozí.
Velký odpor samozřejmě někteří uživatelé mají i k samotnému faktu, že bude někdo nahlížet do jejich mobilů. K těmto výtkám Apple sdělil, že fotky i videa budou nadále podléhat šifrování a jejich prohlédnutí bude možné skutečně až po nahlášení systémem CSAM. Zaměstnanci amerického giganta tak nebudou mít k obsahu volný přístup. Kromě této novinky ještě Apple zavádí i filtr citlivého obsahu pro chatování v mobilech mladistvých. Nevhodné fotky či videa telefon v rámci ochrany rozmaže a o zprávě budou informováni rodiče.
Akceptovali byste něco takového i u Androidu?
Zdroj: 9to5
Fanoušek technologií už od chvíle, kdy jako malý kluk zadával příkazy Lemíkům na "dvaosmšestce". V záloze stále uchovává starý a podle všeho nezničitelný OnePlus2, ale… více o autorovi
Komentáře (5)
Přidat komentář