Finomítani kíván az illegális pornográfiát detektáló rendszerén.
Óriási vihart kavarva az Apple nagyjából egy hónapja bejelentette a gyermekbántalmazásos anyagok detektálására kitalált rendszerét, ez a mobileszközeiről és a számítógépeiről az iCloud felhőtárhelyre feltölteni kívánt fotók ujjlenyomatait veti össze az ismert pornográf képek ujjlenyomataival. Az eredeti terv szerint a megoldás az ősszel érkező iOS 15, iPadOS 15, továbbá macOS Monterey operációs rendszerekben debütált volna.
![](https://cdn.nwmgroups.hu/s/img/i/1810/20181030apple-iphone-xr.jpg?w=800&h=400&t=5)
Ugyan jó szándékú fejlesztésről van szó, ám az Apple univerzálisan negatív visszajelzéseket kapott miatta többek közt jogvédő csoportoktól és tudományos közösségektől. Az aggodalom szerint egyes kormányzatok visszaélhetnének a lehetőséggel, például üldözött személyek és csoportok felkutatására használhatnák, ráadásul az Apple semmit sem tudna tenni ez ellen.
A kritikákat eddig lesöpört Apple most váratlanul változtatott az álláspontján, állítása szerint elhalasztja a rendszer bevezetését, a következő hónapokban a visszajelzések figyelembe vételével finomításokat kíván bevezetni a működésében. Nem világos, hogy miféle változtatásokról van szó, konkrétumokat nem közölt a vállalat.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!