GettyImages 1032298518 4385f5761bad40f98230276d4faf5e5e

Kriitikoiden ja käyttäjien vastahakoisuuden jälkeen Apple viivyttää toimiaan lasten hyväksikäyttöä vastaan. Elokuussa teknologiajätti ilmoitti alun perin uudesta käytännöstä, joka käyttää teknologiaa mahdollisten lasten hyväksikäyttökuvien havaitsemiseen iCloudissa ja Messagesissa, mutta siitä seurasi huolenaiheita. Asiantuntijat varoittivat, että vaikka Apple lupasi käyttäjien yksityisyyttä, tekniikka vaarantaisi lopulta kaikki Applen käyttäjät.

Perjantaina Apple ilmoitti lykkäävänsä teknologian käyttöönottoa kokonaan tehdäkseen parannuksia ja varmistaakseen täysin käyttäjien yksityisyyden. «Asiakkailta, edunvalvontaryhmiltä, ​​tutkijoilta ja muilta saatujen palautteiden perusteella olemme päättäneet käyttää lisäaikaa tulevina kuukausina kerätäksemme palautetta ja tehdäksemme parannuksia ennen näiden kriittisten lasten turvaominaisuuksien julkaisemista», Apple sanoi päivitetyssä lausunnossa. verkkosivusto. † Lasten seksuaalisen hyväksikäytön materiaalin havaitsemisteknologian oli määrä tulla saataville iOS 15:n julkaisussa myöhemmin tänä vuonna, mutta tässä vaiheessa on epäselvää, milloin ominaisuus debytoi. Uusi tekniikka toimisi kahdella tavalla: Ensinnäkin skannaamalla kuva ennen varmuuskopiointia iCloudiin. Jos kuva täyttää CSAM:n kriteerit, Apple vastaanottaa tiedot. Toinen osa teknologiasta käyttää koneoppimista tunnistaakseen ja sumentaakseen seksuaalisesti avoimen kuvan, jonka lapset saavat Viestien kautta. Uuden käytännön julkistamisen jälkeen yksityisyyden puolestapuhujat ja ryhmät sanoivat kuitenkin, että Apple avaa takaoven pahantahtoisille osapuolille. Näiden huolenaiheiden poistamiseksi Apple julkaisi UKK-sivun pian CSAM-tekniikan julkistamisen jälkeen. Apple selitti, että tekniikka ei skannaa kaikkia laitteeseen tallennettuja valokuvia, rikkoisi viestien päästä päähän -salausta eikä ilmoita viattomia ihmisiä virheellisesti lainvalvontaviranomaisille.

Por Markus