Bralci, kot ste vi, pomagajo podpirati MUO. Ko opravite nakup prek povezav na našem spletnem mestu, lahko zaslužimo partnersko provizijo. Preberi več.

Apple je napovedal, da bo avgusta 2021 skeniral vašo vsebino iCloud za material o spolni zlorabi otrok (CSAM), da bi zaščitil otroke pred zlorabo s strani plenilcev.

Podjetje je načrtovalo uvedbo nove funkcije za zaznavanje CSAM v storitvi iCloud Photos, ki bi skenirala takšno vsebino in Appleu poročala o ujemajočih se slikah, hkrati pa ohranila zasebnost uporabnikov.

Vendar pa je nova funkcija naletela na mešane odzive. Več kot leto dni od prve objave je Apple uradno opustil svoj načrt skeniranja fotografij iCloud za CSAM.

Apple opusti svoj načrt za skeniranje iCloud za materiale o zlorabi otrok

Glede na poročilo avtorja ŽIČNO, Apple odstopa od svojega načrta skeniranja vašega iClouda za vsebino zlorabe otrok. Orodje bi skeniralo fotografije, shranjene v iCloud, da bi našlo tiste, ki se ujemajo z znanimi slikami CSAM, kot so jih identificirale organizacije za varnost otrok. Te slike bi nato lahko prijavil, ker je posedovanje slik CSAM nezakonito v večini jurisdikcij, vključno z ZDA.

Zakaj je Apple preklical svoj načrt skeniranja fotografij iCloud

Po prvi objavi leta 2021 se je Apple soočil z nasprotovanjem strank, skupin in posameznikov, ki so zagovarjali digitalno zasebnost in varnost po vsem svetu. Telefoni iPhone običajno nudijo večjo varnost kot naprave Androidin mnogi so to razumeli kot korak nazaj. Medtem ko je bila to zmaga za organizacije za varnost otrok, je več kot 90 političnih skupin kasneje istega meseca napisalo odprto pismo Appleu in podjetju naročilo, naj prekliče načrt.

V pismu je trdil, da medtem ko orodje namerava zaščititi otroke pred zlorabo, bi ga lahko uporabili za cenzuro svobode govora ter ogrožali zasebnost in varnost uporabnikov. Zaradi naraščajočega pritiska je Apple ustavil svoje načrte za lansiranje, da bi zbral povratne informacije in opravil potrebne prilagoditve funkcije. Vendar pa povratne informacije niso bile naklonjene Applovemu načrtu skeniranja fotografij iCloud, zato podjetje uradno za vedno opušča načrte.

V izjavi za WIRED je podjetje dejalo:

"Imamo... odločili, da ne bomo nadaljevali z našim predhodno predlaganim orodjem za odkrivanje CSAM za iCloud Photos. Otroke je mogoče zaščititi, ne da bi podjetja prečesavala osebne podatke, in še naprej bomo sodelovali z vladami, zagovorniki otrok in druga podjetja, ki pomagajo zaščititi mlade, ohraniti njihovo pravico do zasebnosti in narediti internet varnejši kraj za otroke in nas vse."

Applov nov načrt za zaščito otrok

Apple preusmerja svoja prizadevanja v izboljšanje funkcij komunikacijske varnosti, ki so bile napovedane avgusta 2021 in predstavljene decembra istega leta.

Komunikacijska varnost ni obvezna in jo lahko uporabljajo starši in skrbniki za zaščito otrok pred pošiljanjem in prejemanjem spolno nazornih slik v iMessage. Funkcija samodejno zamegli takšne fotografije, otrok pa bo opozorjen na nevarnosti. Prav tako opozori vsakogar, če poskuša iskati CSAM v napravah Apple.

Ker so načrti za lansiranje orodja za zaznavanje CSAM preklicani, se podjetje veseli nadaljnjega izboljšanja funkcije in njene razširitve na več komunikacijskih aplikacij.