...

Roskachevo kommenterade på Apple-skandalen

Apple har meddelat att nästa version av iOS från och med version 15 automatiskt kommer att skanna meddelanden som skickas av barn samt användarbilder i iCloud för att söka efter barnpornografi och förhindra distributionen av sådana filer. Initiativet har mötts av massprotester i västvärlden. Tabloiderna anklagar företaget för att vilja hacka sig in i användarnas telefoner och personliga bilder under trovärdiga förevändningar.

image_7

Sergey Kuzmenko, senior specialist på digital produkttestning vid Roskatchestvos centrum för digital expertis:

”Problemet med sexuell exploatering av barn som Apple försöker lösa är mycket allvarligt och akut, både i USA och i resten av världen. Och implementeringen av bildanalystekniken, åtminstone enligt företagets nuvarande beskrivning, är utformad för att vara så privat och säker som möjligt för ägare av Apple-enheter”.

Såvitt jag kan förstå skulle det fungera på följande sätt:

1 Företaget kommer att kontrollera om ett barn skickar ett explicit foto till någon i meddelandefasen och sedan visa flera varningar och meddela föräldrarna. Barnskydd i iMessage fungerar endast på familjekonton med barn som är 12 år eller yngre och måste aktiveras manuellt. Ingen information kommer att lämnas till myndigheterna.

2 Siri och Search kommer att förse söktjänsterna med listor över kodord och frågor som rör barnpornografi, och användare som utför sådana frågor kommer att få en varningstavla som varnar dem för farorna med sådana intressen och länkar till partnerwebbplatser för hjälp. Det återstår att se om sådana förfrågningar kommer att vidarebefordras till myndigheterna.

3 Den mest skandalösa delen: När bilder laddas upp till iCloud om funktionen är aktiverad sker det automatiskt kommer företagets neurala nätverk att skanna bilderna innan de laddas upp och jämföra dem med den befintliga databasen för barnporr. Fotona kommer att hashedas dvs. omvandlas till en sekvens av tecken som en utomstående inte kan tyda och algoritmen kommer att jämföra dem med en databas med liknande teckensträngar. Processen är automatisk, och endast om det finns en matchning med ett känt mönster kommer en mänsklig moderator att ingripa.

4 Om det visar sig att en användare har känt till flera bilder eller har laddat ner sådana bilder mer än en gång, förbehåller sig Apple rätten att vidarebefordra uppgifterna till relevanta myndigheter. Företaget betonar att om en användare har inaktiverat uppladdning kommer systemet inte att fungera, och funktionen kontrollerar inte det privata fotobiblioteket på enheten.

Frågor kvarstår förstås om företaget kommer att följa sina uttalade sekretessregler, om igenkänningstekniken verkligen är idiotsäker och om den kommer att användas för något annat ändamål i framtiden. I sin nuvarande form ses dock det potentiella erkännandet av pedofilkonton som ett plus.

Det bör också noteras att funktionen endast lanseras i USA, i andra länder kommer den att införas gradvis, beroende på den lokala lagstiftningen.

Betygsätt den här artikeln
( Inga betyg ännu )
Alva Ulsson

Hej! Jag heter Alva Ulsson och jag är en erfaren konsult inom hushållsapparater. Med årens erfarenhet vill jag dela med mig av värdefulla kunskaper och tips relaterade till hushållsapparater.

Vitvaror. TV-apparater. Datorer. Fotoutrustning. Recensioner och tester. Hur man väljer och köper.
Comments: 4
  1. Emil

    Vad exakt handlar Apple-skandalen om och hur påverkar den oss som användare?

    Svara
  2. Karl

    Vad är det exakt som har hänt i Apple-skandalen? Jag har inte följt med i nyheterna och undrar vad det är som har skett. Kan någon förklara?

    Svara
  3. Peter

    Vad var det exakt som hände i Apple-skandalen? Kan du berätta mer om det?

    Svara
  4. Vera Larsson

    Är det möjligt att få mer information om vad Apple-skandalen handlar om? Vad var exakt skandalen och hur påverkar den oss som Apple-användare?

    Svara
Lägg till kommentarer