För år sedan, i vad som visade sig vara ett mästerligt strategiskt drag, lade Apple till ett starkt vapen till sin arsenal mot ärkekonkurrenten Google: förbättrad integritet och säkerhet för användardata. Det bad om att göras på grund av de naturliga styrkorna och svagheterna hos båda företagen: Apple är ett företag som kontrollerade både hårdvaran och mjukvaran för de enheter de säljer; och Google är till stor del ett mjukvaru-och tjänsteföretag som var starkt beroende av ton på ton av användardata för alla möjliga ändamål. Sedan dess har vissa företag (inklusive Google) försökt hoppa på sekretessvagnen, med varierande framgång. Det känns dock som att Apple fortsätter att behålla topplatsen när det gäller att bygga och behålla det förtroende som krävs för att kunderna verkligen ska kunna köpa budskapet att deras personliga data är säkra och sunda. Det är därför det inte är så förvånande att med iOS 17, Apple fördubblar (och tredubblar) när det gäller utökad integritet och säkerhet, inklusive Communication Safety – en smart föräldrakontrollfunktion som gjorde sin debut i slutet av 2021 och har utökat sin närvaro sedan dess.
Kommunikationssäkerhet: oskärpa känsliga (naken) foton du skickar eller tar emot
En av de större uppdateringarna i iOS 17 gäller kommunikationssäkerhet, det vill säga funktionen som automatiskt känner igen och suddar”känsliga”(läs: som innehåller nakenhet) foton på väg in eller ut från ett barns iPhone eller iPad.
Ursprungligen var kommunikationssäkerhet endast avsedd som en föräldrakontrollfunktion som gör det möjligt för föräldrar att aktivera filtret på sina barns enheter som är en del av deras familjedelningsgrupp.
Varning för vuxna
Med iOS 17 kan vuxna välja att se varningar om någon försöker skicka dem känsligt material
Och medan kommunikationssäkerhetsfiltret i första hand kommer att finnas kvar som en föräldrakontrollfunktion för att hålla barnen så säkra som möjligt, kommer iOS 17 att göra det möjligt att ha bekvämligheten med kommunikationssäkerhet aktiverad på en vuxens iPhone också. Det betyder att du kan välja att ha en varning och ett oskärpa filter varje gång ett känsligt foto eller video är på väg att tas emot av din enhet.
Även om du är vuxen betyder att du är helt fri att skicka och ta emot allt innehåll du vill på din telefon, men jag kan se hur det här alternativet kan ses som bekvämt och användbart av många människor ute där. Åtminstone betyder det att du kan bespara dig själv chockfaktorn att oväntat få en nakenbild av någon du aldrig trodde att du var så nära.
Jag skulle generellt sett bli förvånad om alltför många faktiskt motstå frestelsen att kontrollera exakt vad de fick, men det är inte meningen. Om du tänker efter så kanske vissa människor inte vill ha något att göra med främlingars”känsliga delar”eller… de flesta andra människor, och det är en rättighet som absolut är värd att skydda.
“På som standard”för barn under 13
Den nuvarande policyn var att kommunikationssäkerhet skulle vara”av”som standard, men nu när föräldrar skapar konton för sina barn under åldern 13 och lägg till dem i Family Sharing, kommer alla säkerhetsfilter och aviseringar att vara på som standard.
Barn under 13 år kan inte skapa sina egna Apple-ID – de måste läggas till av föräldern; medan föräldrakontrollfunktioner i Family Sharing fungerar tills barn är 18 år.
Växer bortom meddelanden: AirDrop, FaceTime och tredjepartsappar
Kommunikationssäkerhet på iPad
Nu skulle allt det här snacket om att skydda barn, din rätt att inte utsättas för explicit material och så vidare vara till stor nytta, om det var begränsat till bara Apple-meddelanden, eller hur ? Det är därför Apple utökar all kommunikationssäkerhetsfunktionalitet till andra iOS-appar och funktioner, såsom AirDrop, FaceTime, den systemomfattande fotoväljaren och de nya kontaktaffischerna.
Det som kan få ännu större inverkan är den nya Sensitive Ramverk för innehållsanalys som Apple har skapat för utvecklare, vilket gör att de kan implementera kommunikationssäkerhet i kommunikationsappar från tredje part. Detta kan teoretiskt betyda att populära snabbmeddelandeappar som Messenger, Skype, Whatsapp och andra så småningom kan få Communication Safety, om deras utvecklare beslutar sig för att dra nytta av det nya API:et.
I dagsläget finns det ingen officiell information om populära meddelandeappar arbetar med att integrera analys av känsligt innehåll, men uppenbarligen håller en del utvecklare redan på att testa vattnet, och Discord-teamet känner sig ganska positiva till det, som nämnts av en Apple-representant.
Expanderar globalt
Efter att ha lanserats exklusivt i USA i slutet av 2021 utökades tillgängligheten för Communication Safety två gånger för att täcka flera andra stora marknader, såsom Storbritannien, Kanada, Tyskland, Belgien, Japan och Sydkorea.
iOS 17 kommer nu att göra nakenavkänningsfunktionen tillgänglig globalt, så att användare kommer att kunna dra nytta av den (om de vill) oavsett var de befinner sig.
Vi bor i en värld där nakenhet nästan har normaliserats och man knappast kan undvika att bli bombarderad med bilder (och videor) på explicit nivå, oavsett ålder. Föräldrar kan göra sitt för att försöka begränsa barns exponering för sådant material, och naturligtvis kan sådana ansträngningar räcka långt, men den skölden är långt ifrån ogenomtränglig. Det är därför det hjälper så mycket att ha världens största teknikföretag på din sida.