Apple hat kürzlich iOS 17 und iPadOS 17 mit einer Reihe neuer Datenschutz-und Sicherheitsfunktionen für iPhone und iPad vorgestellt. In einem neuen Interview mit Fast Company sprach Craig Federighi, Senior Vice President Software Engineering bei Apple, über neue Datenschutzfunktionen, künstliche Intelligenz, Deepfakes und mehr, die in iOS 17 kommen werden.

Craig Federighi zu iOS 17 Check-In, Verbesserungen des Sperrmodus und mehr

Check-In

Während der WWDC 2023 stellte Apple eine neue Funktion für iOS 17 namens Check-In vor. Mit dieser Funktion können iPhone-Benutzer bestimmte Kontakte auswählen, die automatische Benachrichtigungen erhalten, wenn der Benutzer nach Hause kommt, und so ein Gefühl der Sicherheit vermitteln.

Check-In geht jedoch noch weiter, indem es den Fortschritt des Benutzers aktiv überwacht. Wenn der Benutzer beispielsweise angibt, dass er um Mitternacht zu Hause sein würde, es aber bereits 23:50 Uhr ist. und sie noch in weiter Ferne sind, wird sich Check-In an den Benutzer wenden, um für sein Wohlergehen zu sorgen.

Bei der Erörterung des Check-Ins von iOS 17 betonte Federighi die Bedeutung dieser Funktion , insbesondere für Personen, die sich möglicherweise unsicher fühlen, wenn sie nach Hause gehen oder zwischen Standorten wechseln.

„Es gibt so viele Leute, die gesagt haben, dass sie sich ein wenig unsicher fühlen, wenn sie vom Abendessen nach Hause gehen „Sie laufen von der Bibliothek zu ihrem Wohnheim“, erzählt mir Federighi. Check-In ist eine Möglichkeit, „einer großen Anzahl von Menschen ein gewisses Maß an Komfort und Sicherheit zu bieten.“

Wenn der Benutzer nicht antwortet, sendet Check-In eine Nachricht an den Ausgewählte Kontakte, die den genauen Standort des Benutzers, den Mobilfunkstatus, den iPhone-Akkustand und den Zeitpunkt der letzten aktiven Nutzung des Geräts mitteilen.

Federighi sprach außerdem über die Absturzerkennung, die mit iOS 16 eingeführt wurde Die Auswirkungen der Crash-Erkennung wurden deutlich, als Apple kurz nach der Veröffentlichung zahlreiche Briefe von Personen erhielt, die in Autounfälle verwickelt waren. Federighi zeigte sich erstaunt über die Anzahl der Vorfälle und erkannte die Bedeutung des iPhones für die schnelle Hilfe für Benutzer.

„Als wir Crash Detection auslieferten, war ich erstaunt, wie viele Briefe wir bekamen.“ , innerhalb weniger Tage, von Menschen, die in Autounfälle verwickelt waren. Ich dachte: „Oh mein Gott, wie viele Autos verunfallen an einem Tag?“ Es stellt sich heraus, dass die Antwort ziemlich viele sind“, sagt Federighi. Die an den Unfällen beteiligten Personen „waren verwirrt und verwirrt. Vielleicht hat ihnen die Unfallerkennung geholfen, etwas früher Hilfe zu bekommen. In einigen Fällen rettete es ihnen das Leben. Es hat uns wirklich die Augen geöffnet und uns gezeigt, wie viel wir helfen können.“

Sperrmodus

Letztes Jahr hat Apple den Sperrmodus für das iPhone eingeführt. iPad und Mac, sodass Benutzer verschiedene Gerätefunktionen und-dienste deaktivieren können, um potenziellen Hacking-Versuchen entgegenzuwirken. Apple räumt ein, dass die Mehrheit der Benutzer den Sperrmodus wahrscheinlich nie aktivieren muss. Federighi erkannte jedoch, dass eine bestimmte Gruppe von iPhone-Nutzern, darunter Journalisten, Aktivisten und Regierungsbeamte, bereits Ziel dieser raffinierten Angriffe ist. Ihre Anfälligkeit könnte zunehmen, wenn Regierungen es versäumen, Spyware-Tools wie Pegasus gesetzliche Beschränkungen aufzuerlegen.

„Es gibt eine Klasse von Benutzern, die möglicherweise echten Grund zu der Annahme haben, dass sie ins Visier genommen werden könnten.“ Für sie können wir eine echte Asymmetrie ausnutzen. Normalerweise durchsuchen Angreifer jeden Oberflächenbereich des Codes im Betriebssystem nach Lücken in der Panzerung, einem schmalen Durchgang“, erklärt Federighi. „Mit dem Lockdown-Modus können wir den Großteil des Zugangs zu diesen Oberflächen sperren“, was die Durchführung von Angriffen „viel teurer“ macht und „viel weniger wahrscheinlich ist, dass sie erfolgreich sind.“

Als Reaktion darauf verstärkt Apple den Sperrmodus in iOS 17, indem es zusätzliche Sicherheitsmaßnahmen implementiert, wie z. B. das Blockieren der iPhone-Konnektivität zu 2G-Mobilfunknetzen und das Verhindern der automatischen Verbindung mit unsicheren drahtlosen Netzwerken. Darüber hinaus führt Apple mit iOS 17 und watchOS 10 erstmals den Lockdown-Modus für die Apple Watch ein und weitet den Schutz auf eine breitere Palette von Geräten aus.

KI und Deepfakes

During Während der Diskussion über Bedrohungen wurde Federighi gebeten, seine Sicht auf KI und ihre Auswirkungen auf Privatsphäre und Sicherheit darzulegen. Es schien, dass Federighi sich intensiv mit dieser Angelegenheit beschäftigt hatte.

Federighi räumte ein, dass KI-basierte Tools zweifellos ihre Fähigkeit verbessern würden, potenzielle Sicherheitslücken und ausnutzbare Pfade zu identifizieren. Er wies darauf hin, dass diese Tools nicht nur von Einzelpersonen genutzt werden können, die den Code stärken und Benutzer schützen möchten, sondern auch von denen, die versuchen, Schwachstellen auszunutzen.

Im Wesentlichen würde KI nicht nur böswilligen Akteuren zugute kommen, sondern auch denen, die daran arbeiten zur Verbesserung der Sicherheitsmaßnahmen. Federighi erwähnte, dass Apple bereits verschiedene statische und dynamische Analysetools verwendet, um potenzielle Codefehler zu erkennen, die für Menschen möglicherweise schwer zu erkennen sind.

Federighi äußerte jedoch Bedenken hinsichtlich des menschlichen Faktors, wenn es um Privatsphäre und Sicherheit geht. Insbesondere ist er besorgt über die Zunahme von Deepfakes, KI-generierten Audio-und Videoaufnahmen, die überzeugend darstellen können, dass Personen Dinge sagen oder tun, die sie nie getan haben.

Da KI-Tools immer zugänglicher werden, könnten Deepfakes zunehmend eingesetzt werden bei Social-Engineering-Angriffen, bei denen Angreifer Opfer dazu verleiten, wertvolle Daten preiszugeben, indem sie sich als eine vertraute Person ausgeben.

„Wenn jemand die Stimme eines geliebten Menschen nachahmen kann“, sagt er, wird das Erkennen von Social-Engineering-Angriffen nur möglich sein schwieriger werden. Wenn „jemand Sie fragt: ‚Oh, können Sie mir einfach das Passwort für dies und das geben?‘“ Ich wurde ausgesperrt‘ „und es klingt im wahrsten Sinne des Wortes so, als würde Ihr Ehepartner, glaube ich, eine echte Bedrohung darstellen.“ Apple denkt bereits darüber nach, wie man Benutzer vor solchen Tricks schützen kann. „Wir wollen alles tun, was wir können, um sicherzustellen, dass wir [Deepfake-Bedrohungen] in Zukunft kennzeichnen: Glauben wir, dass wir eine Verbindung zum Gerät der Person haben, mit der Sie zu sprechen glauben? Solche Dinge. Aber es wird eine interessante Zeit werden“, sagt er, und jeder muss „den Verstand behalten.“

Zusammenfassend lässt sich sagen, dass KI zwar vielversprechende Sicherheitsmaßnahmen verspricht, Federighi betonte die potenziellen Risiken, die mit der Verbreitung von Deepfakes verbunden sind, und die Herausforderungen, die sie bei der Erkennung von Social-Engineering-Angriffen mit sich bringen.

Lesen Sie das vollständige Interview hier.

Categories: IT Info