Während der Keynote der Worldwide Developers Conference (WWDC) dieser Woche stellte Apple einige beeindruckende neue Audiofunktionen für seine AirPods vor, darunter Adaptive Audio, einen neuen Konversationsmodus und mehr. Leider sind einige der besten neuen AirPods-Funktionen jedoch alle mit einem ziemlich großen Sternchen versehen.
Konkret werden die meisten davon exklusiv für Apples neueste AirPods Pro der zweiten Generation sein – die veröffentlicht im letzten Herbst. Um fair zu sein, das sind die neuesten AirPods aller Art und schlagen die AirPods 3 um ein Jahr und die viel teureren AirPods Max um fast zwei.
Dennoch haben Leute, die 549 US-Dollar für Apples Flaggschiff-Over-Ear-Kopfhörer bezahlt haben, möglicherweise auf eine etwas längere Lebensdauer gehofft, insbesondere von einem Unternehmen, das dafür bekannt ist, seine Hardware bis zu einem halben Jahrzehnt lang zu unterstützen. Manchmal ist die Technologie jedoch einfach so.
Die letztjährigen AirPods Pro der zweiten Generation läuteten die Ankunft von ein ein neues Stück Apple-Silizium, der H2-Chip. Bisher sind es die einzigen Apple-Ohrhörer, die über diesen Chip verfügen, obwohl man davon ausgehen kann, dass es in Zukunft auch bei den „AirPods 4“ und hoffentlich bei den AirPods Max der nächsten Generation der Fall sein wird – vorausgesetzt, die aktuellen Kopfhörer verfügen nicht über diesen Chip für Apple zu einem Einzelfall werden.
Leider scheint es, dass die Umsetzung von Adaptive Audio die Rechenleistung des H2-Chips erfordert. Dies ist sicherlich keine „geplante Obsoleszenz“ seitens Apple; Wenn man es auf den Punkt bringt, erfordern diese neuen Funktionen einiges an Zahlenverarbeitung und maschinellem Lernen.
Der H2-Chip ermöglicht es den AirPods Pro der zweiten Generation bereits, doppelt so viel Lärm zu unterdrücken wie die Originalversion und ermöglicht einen einzigartigen erweiterten Transparenzmodus. Adaptive Audio ist im Wesentlichen eine Weiterentwicklung dieser ursprünglichen Funktion, die darauf ausgelegt war, besonders laute Geräusche wie Sirenen und Bauarbeiten zu reduzieren.
Kurz gesagt, iOS 17 und die dazugehörige neue AirPods Pro 2-Firmware heben sowohl die aktive Geräuschunterdrückung als auch die Transparenz auf die nächste Stufe, indem sie sie dynamisch mischen, sodass Sie sich keine Gedanken über das Hin-und Herwechseln machen müssen fast genauso oft manuell zwischen ihnen hin-und herwechseln.
Zu diesen Funktionen gehört auch die personalisierte Lautstärke, mit der Sie Ihr Hörerlebnis verfeinern können, indem Sie Ihre Vorlieben und die Umgebung, in der Sie normalerweise zuhören, kennenlernen, sowie Conversation Boost, das die Lautstärke automatisch senkt und Hintergrundgeräusche reduziert unterdrückt Lärm und verstärkt die Stimmen vor Ihnen, sobald Sie anfangen, mit jemandem zu sprechen.
Alle diese Funktionen werden exklusiv für die AirPods Pro der zweiten Generation verfügbar sein, obwohl es wahrscheinlich ist, dass sie von allen neuen AirPods unterstützt werden, die Apple in Zukunft auf den Markt bringt.
Darüber hinaus sind die neue „Hey-less“-Siri-Funktion und der schnellere Wechsel zwischen Geräten auch auf die AirPods Pro 2 beschränkt. Dies hängt wahrscheinlich auch damit zusammen, dass der ältere H1-Chip nicht leistungsstark genug ist, um diese Funktionen zu unterstützen. Die neue Siri-Rufphrase wird auch nicht auf Intel-Macs unterstützt, da diese nicht über die Neural Engine verfügen, die in den Chips der M-Serie von Apple zu finden ist.
Während Sie vielleicht denken, dass es keine so große Sache sein sollte, das „Hey“ aus der Phrase zu streichen, die zur Aktivierung von Siri verwendet wird, ist der entscheidende Faktor die Vermeidung von Fehlalarmen. Ich nutze die Betaversion von iOS 17 erst seit drei Tagen und habe in diesen drei Tagen bereits häufiger versehentliches Aufwachen von Siri erlebt als in den letzten zwei Jahren – und das auf einem iPhone 14 Pro Max mit Apple-Antrieb neuester A16-Chip. Tatsächlich ist es zu einem solchen Problem geworden, dass ich es vorerst ausschalten musste.
Es ist die erste Entwickler-Beta, das ist also fair – Apple muss im Allgemeinen noch viel polieren und verfeinern – aber der Grund dafür war, dass in der ersten Beta ein komplexerer „Hey Siri“-Satz erforderlich war Der Grund dafür war, dass das damalige Apple-Chip nicht in der Lage war, kürzere Anrufphrasen aus normalen Gesprächen zuverlässig zu erkennen.
Es gibt eine kleine gute Nachricht: Die AirPods Max werden zusammen mit den ursprünglichen AirPods Pro und den AirPods 3 die neuen Funktionen zum Stummschalten und Aufheben der Stummschaltung erhalten. Bei den Ohrhörern von Apple wird dies durch Drücken des Stiels während eines Anrufs aktiviert, während dies bei den AirPods Max durch Drücken der Digital Crown der Fall ist.
Trotzdem ist es zwar traurig, dass die mit H1 ausgestatteten AirPods Max nicht alle neuen Vorteile von iOS 17 nutzen können, aber wie sehr Sie diese Funktionen vermissen werden, hängt davon ab, wie Sie sie verwenden Ihre AirPods Max. Adaptive Audio und Conversation Boost sind wesentlich nützlicher, wenn Sie in der Welt unterwegs sind. Ich bin zwar sicher, dass einige Leute die Premium-Over-Ear-Kopfhörer von Apple bei Outdoor-Aktivitäten oder in anderen akustisch anspruchsvollen Umgebungen tragen, aber das ist sicherlich ein weniger verbreitetes Nutzungsszenario für die AirPods Max als für die AirPods Pro.