Benutzer können eine persönliche Stimme erstellen, indem sie zusammen mit einer zufälligen Reihe von Textansagen vorlesen, um 15 Minuten Audio auf dem iPhone oder iPad aufzuzeichnen. Diese Sprachbarrierefreiheitsfunktion nutzt maschinelles Lernen auf dem Gerät, um die Informationen der Benutzer privat und sicher zu halten, und lässt sich nahtlos in Live Speech integrieren, sodass Benutzer mit ihrer persönlichen Stimme sprechen können, wenn sie mit ihren Lieben kommunizieren.AppleDas stimmt! Nach ChatGPT und Google ist nun Apple an der Reihe, in die Welt der fortschrittlichen KI einzutauchen, und was für eine Funktion, mit der Tim Cook & Co. diese Reise beginnen können, haben sie sich ausgedacht! Auf iPads und iPhones mit iOS 17 (Einführung im September) können Sie eine digitale Version Ihrer eigenen Stimme erstellen. Lassen Sie das einen Moment auf sich wirken … Wenn es sich so anhört, als würde Apple Ihnen erlauben, ein „Deepfake“ Ihrer eigenen Stimme zu erstellen, dann liegt das daran, dass es wahr ist. Irgendwie. Aber so einfach ist das nicht.
Apple sagt, dass Ihr iPhone nach 15 Minuten Training bald in der Lage sein wird, mit Ihrer Stimme zu sprechen. Warum? So „können Benutzer mit ihrer persönlichen Stimme (dem eigentlichen Namen der Funktion) sprechen, wenn sie sich mit Freunden und Familie verbinden“. Aber es handelt sich nicht nur um einen Partytrick. Es sollte nicht überraschen, dass Apple die Personal Voice AI-Funktion unter dem Gesichtspunkt der Barrierefreiheit angeht, die hier das Hauptziel sein soll. Cupertino kann auf eine solide Erfolgsbilanz zurückblicken, wenn es darum geht, das iPhone integrativer zu machen. Diesmal machen sich viele jedoch auch Sorgen um ihre Privatsphäre und höchste Sicherheit.

KI wird immer leistungsfähiger, und während ChatGPT Ihnen beim Verfassen eines Aufsatzes helfen kann, kann Googles Bard als Ihr Gmail-Assistent oder als Hilfe dienen Wenn Sie den besten Kühlschrank für Ihre Küche finden, liegt die wahre Stärke der KI möglicherweise in ihrer Fähigkeit, mit Menschen zu interagieren und so Teil unserer Gesellschaft zu werden.

Dann sollten wir uns also darüber aufregen Das iPhone wird bald in der Lage sein, mit unserer eigenen Stimme zu sprechen? Das glaube ich nicht. Wenn überhaupt, bin ich ziemlich aufgeregt!

Beängstigend, aber hilfreich – iPhones mit iOS 17 können mit Ihrer „persönlichen Stimme“ sprechen; Apple steigt auf die intelligenteste Art und Weise in den Wettlauf um die fortgeschrittene KI ein.

Ich weiß nicht, wie es Ihnen geht, aber ich denke, dass Apple beim Einstieg in den Wettlauf um die KI recht vorsichtig ist, da Barrierefreiheit dabei eine der sichersten Optionen sein könnte geht es darum, den Bedarf an KI in iPhones und iPads zu rationalisieren. Dies bedeutet jedoch nicht, dass Apple einen einfachen Weg gewählt hat.

Wenn überhaupt, ist eine KI-Funktion mit der Mission, das Leben der Menschen auf wirklich sinnvolle Weise einfacher zu machen, wichtiger als jeder andere KI-Trick, der das könnte oder auch nicht hilf uns in erster Linie. Darüber hinaus wird die Tatsache, dass Apple hinter der Personal Voice-Funktion steht, das Interesse und die Aufmerksamkeit, die Personal Voice seitens der Kritiker und der breiten Öffentlichkeit erhält, nur noch verstärken. Aber Apple freut sich über die Aufmerksamkeit.

Natürlich hatte noch niemand die Gelegenheit, Personal Voice zu testen, daher muss ich mir eine eindeutige Meinung für die Veröffentlichung der Funktion aufheben (sie wird für Ende dieses Jahres erwartet). ). Aber was wir jetzt tun können, ist, über den positiven Charakter der fortschrittlichen KI zu sprechen, die auf das iPhone kommt. Und was gibt es Schöneres, als Menschen dabei zu helfen, durchs Leben zu kommen.

Leider ist es schwierig, globale Statistiken dieser Art zu finden, aber den in den USA verfügbaren Statistiken zufolge Etwa 18,5 Millionen Menschen haben eine Sprech-, Stimm-oder Sprachstörung, was die klare Notwendigkeit zeigt, die Technologie für diejenigen nutzbar zu machen, die am meisten davon profitieren könnten.

Das ist der Moment, um zu erwähnen, dass Apple nicht neue Wege beschreitet, sondern lediglich die bereits bestehende Welt der Augmentativen und Alternative Kommunikation (AAC) erschließt. AAC-Apps sollen Menschen, die nicht sprechen, dabei helfen, durch die Verwendung von Symbolen und prädiktiven Tastaturen, die Sprache erzeugen, effektiver zu kommunizieren. Viele, die nicht in der Lage sind, mündlich zu sprechen, darunter Menschen mit ALS, Zerebralparese und Autismus, müssen zur Kommunikation AAC-Apps verwenden.

Wenn Sie neugierig sind: Apple hat eine eigene Geschichte über AAC und AssistiveWare veröffentlicht (eine einer der führenden Entwickler im Bereich AAC). Laut AssistiveWare besteht ihre Mission darin, AAC zu einem effektiven und akzeptierten Kommunikationsmittel zu machen. Im Moment sieht es nicht so aus, als ob Apple AssistiveWare erwerben möchte.

Der Gründer und CEO von AssistiveWare, David Niemeijer, hofft, dass AAC-Apps wie Proloquo2Go ebenso weithin akzeptiert werden wie SMS. „Wenn Sie nicht sprechen können, wird immer noch davon ausgegangen, dass Sie wahrscheinlich nicht viel zu sagen haben. Diese Annahme ist das größte Problem. Ich hoffe, dass sich diese Technologie respektiert, damit sie den größten Einfluss haben kann“, sagt Niemeijer. Bedenken Sie, dass einige AAC-Apps zwar kostenlos sind, der Download der Premium-Version von Proloquo2Go im App Store jedoch derzeit 250 US-Dollar kostet.

Apples Personal Voice – eine bahnbrechende Funktion, die Smartphones intelligent und intelligent macht Unser Leben einfacher machen?

Ich glaube, das macht es etwas klarer, warum Apples Arbeit, das iPhone und iPad zugänglicher zu machen, das Hauptgesprächsthema einer Funktion wie Personal Voice sein sollte. In einer Welt voller TikTok-Videos und Instagram-Geschichten erinnern Barrierefreiheit und Lebensqualitätsfunktionen (QoL) wie Personal Voice daran, dass Smartphones existieren können (und sollten), um unser Leben einfacher zu machen.

Wie David Niemeijer, CEO von AssistiveWare, sagt: iPhones/Smartphones sind die „coolen“ Geräte, die jeder nutzt, und dies hat bereits einen großen Unterschied in der Akzeptanz von AAC-Apps gemacht, die auf denselben allgegenwärtigen Geräten existieren und nicht auf einer „spezialisierten“ Hardware, die „anders“ aussieht.

Die Tatsache, dass Apples Personal Voice direkt auf dem iPhone verfügbar sein wird, auch ohne dass spezielle Software erforderlich ist, würde die Verwendung dieses (hoffentlich) bahnbrechenden Stücks KI viel zugänglicher und „normaler“ machen.Später in diesem Jahr können Benutzer mit kognitiven Behinderungen mit Assistive Access iPhone und iPad einfacher und unabhängiger nutzen; Personen, die nicht sprechen, können während Anrufen und Gesprächen mit Live Speech tippen, um zu sprechen. und diejenigen, bei denen das Risiko besteht, dass sie ihre Sprachfähigkeit verlieren, können Personal Voice verwenden, um eine synthetische Stimme zu erstellen, die wie sie selbst klingt, um mit Familie und Freunden in Kontakt zu treten.

Für Benutzer, bei denen das Risiko besteht, dass sie ihre Sprachfähigkeit verlieren – wie z Personen mit einer kürzlich diagnostizierten ALS (Amyotrophe Lateralsklerose) oder anderen Erkrankungen, die sich zunehmend auf die Sprechfähigkeit auswirken können – Personal Voice ist eine einfache und sichere Möglichkeit, eine Stimme zu erzeugen, die wie sie klingt.

Personal Voice könnte das sein die neue, verbesserte und aufgeladene Version von Siri – kann Apples ehrgeizigste Barrierefreiheitsfunktion zum ultimativen Konkurrenten für Google Assistant werden?

Was wäre, wenn Personal Voice Apples Hinweis darauf wäre, dass Siri bald sein größtes Upgrade erhalten wird? jemals?

Nach alledem kann ich als „Techniker“ einfach nicht anders, als das erweiterte Potenzial von Personal Voice zu betrachten. Und lassen Sie mich erklären, was ich damit meine…

Siri ist seit Jahren auf verschiedene Arten schlecht, und Google Assistant umgeht den Roboter von Apple auf nahezu jede erdenkliche Weise. Aber was wäre, wenn Personal Voice nur der Anfang des Wandels des iPhones zum ultimativen KI-Telefon mit Spracherkennung wäre? Diese Ehre gebührt derzeit dem Google Pixel, das (dank Googles Tensor-Chip) Sprache besser verstehen, aufzeichnen und transkribieren kann als jedes andere Telefon auf dem Markt.

So wie es aussieht, entwickelt sich Personal Voice im Wesentlichen dazu eine Text-to-Speech-Engine, die in verschiedenen Szenarien nützlich sein kann. Ich würde gerne sehen, dass eine Funktion wie „Personal Voice“ auf andere iPhone-und iPad-Apps wie „Sprachnotizen“ und „Notizen“ ausgeweitet wird. Ich sage das, weil es nahezu unmöglich ist, eine gute Text-to-Speech-Software zu finden, die sowohl kostenlos als auch natürlich klingt.

Natürlich wird das iPhone bald in der Lage sein, mit Ihrer Stimme zu sprechen, aber ich Erwarten Sie, dass die Funktion „Personal Voice“ mit gewissen Einschränkungen verbunden ist. Was aber, wenn Ihr iPhone Ihnen Dinge mit Ihrer eigenen Stimme oder einer anderen natürlich klingenden Stimme mit der richtigen Betonung frei vorlesen kann? Dies wäre hilfreich für Studenten, die sich auf eine Prüfung vorbereiten, Podcaster, die es hassen, langweilige Werbung zu lesen, Komiker, die sich ein Comedy-Set merken möchten, Schauspieler, die ein Drehbuch lernen möchten Toller Einsatz einer breiteren Implementierung einer Funktion wie Personal Voice. Die oben genannten Beispiele mögen angesichts der aktuellen Mission von Personal Voice komisch aussehen, aber ich glaube wirklich, dass dies nur der Anfang von Apples KI-Transformation ist.

Ich übertreibe, frage mich aber auch, ob Personal Voice das sein könnte Beginn von etwas noch Größerem und weitaus Kontroverserem. Wie die Idee des Metaversums und wie Voice Banking uns „unsterblich“ machen kann. Voice Banking ist ein Prozess, der es jemandem ermöglicht, eine synthetische Stimme zu erstellen, die idealerweise wie seine natürliche Stimme klingt. Dies wird erreicht, indem Sie eine große Anzahl von Nachrichten aufzeichnen, während Ihre Stimme klar ist.

Was wäre also, wenn Ihre Stimme für immer erhalten bleiben und/oder mit einem virtuellen Bild von Ihnen kombiniert werden könnte, das auch nach Ihrer Stimme bestehen bleiben kann? Bist du „weg“ gegangen? Wenn das für Sie faszinierend klingt, empfehle ich Ihnen, sich eine brillante Show namens „Upload“ anzusehen. Es handelt sich um eine Science-Fiction-Dramakomödie, die die Idee untersucht, dass Menschen sich im Jahr 2033 in ein virtuelles Leben nach dem Tod ihrer Wahl „hochladen“ können. Das ist nur noch zehn Jahre von jetzt an, Leute!

iPhone und iPad können mit Ihrer Stimme sprechen: Öffnet Apple Betrügern Tür und Tor? Es bestehen Bedenken hinsichtlich virtueller Entführungen und Deepfakes

Wir Glauben Sie an eine Welt, in der jeder die Macht hat, sich zu vernetzen und zu kommunizieren. Ihren Leidenschaften nachgehen und Neues entdecken. Am Global Accessibility Awareness Day (19. Mai) feiern wir inklusive Technologie, die für alle funktioniert.

Tim Cook

Nun zu den kontroversen Seiten von Apples Personal Voice…

Die Hauptbedenken hinsichtlich der neuen Personal Voice-Funktion beziehen sich natürlich auf die Sicherheit. Menschen (einschließlich der Mainstream-Nachrichtenmedien) stellen Fragen, woran wir uns bei der Einführung von Nachrichten gewöhnt haben neue Softwarefunktion, die die Erhebung personenbezogener Daten beinhaltet. Diesmal geht es jedoch nicht um Fotos Ihres Mittagessens oder Ihre betrunkenen Textnachrichten. Von iPhone und iPad wird erwartet, dass sie Ihre Stimme aufzeichnen, speichern und reproduzieren, was (natürlich) alle Bedenken hinsichtlich Privatsphäre und Sicherheit verstärkt. Natürlich verspricht Apple, dass Personal Voice eine „einfache und sichere Möglichkeit ist, eine Stimme zu erzeugen, die wie Sie klingt“, was mich zu der Annahme führt, dass die gesamte Personal Voice-Aktion verschlüsselt ist und direkt (und nur) auf Ihrem iPhone stattfindet/iPad (oder besser gesagt auf ihrem SoC).

Dennoch hindert Apples Versprechen einer einfachen und sicheren KI die Menschen nicht daran, ihre Besorgnis über die Möglichkeit eines möglichen Missbrauchs der leistungsstarken Barrierefreiheitsfunktion durch schlechte Schauspieler und „Scherze“ zu äußern.. Social-Media-Nutzer denken bereits über die verschiedenen Möglichkeiten nach, wie Personal Voice in etwas anderes als eine hilfreiche Funktion verwandelt werden kann:

Kleine Betrügereien, virtuelle Entführungen, betrügerische Sprachnachrichten/-aufzeichnungen, Streiche, die die Grenzen überschreiten
Eines, das besonders hervorsticht (danke). von großen Nachrichtenagenturen diskutiert wird) ist Virtual Kidnapping, bei dem es sich um einen Telefonbetrug handelt das nimmt viele Formen an. Hierbei handelt es sich im Wesentlichen um ein Erpressungsprogramm, das Opfer dazu verleitet, ein Lösegeld zu zahlen, um einen geliebten Menschen zu befreien, von dem sie glauben, dass ihm Gewalt oder der Tod droht. Die Wendung? „Im Gegensatz zu herkömmlichen Entführungen haben virtuelle Entführer niemanden tatsächlich entführt. Stattdessen zwingen sie Opfer durch Täuschungen und Drohungen dazu, ein schnelles Lösegeld zu zahlen, bevor das System scheitert“, sagt das FBI.

Ich empfehle eine faszinierende (aber immer noch unterhaltsame) Episode des Armchair Expert-Podcasts, in der Leute Dax Shepard anrufen, um ihm von der Zeit zu erzählen, als sie betrogen wurden. Die virtuelle Entführungsgeschichte war intensiv, aber sehr aufschlussreich.

Da es sich bei Virtual Kidnapping jedoch normalerweise nicht um eine tatsächliche „Entführung“ handelt, besteht die einzige Möglichkeit, die persönliche Stimme des iPhones auszunutzen, darin, die Bösewichte irgendwie zu töten Zugriff auf Ihr iPhone/Ihre Aufnahmen erhalten haben, was bedeutet, dass Sie zu diesem Zeitpunkt möglicherweise „tatsächlich entführt“ wurden oder dass die Verschlüsselung von Apple fehlgeschlagen ist. Mit anderen Worten, wenn das passieren würde, müssten wir uns um größere Dinge Sorgen machen.

Was ich also sage: Vielleicht sollten wir versuchen, uns auf die positive Seite von Personal Voice und allen anderen KI-und ML-gestützten Barrierefreiheiten zu konzentrieren Funktionen, die Bedürftigen helfen können? Ich würde den Verdacht für später aufheben. In der Zwischenzeit erfahren Sie alles über Apples neue Funktionen für kognitive Barrierefreiheit sowie Live Speech, Personal Voice und Point and Speak in Magnifier über die Blogbeitrag.

Categories: IT Info