Gebruikers kunnen een persoonlijke stem maken door mee te lezen met een willekeurige reeks tekstprompts om 15 minuten audio op iPhone of iPad op te nemen. Deze functie voor spraaktoegankelijkheid maakt gebruik van machine learning op het apparaat om de informatie van gebruikers privé en veilig te houden, en integreert naadloos met Live Speech, zodat gebruikers met hun persoonlijke stem kunnen spreken wanneer ze contact maken met dierbaren.AppleDat klopt! Na ChatGPT en Google is het nu de beurt aan Apple om zijn tenen in de wereld van geavanceerde AI te steken, en wat een functie om deze reis mee te beginnen heeft Tim Cook & Co bedacht! Met iPads en iPhones met iOS 17 (lancering in september) kun je een digitale versie van je eigen stem maken. Laat dat even bezinken… Als het klinkt alsof Apple je een”deepfake”van je eigen stem laat maken, dan is dat omdat het waar is. Soort van. Maar zo eenvoudig is het niet.
Apple zegt dat je iPhone binnenkort in staat zal zijn om in je stem te spreken met 15 minuten training. Waarom? Dus”gebruikers kunnen spreken met hun persoonlijke stem (de eigenlijke naam van de functie) wanneer ze contact maken met vrienden en familie”. Maar het is niet alleen een feesttruc. Het zou geen verrassing moeten zijn dat Apple de Personal Voice AI-functie benadert vanuit een invalshoek van toegankelijkheid, wat hier het belangrijkste doel zou zijn. Cupertino heeft een solide staat van dienst als het gaat om het inclusiever maken van de iPhone. Deze keer maken velen zich echter ook zorgen over hun privacy en ultieme veiligheid.

AI wordt ongelooflijk krachtig, en hoewel ChatGPT je kan helpen bij het schrijven van een essay, kan Google’s Bard het overnemen als je Gmail-assistent of hulp Als u de beste koelkast voor uw keuken vindt, ligt de ware kracht van AI misschien in het vermogen om met mensen om te gaan en zo deel uit te maken van onze samenleving.

Moeten we ons dus zorgen maken over het feit dat de iPhone binnenkort onze eigen stem kan spreken? Ik denk het niet. Ik ben in ieder geval heel enthousiast!

Eng maar nuttig-iPhones met iOS 17 kunnen in je”Persoonlijke stem”praten; Apple doet op de slimste manier mee aan de geavanceerde AI-race

Ik weet niet hoe het met jou zit, maar ik denk dat Apple heel voorzichtig is met het meedoen aan de AI-race, aangezien toegankelijkheid misschien wel een van de veiligste opties is wanneer het komt om de behoefte aan AI in iPhones en iPads te rationaliseren. Dit betekent echter niet dat Apple een gemakkelijke weg heeft gekozen.

Een AI-functie met de missie om het leven van mensen op een echt zinvolle manier gemakkelijker te maken, is in ieder geval belangrijker dan elke andere AI-truc die al dan niet mogelijk is. ons in de eerste plaats helpen. Bovendien zal het feit dat Apple achter de Personal Voice-functie zit alleen maar de interesse en aandacht voor Personal Voice vergroten van critici en het grote publiek. Maar Apple is comfortabel met aandacht.

Natuurlijk heeft nog niemand de kans gehad om Personal Voice te testen, dus ik zal sterke meningen moeten bewaren voor wanneer de functie wordt uitgebracht (deze wordt eind dit jaar verwacht ). Maar wat we nu kunnen doen, is praten over de positieve aard van de geavanceerde AI die naar de iPhone komt. En wat is een betere manier om een ​​positieve impact te hebben dan mensen te helpen door het leven te komen.

Helaas is het moeilijk om dit soort wereldwijde statistieken te vinden, maar volgens de beschikbare statistieken in de VS ongeveer 18,5 miljoen mensen hebben een spraak-, stem-of taalstoornis, wat duidelijk aantoont dat technologie moet werken voor degenen die er het meeste profijt van kunnen hebben.

Dat is het moment om te vermelden dat Apple, in plaats van nieuwe wegen in te slaan, simpelweg gebruikmaakt van de reeds bestaande wereld van ondersteunende en alternatieve communicatie (AAC). OC-apps zijn ontworpen om niet-sprekende mensen te helpen effectiever te communiceren door het gebruik van symbolen en voorspellende toetsenborden die spraak produceren. Velen die niet in staat zijn om mondeling te spreken, waaronder mensen met ALS, hersenverlamming en autisme, moeten OC-apps gebruiken om te communiceren.

Als je nieuwsgierig bent, Apple heeft een speciaal artikel over AAC en AssistiveWare gepubliceerd (één van de toonaangevende ontwikkelaars op het gebied van OC). AssistiveWare zegt dat het hun missie is om van OC een effectief en geaccepteerd communicatiemiddel te maken. Voorlopig ziet het er niet naar uit dat Apple AssistiveWare wil overnemen.

Oprichter en CEO van AssistiveWare, David Niemeijer, hoopt dat AAC-apps zoals Proloquo2Go net zo algemeen geaccepteerd worden als sms’en. “Als je niet kunt praten, is de veronderstelling nog steeds dat je waarschijnlijk niet veel te zeggen hebt. Die aanname is het grootste probleem. Ik hoop een verschuiving te zien in de richting van respect voor deze technologie, zodat deze de grootste impact kan hebben”, zegt Niemeijer. Houd er rekening mee dat hoewel sommige OC-apps gratis zijn, de Premium-versie van Proloquo2Go momenteel $ 250 kost om te downloaden uit de App Store.

Apple’s Personal Voice-een baanbrekende functie die smartphones slim en ons leven gemakkelijker maken?

Ik geloof dat dit het een beetje duidelijker maakt waarom Apple’s werk om de iPhone en iPad toegankelijker te maken het belangrijkste gespreksonderwerp zou moeten zijn van een functie als Personal Voice. In een wereld van TikTok-video’s en Instagram-verhalen herinneren toegankelijkheid en Quality of Life (QoL)-functies zoals Personal Voice eraan dat smartphones kunnen (en zouden moeten) bestaan ​​om ons leven gemakkelijker te maken.

Zoals David Niemeijer, CEO van AssistiveWare, zegt: iPhones/smartphones zijn de”coole”apparaten die iedereen gebruikt, en dit heeft al een groot verschil gemaakt in de acceptatie van OC-apps, die op dezelfde alomtegenwoordige apparaten bestaan ​​in plaats van een”gespecialiseerd”stuk hardware dat er”anders”uitziet.

Dus het feit dat de persoonlijke stem van Apple rechtstreeks op de iPhone zal werken, zelfs zonder dat er speciale software nodig is, zou het gebruik van dit (hopelijk) baanbrekende stuk AI veel toegankelijker en”normaal”maken.

Later dit jaar kunnen gebruikers met cognitieve beperkingen iPhone en iPad gemakkelijker en onafhankelijker gebruiken met Assistive Access; niet-sprekende personen kunnen typen om te spreken tijdens gesprekken en gesprekken met Live Speech; en degenen die het risico lopen hun spraakvermogen te verliezen, kunnen Personal Voice gebruiken om een ​​gesynthetiseerde stem te creëren die klinkt zoals zij, om contact te maken met familie en vrienden.

Voor gebruikers die het risico lopen hun spraakvermogen te verliezen, zoals mensen met een recente diagnose van ALS (amyotrofische laterale sclerose) of andere aandoeningen die het spreekvermogen progressief kunnen beïnvloeden-Personal Voice is een eenvoudige en veilige manier om een ​​stem te creëren die klinkt zoals zij.

Personal Voice kan dat zijn de nieuwe, verbeterde en supercharged versie van Siri-kan de meest ambitieuze toegankelijkheidsfunctie van Apple veranderen in de ultieme Google Assistent-concurrent?

Wat als Personal Voice de hint van Apple is dat Siri binnenkort zijn grootste upgrade krijgt ooit?

Nu dat gezegd zijnde, kan ik als”technisch persoon”gewoon niet anders dan kijken naar het uitgebreide potentieel van Personal Voice. En laat me uitleggen wat ik daarmee bedoel…

Siri is al jaren verschillende soorten slecht, met de Google Assistent die op zowat alle mogelijke manieren rondjes rond de robot van Apple draait. Maar wat als Personal Voice nog maar het begin is van de overgang van de iPhone naar de ultieme AI-telefoon voor spraakherkenning? Deze eer behoort momenteel toe aan de Google Pixel, die (dankzij de Tensor-chip van Google) spraak beter kan begrijpen, opnemen en transcriberen dan elke andere telefoon op de markt.

Zo te zien wordt Personal Voice in wezen een een tekst-naar-spraak-engine, die in een aantal verschillende scenario’s nuttig kan zijn. Ik zou graag zien dat een functie als Personal Voice wordt uitgebreid naar andere iPhone-en iPad-apps zoals spraakmemo’s en notities. Ik zeg dat, omdat het bijna onmogelijk is om een ​​goede tekst-naar-spraak-software te vinden die zowel gratis als natuurlijk klinkt.

Het is duidelijk dat de iPhone binnenkort in staat zal zijn om met jouw stem te spreken, maar ik verwacht dat de Personal Voice-functie bepaalde beperkingen met zich meebrengt. Maar wat als uw iPhone u vrijelijk dingen kan voorlezen met uw eigen stem, of een andere natuurlijk klinkende stem, met de juiste intonatie? Dit zou nuttig zijn voor studenten die zich voorbereiden op een examen. Podcasters die een hekel hebben aan het lezen van saaie advertenties. Komieken die een comedyset uit hun hoofd proberen te leren. Acteurs die een script proberen te leren. geweldig gebruik van een bredere implementatie van een functie als Personal Voice. De bovengenoemde voorbeelden zien er misschien grappig uit, gezien de huidige missie van Personal Voice, maar ik geloof echt dat dit nog maar het begin is van de AI-transformatie van Apple.

Ik overdrijf, maar ik vraag me ook af of Personal Voice de begin van iets dat nog groter en veel controversiëler is. Zoals het idee van de Metaverse en hoe Voice banking ons”onsterfelijk”kan maken. Voice banking is een proces waarmee iemand een synthetische stem kan creëren die idealiter klinkt als zijn natuurlijke stem. Dit wordt bereikt door een groot aantal berichten op te nemen wanneer uw stem duidelijk is.

Dus, wat als uw stem voor altijd kan worden bewaard en/of kan worden gecombineerd met een virtueel beeld van u, dat na u kan blijven staan? opnieuw”weg”weg? Als dit je fascinerend in de oren klinkt, raad ik je aan om naar een briljante show genaamd”Upload”te kijken. Het is een scifi-komediedrama waarin het idee wordt onderzocht dat mensen zichzelf kunnen’uploaden’naar een virtueel hiernamaals naar keuze in het jaar 2033. Dat is nog maar tien jaar vanaf nu, mensen!

iPhone en iPad kunnen met uw stem spreken: opent Apple de deur voor oplichters? Er ontstaan ​​zorgen over virtuele ontvoeringen en deepfakes

We geloven in een wereld waarin iedereen de kracht heeft om verbinding te maken en te communiceren. Om hun passies na te jagen en nieuwe te ontdekken. Op Global Accessibility Awareness Day (19 mei) vieren we inclusieve technologie die voor iedereen werkt.

Tim Cook

Nu, over de controversiële kanten van Apple’s Personal Voice…

De belangrijkste zorgen over de nieuwe Personal Voice-functie hebben natuurlijk te maken met beveiliging. Mensen (inclusief de reguliere nieuwsmedia) stellen vragen, waaraan we gewend zijn geraakt te zien bij de lancering van elk nieuwe softwarefunctie waarbij persoonlijke gegevens worden verzameld. Deze keer hebben we het echter niet over foto’s van je lunch of je dronken sms’jes. Van iPhone en iPad wordt verwacht dat ze je stem opnemen, vasthouden en repliceren, wat (natuurlijk) elke bezorgdheid over privacy en veiligheid versterkt. Natuurlijk belooft Apple dat Personal Voice een”eenvoudige en veilige manier is om een ​​stem te creëren die klinkt zoals jij”, wat me doet veronderstellen dat alle Personal Voice-acties worden gecodeerd en rechtstreeks (en alleen) op je iPhone plaatsvinden./iPad (of beter gezegd op hun SoC).

Toch weerhoudt de belofte van Apple voor eenvoudige en veilige AI mensen er niet van om hun zorgen te uiten over de mogelijkheid van mogelijk misbruik van de krachtige toegankelijkheidsfunctie door slechte acteurs en”grappenmakers”.. Gebruikers van sociale media denken al aan de verschillende manieren waarop Personal Voice kan worden omgezet in iets anders dan een handige functie:

Kleine zwendelVirtuele ontvoeringMisleidende spraakberichten/-opnamenGrappen die de grenzen overschrijden
Eentje die in het bijzonder opvalt (bedankt wordt besproken door grote nieuwskanalen) is virtuele ontvoering, wat een telefonische zwendel is dat neemt vele vormen aan. Dit is in wezen een afpersingsplan dat slachtoffers verleidt tot het betalen van losgeld om een ​​geliefde te bevrijden waarvan zij denken dat deze wordt bedreigd met geweld of de dood. De twist? “In tegenstelling tot traditionele ontvoeringen hebben virtuele ontvoerders niemand ontvoerd. In plaats daarvan dwingen ze slachtoffers door middel van bedrog en bedreiging snel losgeld te betalen voordat het plan in duigen valt”, zegt de FBI.

Ik raad een fascinerende (maar nog steeds leuke) aflevering van de Armchair Expert-podcast aan, waarin mensen Dax Shepard bellen om hem te vertellen over de tijd dat ze werden opgelicht. Het virtuele ontvoeringsverhaal was intens maar zeer verhelderend.

Aangezien virtuele ontvoering meestal geen daadwerkelijke”ontvoering”inhoudt, is de enige optie om te profiteren van de persoonlijke stem van de iPhone, als de slechteriken op de een of andere manier toegang heeft verkregen tot uw iPhone/opnamen, wat betekent dat u op dit moment mogelijk”daadwerkelijk ontvoerd”bent, of dat de versleuteling van Apple is mislukt. Met andere woorden, als dat is gebeurd, zouden er grotere dingen zijn om ons zorgen over te maken.

Dus, wat ik zeg is… Misschien moeten we proberen ons te concentreren op de positieve kant van Personal Voice en alle andere door AI en ML aangedreven toegankelijkheid functies die mensen in nood kunnen helpen? Ik zou de verdenking voor later bewaren. Ondertussen kun je alles te weten komen over de nieuwe functies van Apple voor cognitieve toegankelijkheid, samen met Live Speech, Personal Voice en Point and Speak in Magnifier via de blogbericht.

Categories: IT Info