Gli utenti possono creare una voce personale leggendo insieme a una serie casuale di istruzioni di testo per registrare 15 minuti di audio su iPhone o iPad. Questa funzione di accessibilità vocale utilizza l’apprendimento automatico sul dispositivo per mantenere le informazioni degli utenti private e sicure e si integra perfettamente con Live Speech in modo che gli utenti possano parlare con la loro voce personale quando si connettono con i propri cari. Apple Esatto! Dopo ChatGPT e Google, ora tocca ad Apple immergere le dita dei piedi nel mondo dell’intelligenza artificiale avanzata e con quale funzionalità per iniziare questo viaggio Tim Cook & Co ha escogitato! iPad e iPhone con iOS 17 (lanciato a settembre) ti permetteranno di creare una versione digitale della tua voce. Lascia che affondi per un momento… Se sembra che Apple ti permetta di creare un”deepfake”della tua stessa voce, è perché è vero. Una specie di. Ma non è così semplice.
Apple afferma che il tuo iPhone sarà presto in grado di parlare con la tua voce con 15 minuti di allenamento. Perché? Quindi”gli utenti possono parlare con la loro voce personale (il vero nome della funzione) quando si connettono con amici e familiari”. Ma non è solo un trucco da festa. Non dovrebbe sorprendere che Apple si stia avvicinando alla funzione Personal Voice AI da un punto di vista dell’accessibilità, che si dice sia l’obiettivo chiave qui. Cupertino ha una solida esperienza nell’andare ben oltre per rendere l’iPhone più inclusivo. Tuttavia, questa volta, molti si preoccupano anche della loro privacy e della massima sicurezza.
L’intelligenza artificiale sta diventando incredibilmente potente e mentre ChatGPT può aiutarti a scrivere un saggio e Bard di Google può assumere il ruolo di assistente Gmail o aiutarti trovi il miglior frigorifero per la tua cucina, il vero potere dell’intelligenza artificiale potrebbe risiedere nella sua capacità di interagire con gli esseri umani, diventando così parte della nostra società.
Quindi, dovremmo essere spaventati dal fatto che l’iPhone sarà presto in grado di parlare con la nostra stessa voce? Non credo. Semmai, sono piuttosto entusiasta!
Spaventoso ma utile: gli iPhone con iOS 17 saranno in grado di parlare con la tua”voce personale”; Apple entra nella corsa all’IA avanzata nel modo più intelligente possibile
Non so voi, ma penso che Apple sia molto attenta a entrare nella corsa all’IA, poiché l’accessibilità potrebbe essere una delle opzioni più sicure quando arriva a razionalizzare la necessità di AI in iPhone e iPad. Tuttavia, questo non significa che Apple abbia scelto una strada facile.
Semmai, una funzione AI con la missione di rendere la vita delle persone più facile in un modo veramente significativo è più importante di qualsiasi altro trucco AI che potrebbe o meno aiutarci in primo luogo. Inoltre, il fatto che Apple sia dietro la funzione Personal Voice non farà che amplificare il livello di interesse e controllo intorno a Personal Voice da parte della critica e del pubblico in generale. Ma Apple è a suo agio con l’attenzione.
Ovviamente, nessuno ha ancora avuto la possibilità di testare Personal Voice, quindi dovrò riservare opinioni forti per quando la funzione verrà rilasciata (è prevista per la fine di quest’anno ). Ma quello che possiamo fare adesso è parlare della natura positiva dell’IA avanzata in arrivo su iPhone. E quale modo migliore per avere un impatto positivo se non aiutare le persone a superare la vita.
Sfortunatamente, è difficile trovare statistiche globali di questo tipo, ma secondo quelle disponibili negli Stati Uniti, circa 18,5 milioni di persone hanno un disturbo del linguaggio, della voce o del linguaggio, il che dimostra l’evidente necessità di far funzionare la tecnologia per coloro che potrebbero trarne il massimo vantaggio.
Questo è il momento di menzionare che, invece di aprire nuovi orizzonti, Apple sta semplicemente attingendo al mondo già esistente della Comunicazione Aumentativa e Alternativa (CAA). Le app di CAA sono progettate per aiutare le persone non parlanti a comunicare in modo più efficace attraverso l’uso di simboli e tastiere predittive che producono parole. Molti di coloro che non sono in grado di produrre discorsi orali, compresi quelli con SLA, paralisi cerebrale e autismo, devono utilizzare le app di CAA per comunicare.
Se sei curioso, Apple ha pubblicato un articolo dedicato su AAC e AssistiveWare (uno dei principali sviluppatori nel campo della CAA). AssistiveWare afferma che la loro missione è rendere la CAA un mezzo di comunicazione efficace e accettato. Per ora, non sembra che Apple stia cercando di acquisire AssistiveWare.
Il fondatore e CEO di AssistiveWare, David Niemeijer, spera che le app di CAA come Proloquo2Go diventino ampiamente accettate come gli SMS. “Se non puoi parlare, il presupposto è ancora che probabilmente non hai molto da dire. Questa ipotesi è il problema più grande. Spero di assistere a uno spostamento verso il rispetto di questa tecnologia in modo che possa avere il massimo impatto”, afferma Niemeijer. Tieni presente che mentre alcune app AAC sono gratuite, la versione Premium di Proloquo2Go attualmente costa $ 250 per il download dall’App Store.
Voce personale di Apple: una funzionalità rivoluzionaria che rende gli smartphone intelligenti e le nostre vite sono più facili?
Credo che questo renda un po’più chiaro il motivo per cui il lavoro di Apple per rendere l’iPhone e l’iPad più accessibili dovrebbe essere il principale punto di discussione di una funzionalità come Personal Voice. In un mondo di video TikTok e storie di Instagram, l’accessibilità e le funzionalità di qualità della vita (QoL) come Personal Voice ci ricordano che gli smartphone possono (e dovrebbero) esistere per semplificarci la vita.
Come afferma il CEO di AssistiveWare, David Niemeijer, gli iPhone/gli smartphone sono i dispositivi”cool”che tutti usano, e questo ha già fatto una grande differenza nell’accettabilità delle app di CAA, che esistono sugli stessi dispositivi onnipresenti invece di un componente hardware”specializzato”che sembra”diverso”.
Quindi, il fatto che la voce personale di Apple vivrà direttamente su iPhone, anche senza la necessità di alcun software speciale, renderebbe l’utilizzo di questo pezzo di intelligenza artificiale (si spera) rivoluzionario molto più accessibile e”normale”.
In arrivo entro la fine dell’anno, gli utenti con disabilità cognitive potranno utilizzare iPhone e iPad con maggiore facilità e indipendenza con l’accesso assistito; le persone non parlanti possono digitare per parlare durante le chiamate e le conversazioni con Live Speech; e coloro che rischiano di perdere la capacità di parlare possono utilizzare Personal Voice per creare una voce sintetizzata che suona come loro per connettersi con la famiglia e gli amici.
Per gli utenti che rischiano di perdere la capacità di parlare, ad esempio persone con una diagnosi recente di SLA (sclerosi laterale amiotrofica) o altre condizioni che possono influire progressivamente sulla capacità di parlare: Personal Voice è un modo semplice e sicuro per creare una voce che suoni come loro.
La voce personale potrebbe essere la versione nuova, migliorata e potenziata di Siri: la funzione di accessibilità più ambiziosa di Apple può trasformarsi nel concorrente definitivo dell’Assistente Google?
E se Personal Voice fosse il suggerimento di Apple che Siri riceverà presto il suo più grande aggiornamento mai?
Detto tutto ciò, in qualità di”persona tecnologica”, semplicemente non posso fare a meno di guardare al potenziale esteso di Personal Voice. E lasciami spiegare cosa intendo con questo…
Siri è stato diverso per anni ormai, con l’Assistente Google che girava intorno al robot di Apple in quasi tutti i modi possibili. Ma cosa succederebbe se Personal Voice fosse solo l’inizio della transizione dell’iPhone per diventare l’ultimo telefono con riconoscimento vocale AI? Questo onore appartiene attualmente a Google Pixel, che (grazie al chip Tensor di Google) è in grado di comprendere, registrare e trascrivere il parlato meglio di qualsiasi altro telefono sul mercato.
A quanto pare Personal Voice si preannuncia essenzialmente come un motore di sintesi vocale, che può essere utile in una serie di scenari diversi. Mi piacerebbe vedere una funzionalità come Personal Voice espandersi ad altre app per iPhone e iPad come memo vocali e note. Lo dico perché trovare un buon software di sintesi vocale che sia gratuito e dal suono naturale è quasi impossibile.
Chiaramente, presto l’iPhone sarà in grado di parlare con la tua voce, ma io aspettarsi che la funzione Voce personale abbia alcune limitazioni. Tuttavia, cosa succede se il tuo iPhone può leggerti liberamente le cose con la tua stessa voce o un’altra voce dal suono naturale, con un’intonazione corretta? Questo sarebbe utile aStudente che si prepara per un esamePodcaster che odia leggere annunci noiosiComici che cercano di memorizzare un set comicoAttori che cercano di imparare una sceneggiatura
Lo so… La mia immaginazione è un po’selvaggia qui, ma penso davvero che gli artisti e il pubblico in generale possano fare grande uso di un’implementazione più ampia di una funzionalità come Personal Voice. Gli esempi di cui sopra potrebbero sembrare divertenti, considerando l’attuale missione di Personal Voice, ma credo davvero che questo sia solo l’inizio della trasformazione dell’IA di Apple.
Sto esagerando, ma mi chiedo anche se Personal Voice potrebbe essere il l’inizio di qualcosa di ancora più grande e molto più controverso. Come l’idea del Metaverso e come il Voice banking possa renderci “immortali”. Il voice banking è un processo che consente a qualcuno di creare una voce sintetica che idealmente suoni come la propria voce naturale. Si ottiene registrando un gran numero di messaggi quando la tua voce è chiara.
Quindi, cosa succede se la tua voce può essere conservata per sempre e/o combinata con un’immagine virtuale di te, che può rimanere dopo che sei”andato”andato? Se questo ti sembra affascinante, ti consiglio di guardare uno spettacolo brillante chiamato”Carica”. È una commedia drammatica fantascientifica che esplora l’idea che gli esseri umani possano”caricarsi”in un aldilà virtuale di loro scelta nell’anno 2033. Mancano solo dieci anni, gente!
iPhone e iPad potranno parlare con la tua voce: Apple sta aprendo la porta ai truffatori? Sorgono preoccupazioni per rapimenti virtuali e deepfake
Noi credere in un mondo in cui tutti hanno il potere di connettersi e comunicare. Per inseguire le proprie passioni e scoprirne di nuove. In occasione del Global Accessibility Awareness Day (19 maggio), celebriamo la tecnologia inclusiva che funziona per tutti.
Tim Cook
Ora, sui lati controversi della voce personale di Apple…
Naturalmente, le principali preoccupazioni sulla nuova funzione Personal Voice sono legate alla sicurezza. Le persone (inclusi i media mainstream) fanno domande, che ci siamo abituati a vedere al lancio di qualsiasi nuova funzionalità del software che comporta la raccolta di dati personali. Tuttavia, questa volta, non stiamo parlando di foto del tuo pranzo o dei tuoi messaggi ubriachi. iPhone e iPad dovrebbero registrare, conservare e replicare la tua voce, il che (naturalmente) amplifica qualsiasi preoccupazione per la privacy e la sicurezza. Ovviamente, Apple promette che Personal Voice sarà un”modo semplice e sicuro per creare una voce che suoni come te”, il che mi porta a presumere che tutte le azioni di Personal Voice saranno crittografate, che si svolgeranno direttamente (e solo) sul tuo iPhone/iPad (o meglio sul loro SoC).
Tuttavia, la promessa di Apple per un’intelligenza artificiale semplice e sicura non impedisce alle persone di esprimere le loro preoccupazioni sulla possibilità di un potenziale abuso della potente funzione di accessibilità da parte di malintenzionati e”burloni”.. Gli utenti dei social media stanno già pensando ai vari modi in cui Personal Voice può essere trasformato in qualcosa di diverso da una funzionalità utile:
Piccole truffeRapimento virtualeMessaggi/registrazioni vocali ingannevoliScherzi che superano i limiti
Uno che si distingue in particolare (grazie ad essere discusso dalle grandi testate giornalistiche) è Rapimento virtuale, che è una truffa telefonica che assume molte forme. Questo è essenzialmente uno schema di estorsione che induce le vittime a pagare un riscatto per liberare una persona cara che credono sia minacciata di violenza o morte. La svolta? “A differenza dei rapimenti tradizionali, i rapitori virtuali non hanno effettivamente rapito nessuno. Invece, attraverso inganni e minacce, costringono le vittime a pagare un rapido riscatto prima che il piano vada in pezzi”, afferma il FBI.
Consiglio un episodio affascinante (ma comunque divertente) del podcast Armchair Expert, in cui le persone chiamano Dax Shepard per raccontargli di quando sono stati truffati. La storia del rapimento virtuale è stata intensa ma molto perspicace.
Tuttavia, poiché il rapimento virtuale di solito non comporta un vero e proprio”rapimento”, l’unica opzione per sfruttare la voce personale dell’iPhone è se i cattivi in qualche modo ha ottenuto l’accesso al tuo iPhone/alle tue registrazioni, il che significa che a questo punto potresti essere”effettivamente rapito”o che la crittografia di Apple non è riuscita. In altre parole, se ciò accadesse, ci sarebbero cose più importanti di cui preoccuparsi.
Quindi, quello che dico è… Forse dovremmo cercare di concentrarci sul lato positivo di Personal Voice e di tutte le altre accessibilità basate su IA e ML caratteristiche, che possono aiutare chi ne ha bisogno? Lascerei il sospetto per dopo. Nel frattempo, puoi scoprire tutto sulle nuove funzionalità di Apple per l’accessibilità cognitiva, insieme a Live Speech, Personal Voice e Point and Speak in Magnifier tramite post del blog.