Ogni volta che parli di intelligenza artificiale, parli di qualcosa di moralmente grigio e potenzialmente devastante. Il caso è lo stesso con lo strumento Universal Translator di cui Google ha parlato durante Google I/O. L’azienda ha parlato del potenziale vantaggio che questo strumento può portare insieme al potenziale danno (tramite Techcrunch).

Con l’introduzione di Bard, lo strumento che può essere utilizzato per creare codice e scrivere content e MusicLM, lo strumento che può essere utilizzato per generare istantaneamente musica da un prompt di testo, Google ha sicuramente parlato di una tecnologia spaventosa che potrebbe causare gravi danni. Universal Translator non è diverso.

Questa è una tecnologia piuttosto innovativa che può aiutare le persone a tradurre il parlato. La tecnologia prenderà un video di qualcuno che parla e lo doppiarà in una lingua diversa. Ciò comporterà la traduzione del discorso e la riproduzione di una voce generata dall’intelligenza artificiale che corrisponda alla voce e al tono dell’oratore originale. Infine, Google utilizzerà l’intelligenza artificiale per sincronizzare le labbra di chi parla con l’audio appena generato.

Sarà come se l’oratore avesse originariamente registrato il video in una lingua diversa.

Google riconosce che lo strumento Universal Translator può essere utilizzato per danneggiare

L’intelligenza artificiale è, ed è stata, al limite tra utile e pericoloso. L’uso di voci generate dall’intelligenza artificiale e della tecnologia di falsificazione profonda sta strisciando fuori da The Uncanny Valley e in Realism City. Sta diventando sempre più difficile distinguere tra le voci generate dall’intelligenza artificiale e quelle reali.

Ciò significa che ci stiamo avvicinando alla capacità di generare qualsiasi persona che dica o faccia qualcosa. Odi una celebrità? Puoi fare un video falso di loro che dicono cose razziste o antisemite. Sei un ex geloso? Bene, puoi generare falsi video o audio di loro che tradiscono il loro attuale amante. Sta diventando meno impossibile.

Questo è il motivo per cui, durante la presentazione, James Manyika ha notato la frase”Bold and Responsible”. Ciò significa che Google, prima di rendere questa tecnologia disponibile alle masse, farà tutto il possibile per assicurarsi che le persone malintenzionate non possano utilizzare questa tecnologia per atti dannosi.

Il fatto è che è difficile vedere come l’azienda sarà in grado di raggiungere questo obiettivo. C’è solo un Google, ma ci sono milioni di malintenzionati là fuori. Questo potrebbe facilmente sfuggire al controllo e causare danni reali a persone innocenti. Non ci resta che vedere come vanno le cose e sperare che Google sappia cosa sta facendo.

Categories: IT Info