C’era una volta, come due anni fa nel 2021, Alphabet Inc., la società madre di Google LLC, ha promesso di studiare l’etica dell’IA. Ebbene, in Google esisteva già un gruppo dedicato all’etica relativa all’intelligenza artificiale e si sono dilettati a fornire feedback su quanto moralmente fossero corretti i prodotti dell’azienda.
Quindi, prima del marzo 2023, che segna il rilascio di Bard a un gruppo o individui chiusi, il”comitato”etico ha lavorato sodo per convincere Google che Bard non era esattamente pronto per un’implementazione anche limitata.
Nonostante ciò, tuttavia, la società ha proceduto come previsto e ha rilasciato Bard, apparentemente con l’unico scopo di avere un concorrente esistente di ChatGPT e OpenAI di Microsoft. Questo, a sua volta, ha lasciato il gruppo etico demoralizzato e nel caos, poiché numerosi attori chiave hanno lasciato Google poco dopo.
Google ha forse rinunciato all’etica solo per rilasciare Bard in anticipo?
Bard può fare molto di più che chiacchierare e fornire informazioni. Composizione, codifica e rendering delle immagini sono tra i suoi numerosi talenti.
Bloomberg riferisce che Google ha apparentemente fornito a Bard informazioni di bassa qualità solo per poterle svelare in anticipo. Queste informazioni sono supportate da alcuni documenti aziendali interni esaminati, ma non specificati, e dalle parole di membri del gruppo etico esistenti ed ex. Afferma che l’etica è ancora una priorità assoluta per quanto riguarda Bard e l’IA in generale. E questo ha senso, dato che Google ha esitato per anni a dilettarsi con l’intelligenza artificiale, proprio a causa dei dilemmi morali.
Tuttavia, a quanto pare ci sono volute le condizioni dell’aumento della concorrenza perché l’azienda cambiasse la sua posizione generale sul modo. ChatGPT e OneAI — e qualsiasi altra IA del resto — non esisterebbero senza la ricerca di Google, quindi è sbagliato desiderare un pezzo della deliziosa torta, se ne coltivi gli ingredienti?
Google Bard: bugiardo patologico o studente veloce?
Ora immagina un Pixel X Pro con tantissime funzionalità esclusive, basato su Bard. Non è un prodotto?
E Google crede fermamente che tutti i controlli di sicurezza siano stati messi in atto, prima di rilasciare Bard… come esperimento e non come prodotto. Questa etichetta è una forma di prevenzione dei rischi? E se lo è, com’è possibile che ci aspettiamo numerose funzionalità per servizi come Documenti, Presentazioni, Gmail e YouTube-che sono effettivamente prodotti autonomi-alimentati da tale esperimento? È etico?
Il gruppo etico di Google ha una risposta ed è un’esitazione. L’esitazione a parlare e discutere, perché secondo quanto riferito ricevono un”Stai solo cercando di rallentare il processo”in risposta. L’etica è passata in secondo piano rispetto alle iniziative imprenditoriali? Cibo per la mente.
Prima di rilasciare Bard a marzo, Google ha concesso l’accesso all’IA internamente ai propri dipendenti per raccogliere feedback. Ecco alcuni frammenti di ciò che i dipendenti di Google avevano da dire su Bard: Bugiardo patologico Degno di rabbia Consigli forniti che sarebbero finiti in un disastro”… peggio che inutile: per favore non lanciare”
Google ha comunque lanciato Bard. Ma qui c’è una prospettiva diversa: l’accesso limitato, ma comunque pubblico, è un’opportunità per Bard di imparare e correggersi. Dopotutto, Google è prolifico in termini di algoritmi, quindi è inverosimile immaginare una realtà in cui tutto questo fa parte di un piano reale per far imparare e crescere Bard, proprio come aveva fatto ChatGPT in passato?
Ancora: spunti di riflessione.