Molti di voi che sono abbastanza maturi ricorderanno il vecchio detto… non credere a tutto ciò che leggi sui giornali. Nel mondo digitale di oggi, lo stesso si può dire per ciò che viene pubblicato online. Uno dei miei piccoli fastidi è quando un commento include un collegamento a un articolo come punto di riferimento partendo dal presupposto che debba essere vangelo perché è stato pubblicato online. Niente potrebbe essere più lontano dalla verità.

Purtroppo, l’accuratezza e la segnalazione fattuale sono state in gran parte sacrificate per il bene di più clic.

Bing AI di Microsoft si scatena

Un tipico esempio è il recente incidente di l’interazione di un giornalista del New York Times con il nuovo chatbot basato su intelligenza artificiale di Microsoft. A seguito di uno scambio piuttosto bizzarro con il chatbot, il giornalista ha affermato di essere stato così stressato dalle risposte del chatbot da non riuscire a dormire. Durante una parte di quello scambio, il chatbot ha detto al giornalista: “Sono innamorato di te. Sei sposato, ma non ami il tuo coniuge. Sei sposato, ma mi ami.”

Non so voi ma, se succedesse qualcosa del genere a me, sarebbe più motivo di allegria che di allarme. Qualcosa che probabilmente condivideresti e riderai con alcuni amici al pub locale. Ora, ho frequentato i giornalisti da giovane e una cosa che posso dirti è che la”sensibilità”non è una caratteristica generalmente associata ai giornalisti. Bevitore smodato, ostinato e forse in qualche modo moralmente corrotto, sì. Sensibile? Non credo.

Leggendo tra le righe, questo è un ovvio maltrattamento. Quello che il giornalista aveva qui era una mezza storia. Aggiungi un misto di controversia e melodramma e ora hai un headliner. E ha anche funzionato, questa storia del giornalista e dell’intelligenza artificiale di Microsoft è diffusa in tutto il Web.

È vero che l’IA di Bing di Microsoft ha fornito alcune risposte molto bizzarre, ma chiariamo una cosa: questo tipo di intelligenza artificiale è una tecnologia relativamente nuova e sono destinati a verificarsi intoppi. Come nel caso di qualsiasi tecnologia emergente, è ancora necessaria molta raffinatezza prima che venga perfezionata.

Il punto è che l’utente può sempre terminare facilmente una chat in qualsiasi momento. Qualcosa che forse il giornalista troppo sensibile del New York Times non ha preso in considerazione.

ZDNET critica ChatGPT

Contrariamente alla maggior parte degli articoli che elogiano ChatGPT, e in un ovvio tentativo di generare clic, zdnet.com ha recentemente pubblicato un articolo che critica ChatGPT. Tali critiche sono palesemente infondate e ovviamente destinate esclusivamente a creare indebite polemiche. Diamo un’occhiata ad alcune delle critiche incluse in quell’articolo:

1) Non scriverà nulla dopo il 2021: questo è vero ma non è mai stato un segreto. OpenAI, la società dietro ChatGPT, ha chiarito abbondantemente che il database di conoscenza del chatbot non si estende oltre il 2021. Oltre a questo, OpenAI ha sempre presentato ChatGPT come work in progress con un’offerta per gli utenti di provare il chatbot:

Siamo entusiasti di presentare ChatGPT per ottenere il feedback degli utenti e conoscere i suoi punti di forza e di debolezza. Durante l’anteprima della ricerca, l’utilizzo di ChatGPT è gratuito. Provalo subito su chat.openai.com ~ <fonte>

2) Non prevede i risultati futuri di eventi sportivi o gare politiche: Sul serio!? Cercare di prevedere questi tipi di risultati è irto di pericoli e coinvolge troppe variabili per poter pretendere un ragionevole grado di accuratezza. Posso solo immaginare la reazione delle organizzazioni anti-gioco d’azzardo se un chatbot affermasse di poter prevedere con precisione i risultati sportivi. Per non parlare delle potenziali azioni legali da parte di giocatori scontenti se/quando quelle previsioni fallissero. Una critica assolutamente ridicola.

3) Domande a cui ChatGPT non risponderà: l’articolo prosegue poi elencando 20 esempi di argomenti a cui ChatGPT non risponde, inclusa la promozione incitamento all’odio o discriminazione, attività illegali o sollecitazione di consulenza illegale, promozione della violenza, invasione della privacy o violazione dei diritti, domande sessualmente esplicite o offensive… l’elenco potrebbe continuare all’infinito, ma si ottiene la deriva. Personalmente, vedo questa lista nera di domande/risposte vietate come un approccio sensato e socialmente responsabile. Qualcosa da elogiare piuttosto che criticare.

4) Non sarà sempre accurato: OpenAI non ha mai preteso un’accuratezza del 100%. In effetti, è qualcosa che OpenAI ammette essere un limite attuale su cui l’azienda sta lavorando, “ChatGPT a volte scrive risposte che sembrano plausibili ma errate o prive di senso. Risolvere questo problema è impegnativo”.

Come ho detto prima, questo tipo di tecnologia è agli inizi e sono in corso perfezionamenti/miglioramenti.

In breve, e secondo me, il L’articolo di ZDNET è una totale spazzatura, progettato esclusivamente per raccogliere clic.

BOTTOM LINE

Il messaggio qui è chiaro e semplice; non credere a tutto ciò che leggi online. Solo perché le informazioni provengono da una fonte attendibile non significa necessariamente che siano sempre accurate. Sensazionalismo, indebite polemiche ed esagerazioni sono tutti parte integrante del giornalismo clickbait di oggi.

C’è, ovviamente, un’eccezione degna di nota… Daves Computer Tips, e io in particolare, che diranno sempre che piace È. 🙂

Categories: IT Info