La battaglia dell’intelligenza artificiale ha portato alla nascita del chatbot Bard AI di Google, un rivale del chatbot Bing ChatGPT. Ma alcuni dipendenti di Google non pensano molto a Bard come vogliono i loro datori di lavoro, a quanto pare. Quale può essere esattamente il motivo dietro il rifiuto che Bard sta ricevendo dalla sua gente?
Beh, molti potrebbero obiettare che i rapporti citano solo una piccola parte dei lavoratori di Google. Alcune persone che compongono questo elenco di coloro che prendono a calci Bard sono ex dipendenti di Google. Ma indipendentemente dalle dimensioni dell’opposizione, è saggio tenere conto del motivo della loro avversione.
Si riduce alle capacità del chatbot Bard AI quando viene utilizzato dalle persone. I problemi delineati riguardano anche il più grande rivale di Bard, il chatbot AI di Bing. Abbastanza divertente, lo staff di Google ha etichettato questa piattaforma AI come”peggio che inutile”. Sembra un po’troppo severo detto dai Googler, attirando quindi maggiore attenzione sulla performance di Bard.
Le risposte fuorvianti del chatbot Bard AI di Google lo hanno sottoposto a un attento esame da parte dei suoi creatori
Negli ultimi mesi, Microsoft ha fatto notizia come risultato della sua integrazione di ChatGPT nel suo browser. Ciò ha portato il chatbot AI in Bing e Skype, ma gli utenti sono stati in grado di individuare alcuni difetti. Questi difetti derivano dal fatto che il chatbot AI di Bing non conosce i limiti di una conversazione, minacciando gli utenti e falsificando le informazioni.
Poco dopo che Microsoft ha annunciato l’integrazione di ChatGPT in Bing, Google si stava già preparando ad annunciare il chatbot Bard AI. Bene, sembra che i dipendenti di Google stiano sottolineando evidenti difetti nel chatbot AI, dopo il suo arrivo.
Questi difetti sono abbastanza simili a quelli che sono venuti alla luce con il chatbot ChatGPT. Bard ora fornisce informazioni false agli utenti e fornisce consigli pericolosi, minacciando quindi la sicurezza degli utenti. La fretta di Google potrebbe essere la causa principale di questi problemi che i loro dipendenti stanno sottolineando nell’utilizzo di Bard.
I rapporti suggeriscono che il team di sicurezza interno aveva consigliato di non avviare il chatbot. Invece, questi difetti devono essere corretti per favorire il lancio di un prodotto più stabile e di facile utilizzo. Ora, Google dovrà concentrarsi sulla risoluzione di questi problemi per garantire che coloro che utilizzano questo prodotto siano in grado di ottenere risposte sicure e accurate per le loro ricerche.
Proprio come il chatbot Bing AI di Microsoft, Bard viene fornito con alcuni difetti. Molti potrebbero obiettare che è normale per qualsiasi nuovo prodotto AI, ma tali problemi stanno spingendo alcuni paesi a vietare i chatbot AI. L’industria dei chatbot di intelligenza artificiale deve essere perfezionata prima di poter essere considerata sicura per l’uso dalla maggioranza.