A batalha da inteligência artificial levou ao nascimento do chatbot Bard AI do Google, um rival do chatbot Bing ChatGPT. Mas alguns funcionários do Google não pensam muito em Bard como seus empregadores querem que você pense, ao que parece. Qual pode ser exatamente a razão por trás da rejeição que Bard está recebendo de seu pessoal?

Bem, muitos podem argumentar que os relatórios citam apenas uma soma insignificante de funcionários do Google. Algumas pessoas que compõem esta lista de quem chuta contra Bard são ex-funcionários do Google. Mas, independentemente do tamanho da oposição, é prudente levar em consideração o motivo de sua aversão.

Tudo se resume às habilidades do chatbot Bard AI quando colocado em uso pelas pessoas. Os problemas descritos também são o caso do maior rival da Bard, o chatbot Bing AI. Engraçado, a equipe do Google rotulou essa plataforma de IA como “pior do que inútil”. Isso parece um pouco duro vindo dos Googlers, chamando mais atenção para o desempenho de Bard.

As respostas enganosas do chatbot Bard AI do Google o colocam sob intenso escrutínio de seus fabricantes

Nos últimos meses, a Microsoft ganhou as manchetes como resultado da integração do ChatGPT em seu navegador. Isso trouxe o AI chatbot para o Bing e o Skype, mas os usuários conseguiram identificar algumas falhas. Essas falhas ocorrem porque o chatbot Bing AI não conhece os limites de uma conversa, ameaça usuários e falsifica informações.

Pouco depois que a Microsoft anunciou a integração do ChatGPT ao Bing, o Google já se preparava para anunciar o chatbot Bard AI. Bem, parece que os funcionários do Google estão apontando falhas perceptíveis no chatbot de IA, após sua chegada.

Essas falhas são bastante semelhantes àquelas que se destacaram com o chatbot ChatGPT. A Bard agora fornece informações falsas aos usuários e dá conselhos perigosos, ameaçando assim a segurança do usuário. A pressa do Google pode ser a principal causa desses problemas que seus funcionários estão apontando no uso de Bard.

Relatórios dizem que a equipe de segurança interna havia aconselhado que o chatbot não fosse iniciado. Em vez disso, essas falhas serão corrigidas para promover o lançamento de um produto mais estável e fácil de usar. Agora, o Google terá que se concentrar em corrigir esses problemas para garantir que aqueles que usam este produto possam obter respostas seguras e precisas para suas pesquisas.

Assim como o chatbot Bing AI da Microsoft, o Bard vem com algumas falhas. Muitos podem argumentar que isso é normal para qualquer novo produto de IA, mas essas questões estão levando alguns países a banir os chatbots de IA. A indústria de chatbots de IA precisa passar por um refinamento antes de poder ser aceita pela maioria como sendo segura para uso.

Categories: IT Info