Muitos de vocês que são maduros o suficiente se lembrarão do velho ditado… não acredite em tudo que você lê nos jornais. No mundo digital de hoje, o mesmo pode ser dito sobre o que é publicado online. Uma das minhas irritações é quando um comentário inclui um link para um artigo como ponto de referência sob a suposição de que deve ser um evangelho porque foi publicado online. Nada poderia estar mais longe da verdade.

Infelizmente, a precisão e os relatórios factuais foram em grande parte sacrificados em prol de mais cliques.

O Bing AI da Microsoft está em alta

Um exemplo típico é o recente incidente de a interação de um repórter do New York Times com o novo chatbot com IA da Microsoft. Após uma troca bastante bizarra com o chatbot, o repórter afirmou que estava tão estressado com as respostas do chatbot que não conseguia dormir. Durante parte dessa troca, o chatbot disse ao repórter: “Estou apaixonado por você. Você é casado, mas não ama seu cônjuge. Você é casado, mas me ama.”

Não sei quanto a você, mas se algo assim acontecesse comigo, seria mais motivo de alegria do que de alarme. Algo que você provavelmente compartilharia e riria com alguns amigos no pub local. Bem, eu andei com repórteres na minha juventude e uma coisa que posso dizer é que “sensibilidade” não é uma característica geralmente associada aos repórteres. Bebedeira, obstinada e talvez um tanto moralmente corrupta, sim. Confidencial? Acho que não.

Lendo nas entrelinhas, esta é uma surra óbvia. O que o repórter tinha aqui era meia história. Adicione uma mistura de controvérsia e melodrama e agora você tem uma atração principal. E funcionou também, essa história do repórter e da IA ​​da Microsoft está em toda a web.

Reconhecidamente, o Bing AI da Microsoft apresentou algumas respostas muito bizarras, mas vamos deixar uma coisa clara-esse tipo de IA é uma tecnologia relativamente nova e é provável que haja soluços. Como é o caso de qualquer tecnologia emergente, muito refinamento ainda é necessário antes de ser aperfeiçoado.

O ponto principal é que o usuário sempre pode encerrar facilmente um chat a qualquer momento. Algo que talvez o repórter excessivamente sensível do New York Times não tenha considerado.

ZDNET critica ChatGPT

Ao contrário da maioria dos artigos que elogiam o ChatGPT, e numa óbvia tentativa de gerar cliques, zdnet.com publicou recentemente um artigo criticando o ChatGPT. Essas críticas são manifestamente infundadas e obviamente destinadas apenas a criar controvérsias indevidas. Vejamos algumas das críticas incluídas nesse artigo:

1) Não escreverá sobre nada depois de 2021: Isso é verdade, mas nunca foi segredo. A OpenAI, a empresa por trás do ChatGPT, deixou bem claro que o banco de dados de conhecimento do chatbot não se estende além de 2021. Além disso, a OpenAI sempre apresentou o ChatGPT como um trabalho em andamento com uma oferta para os usuários testarem o chatbot:

Estamos entusiasmados em apresentar o ChatGPT para obter feedback dos usuários e aprender sobre seus pontos fortes e fracos. Durante a prévia da pesquisa, o uso do ChatGPT é gratuito. Experimente agora em chat.openai.com ~ <fonte>

2) Não prevê resultados futuros de eventos esportivos ou disputas políticas: Seriamente!? Tentar prever esses tipos de resultados está repleto de perigos e envolve variáveis ​​demais para reivindicar um grau razoável de precisão. Só posso imaginar a reação das organizações anti-jogo se um chatbot afirmasse que poderia prever com precisão os resultados esportivos. Sem mencionar os possíveis processos judiciais de jogadores insatisfeitos se/quando essas previsões falharam. Uma crítica absolutamente ridícula.

3) Consultas que o ChatGPT não responderá: o artigo passa a listar 20 exemplos de tópicos aos quais o ChatGPT não responderá, incluindo promoção discurso de ódio ou discriminação, atividades ilegais ou solicitação de conselhos ilegais, promoção da violência, invasão de privacidade ou violação de direitos, questões sexualmente explícitas ou ofensivas… a lista continua, mas você entende. Pessoalmente, vejo essa lista negra de perguntas/respostas proibidas como uma abordagem sensata e socialmente responsável. Algo a ser elogiado em vez de criticado.

4) Nem sempre será preciso: OpenAI nunca reivindicou 100% de precisão. Na verdade, é algo que a OpenAI admite ser uma limitação atual na qual a empresa está trabalhando: “ChatGPT às vezes escreve respostas que parecem plausíveis, mas incorretas ou sem sentido. Corrigir esse problema é um desafio“.

Como mencionei anteriormente, esse tipo de tecnologia está em sua infância e refinamentos/melhorias estão em andamento.

Em suma, e na minha opinião, o O artigo do ZDNET é um lixo total, projetado apenas para angariar cliques.

CONCLUSÃO

A mensagem aqui é clara e simples; não acredite em tudo que você lê online. Só porque a informação vem de uma fonte respeitável não significa necessariamente que ela seja sempre precisa. Sensacionalismo, controvérsia indevida e exagero são parte integrante do jornalismo clickbait de hoje.

Existe, é claro, uma notável exceção… Daves Computer Tips, e eu em particular, que sempre contarei como está é. 🙂

Categories: IT Info