O chatbot supostamente senciente do Google é um dos projetos mais controversos da empresa que levantou muitas preocupações sobre inteligência artificial. Apesar de toda a controvérsia, o Google agora é registrando usuários interessados para conversar com seu chatbot e fornecer feedback à empresa.
Na cúpula I/O 2022 em maio, o CEO do Google, Sundar Pichai, relatou sobre a conversa experimental LaMDA 2 da empresa Modelo de IA. Ele disse que o projeto estará aberto a testadores beta nos próximos meses, e agora os usuários podem fazer reservas para estar entre os primeiros usuários testando este chatbot supostamente senciente.
O LaMDA – Modelo de Linguagem para Aplicações de Diálogo – é considerado um modelo de processamento de linguagem natural (NLP) senciente. A PNL é uma espécie de interface entre humanos e computadores. Assistentes de voz como Siri ou Alexa são exemplos proeminentes de PNLs que podem traduzir a fala humana em comandos. Os PNL também são usados para tradução em tempo real e aplicativos de legendas.
O chatbot supostamente senciente do Google demitiu um engenheiro de software sênior
Remonta a julho, o Google supostamente demitido um de seus engenheiros de software sênior, Blake Lemoine, que afirmou que o chatbot LaMDA é senciente e age como uma pessoa autoconsciente. Para justificar a demissão, o Google disse que o funcionário violou as políticas de emprego e segurança de dados. Além disso, dois membros do grupo de pesquisa de IA ética do Google deixaram a empresa em fevereiro, dizendo que não conseguiam lidar com demissões.
Os usuários que se registram no programa beta LaMDA podem interagir com esse PNL de forma controlada e monitorada. meio Ambiente. Os usuários de Android nos EUA são os primeiros usuários a se registrarem, e o programa será expandido para usuários de iOS nas próximas semanas. Este programa experimental oferece algumas demonstrações para usuários beta para demonstrar os recursos do LaMDA.
De acordo com Engenheiros do Google, a primeira demonstração é chamada de’Imagine It’, que permite aos usuários nomear um lugar e oferece caminhos para explorar sua imaginação. A segunda demonstração é chamada de’List It’, na qual os usuários podem compartilhar um objetivo ou tópico e, em seguida, dividi-lo em uma lista de subtarefas úteis. Por fim, a última demonstração é’Talk About It (Dogs Edition)’, que permite conversas abertas sobre cães entre usuários e chatbots.
A equipe de engenheiros do Google diz que “executou rodadas dedicadas de testes adversários para encontrar falhas adicionais no modelo.” Além disso, eles não afirmam que seu sistema é infalível. “O modelo pode entender mal a intenção por trás dos termos de identidade e às vezes não consegue produzir uma resposta quando eles são usados porque tem dificuldade em diferenciar entre prompts benignos e adversários. Ele também pode produzir respostas prejudiciais ou tóxicas com base em vieses em seus dados de treinamento, gerando respostas que estereotipam e deturpam as pessoas com base em seu gênero ou origem cultural.”