Era uma vez, há dois anos em 2021, a Alphabet Inc.-empresa controladora do Google LLC-prometeu estudar a ética da IA. Bem, um grupo dedicado à ética em relação à IA já existia no Google e eles se envolveram em fornecer feedback sobre como os produtos da empresa são moralmente corretos.

Portanto, antes de março de 2023-que marca o lançamento de Bard para um grupo ou indivíduos fechados-o”comitê”de ética trabalhou arduamente para convencer o Google de que Bard não estava exatamente pronto para um lançamento ainda que limitado.

Apesar disso, no entanto, a empresa procedeu conforme planejado e lançou Bard, aparentemente com o único objetivo de ter um concorrente existente para ChatGPT e OpenAI da Microsoft. Isso, por sua vez, deixou o grupo de ética desmoralizado e em frangalhos, já que vários jogadores-chave deixaram o Google logo depois.

O Google renunciou à ética apenas para liberar Bard antes do tempo?

Bard pode fazer muito mais do que apenas bater papo e fornecer informações. Composição, codificação e renderização de imagens estão entre seus muitos talentos.

Bloomberg relata que o Google aparentemente alimentou Bard com informações de baixa qualidade apenas para que pudesse revelá-las mais cedo. Esta informação é apoiada por alguns documentos internos da empresa examinados, ainda não especificados, e pelas palavras de membros existentes e ex-grupos de ética.

Naturalmente, o Big G não aceitou isso de forma alguma. Ele afirma que a ética ainda é uma prioridade em relação à Bard e à IA em geral. E isso só faz sentido, já que o Google hesitou em se envolver com IA por anos, exatamente por causa dos dilemas morais.

Ainda assim, aparentemente foi necessário o aumento da concorrência para que a empresa mudasse sua postura geral sobre a forma. ChatGPT e OneAI-e qualquer outra IA-não existiriam sem a própria pesquisa do Google, então é errado querer um pedaço da torta deliciosa, se você cultivou os ingredientes para isso?

Do Google Bardo: mentiroso patológico ou aprendiz rápido?

Agora, imagine um Pixel X Pro com toneladas de recursos exclusivos, desenvolvido pela Bard. Isso não é um produto?

E o Google acredita muito que todas as verificações de segurança foram implementadas antes de lançar o Bard… como um experimento e não um produto. Este rótulo é uma forma de prevenção de riscos? E se for, como é possível que esperemos vários recursos para serviços como Documentos, Apresentações, Gmail e YouTube-que são efetivamente produtos autônomos-alimentados por esse experimento? Isso é ético?

O grupo de ética do Google tem uma resposta e é hesitante. A hesitação em falar e discutir, pois eles supostamente recebem um “Você está apenas tentando retardar o processo” em resposta. A ética ficou em segundo plano nos empreendimentos comerciais? Alimento para o pensamento.

Antes de lançar o Bard em março, o Google concedeu acesso à IA internamente a seus funcionários para coletar feedback. Aqui estão alguns trechos do que os funcionários do Google têm a dizer sobre Bard: Mentiroso patológico Digno de arrepiar Conselhos fornecidos que terminariam em desastre”… pior do que inútil: por favor, não inicie”
O Google lançou o Bard de qualquer maneira. Mas aqui está uma perspectiva diferente: acesso limitado, mas ainda público, é uma oportunidade para a Bard aprender e se corrigir. Afinal, o Google é prolífico em termos de algoritmos, então é exagero imaginar uma realidade onde tudo isso faz parte de um plano real para deixar Bard aprender e crescer, assim como o ChatGPT fez no passado?

Mais uma vez: alimento para reflexão.

Categories: IT Info