No momento, a OpenAI, a empresa por trás do ChatGPT e do DALL-E, está no meio de uma acalorada batalha legal. O caso diz que a maneira como ele obtém dados para treinar o ChatGPT-raspando dados públicos da Internet-é uma violação maciça da privacidade das pessoas. Parece que o Google está observando de perto, pois a empresa atualizou sua política de privacidade. No processo, ele confirma que extrai dados para treinar o Google Bard.
Sabemos que a OpenAI vai travar essa batalha legal por algum tempo, e o resultado pode ter um impacto no curso da IA daqui para frente. Temos um editorial sobre este caso e você pode clicar aqui para lê-lo.
O Google confirma que coleta dados para treinar Bard
Olhando para a água quente em que o OpenAI está, é não é surpresa que o Google esteja procurando cobrir sua pele. O gigante das buscas é um grande colecionador de casos legais contra ele.
De acordo com Gizmodo (via The Verge) O Google atualizou sua política de privacidade em 1º de julho. A empresa realmente não mudou muito o conteúdo da política. No entanto, é mais claro que ele extrai dados para treinar seus produtos de IA. Isso inclui Bard, mas não se limita a ele. “…usamos informações publicamente disponíveis para ajudar a treinar os modelos de IA do Google e criar produtos e recursos como Google Translate, Bard e Cloud AI.”
O fato de esclarecer que usa dados disponíveis publicamente para treinar seus modelos de IA, a empresa espera, evitarão que ele pegue fogo. Uma parte importante do caso contra a OpenAI é o fato de que ela não especificou isso. As pessoas estão, sem saber, tendo seus dados extraídos para serem usados para IA.
Esclarecimento não é o ponto
O Google especificou que coleta dados, ótimo; a empresa recebe uma estrela de ouro. Mas esse não é o ponto. Essa mudança apenas mantém a empresa dentro da área cinzenta entre o legal e o ilegal. Talvez isso o mantenha fora dos olhos dos legisladores e agências governamentais por enquanto.
Mas isso não faz nada para as pessoas das quais está coletando dados. À medida que a IA dá mais passos à frente, está pisando em mais e mais pessoas. Artistas, jornalistas, escritores criativos, músicos, compositores, desenvolvedores etc. Esclarecer a essas pessoas que seus dados estão sendo usados para treinar os próprios modelos de IA que os tirarão do trabalho não melhora a situação.
Se Google, OpenAI e outras empresas de IA estão realmente preocupadas em policiar suas criações, elas terão que fazer melhor do que isso. Caso contrário, eles devem esclarecer que se preocupam apenas com dinheiro e não com as pessoas afetadas por seus produtos.