Obecnie OpenAI, firma stojąca za ChatGPT i DALL-E, toczy gorącą batalię prawną. Sprawa mówi, że sposób, w jaki pozyskuje dane do szkolenia ChatGPT – zgarnianie publicznych danych z Internetu – jest ogromnym naruszeniem prywatności ludzi. Wygląda na to, że Google uważnie obserwuje, jak firma zaktualizowała swoją politykę prywatności. Przy okazji potwierdza, że ​​zbiera dane, aby wyszkolić Google Bard.

Wiemy, że OpenAI będzie toczyć tę batalię prawną przez jakiś czas, a wynik może mieć wpływ na przebieg sztucznej inteligencji iść naprzód. Mamy artykuł redakcyjny na ten temat i możesz kliknąć tutaj, aby go przeczytać.

Google potwierdza, że ​​pobiera dane, aby wyszkolić Barda

Patrząc na gorącą wodę, w której tkwi OpenAI, jest to nic dziwnego, że Google chce ukryć swoją kryjówkę. Gigant wyszukiwania jest dość zbieraczem spraw sądowych przeciwko niemu.

Zgodnie z Gizmodo (przez The Verge) 1 lipca Google zaktualizował swoją politykę prywatności. Firma tak naprawdę nie zmieniła treści polisy. Bardziej jasne jest jednak to, że zbiera dane w celu szkolenia swoich produktów AI. Obejmuje to Barda, ale nie tylko. „…używamy publicznie dostępnych informacji, aby pomóc w szkoleniu modeli sztucznej inteligencji Google oraz tworzeniu produktów i funkcji, takich jak Tłumacz Google, Bard i możliwości sztucznej inteligencji w chmurze”.

Fakt, że wyjaśnia, że ​​wykorzystuje publicznie dostępne dane do szkolenia firma ma nadzieję, że jego modele AI uchronią go przed zapaleniem. Główną częścią sprawy przeciwko OpenAI jest fakt, że tego nie określił. Ludzie są nieświadomie zbierani danych w celu wykorzystania ich przez sztuczną inteligencję.

Nie o to chodzi w wyjaśnianiu

Google określiło, że zbiera dane, świetnie; firma otrzymuje złotą gwiazdę. Ale nie o to chodzi. Ta zmiana z trudem utrzymuje firmę w szarej strefie między legalnymi a nielegalnymi. Może na razie uchroni to prawodawców i agencje rządowe.

Ale to nic nie daje ludziom, od których zbiera dane. W miarę jak sztuczna inteligencja robi coraz więcej kroków naprzód, depcze coraz więcej ludzi. Artyści, dziennikarze, pisarze, muzycy, kompozytorzy, programiści itp. Wyjaśnienie tym ludziom, że ich dane są wykorzystywane do trenowania modeli sztucznej inteligencji, które pozbawią ich pracy, nie poprawia sytuacji.

Jeśli Google, OpenAI i inne firmy zajmujące się sztuczną inteligencją naprawdę troszczą się o nadzorowanie swoich dzieł, będą musiały zrobić coś lepszego. Jeśli nie, powinni wyjaśnić, że zależy im tylko na pieniądzach, a nie na ludziach, których dotyczą ich produkty.

Categories: IT Info