Dawno, dawno temu, podobnie jak dwa lata temu w 2021 roku, Alphabet Inc. — spółka macierzysta Google LLC — zobowiązała się zbadać etykę sztucznej inteligencji. Cóż, grupa zajmująca się etyką dotyczącą sztucznej inteligencji istniała już w Google i zajmowała się dostarczaniem informacji zwrotnych na temat tego, jak moralnie w porządku są produkty firmy.
Tak więc przed marcem 2023 r. — co oznacza zwolnienie Barda dla zamkniętej grupy lub osób — „komisja” ds. etyki ciężko pracowała, aby przekonać Google, że Bard nie był jeszcze gotowy na nawet ograniczone wdrożenie.
Mimo to jednak firma postąpiła zgodnie z planem i wypuściła Bard, najwyraźniej mając na celu stworzenie istniejącego konkurenta dla ChatGPT i Microsoft OpenAI. To z kolei doprowadziło do zdemoralizowania i rozbicia grupy ds. etyki, ponieważ wkrótce potem wielu kluczowych graczy opuściło Google.
Czy Google zrezygnowało z etyki tylko po to, by wcześniej zwolnić Barda?
Bard potrafi dużo więcej niż tylko pogawędki i dostarczanie informacji. Kompozycja, kodowanie i renderowanie obrazu należą do jego wielu talentów.
Bloomberg donosi, że Google najwyraźniej karmiło Barda informacjami niskiej jakości tylko po to, by mógł je wcześniej ujawnić. Te informacje są poparte zbadanymi, ale nieokreślonymi, wewnętrznymi dokumentami firmowymi oraz słowami obecnych i byłych członków grupy ds. etyki.
Oczywiście, Big G nie zlekceważył tego. Twierdzi, że etyka jest nadal najwyższym priorytetem w odniesieniu do Barda i sztucznej inteligencji w ogóle. I to ma sens, biorąc pod uwagę, że Google przez lata wahał się, czy bawić się sztuczną inteligencją, właśnie z powodu dylematów moralnych.
Jednak najwyraźniej potrzeba było wzrostu konkurencji, aby firma zmieniła swoje ogólne stanowisko w sprawie sposobu. ChatGPT i OneAI — i jakakolwiek inna sztuczna inteligencja — nie istniałyby bez własnych badań Google, więc czy błędem jest chcieć kawałek pysznego tortu, jeśli wyhodowałeś do niego składniki?
Google Bard: patologiczny kłamca czy szybko uczący się?
Teraz wyobraź sobie Pixela X Pro z mnóstwem ekskluzywnych funkcji obsługiwanych przez Bard. Czy to nie jest produkt?
A Google bardzo wierzy, że wszystkie kontrole bezpieczeństwa zostały wprowadzone, zanim wypuścił Bard… jako eksperyment a nie produkt. Czy ta etykieta jest formą zapobiegania ryzyku? A jeśli tak, to jak to możliwe, że spodziewamy się licznych funkcji usług takich jak Dokumenty, Prezentacje, Gmail i YouTube — które w rzeczywistości są samodzielnymi produktami — opartych na wspomnianym eksperymencie? Czy to jest etyczne?
Grupa etyczna Google ma odpowiedź i jest to wahanie. Wahania, czy mówić i dyskutować, ponieważ podobno otrzymują w odpowiedzi „Próbujesz tylko spowolnić proces”. Czy etyka ustąpiła miejsca przedsięwzięciom biznesowym? Jedzenie do przemyśleń.
Przed wypuszczeniem Barda w marcu Google przyznał swoim pracownikom wewnętrzny dostęp do sztucznej inteligencji w celu zebrania opinii. Oto kilka fragmentów tego, co pracownicy Google mieli do powiedzenia na temat Barda: Patologiczny kłamca Godny znęcania się Dostarczona rada, która zakończyłaby się katastrofą „… gorzej niż bezużyteczna: proszę, nie uruchamiaj”
Google mimo to uruchomił Barda. Ale oto inna perspektywa: ograniczony, ale wciąż publiczny dostęp, jest dla Barda okazją do nauki i poprawy. W końcu Google jest płodny pod względem algorytmów, więc czy trudno wyobrazić sobie rzeczywistość, w której wszystko to jest częścią prawdziwego planu, który pozwoli Bardowi uczyć się i rozwijać, tak jak robił to ChatGPT w przeszłości?
Znowu: materiał do przemyśleń.