Podobno czujący chatbot Google to jeden z najbardziej kontrowersyjnych projektów firmy, który wzbudził wiele obaw dotyczących sztucznej inteligencji. Pomimo wszelkich kontrowersji Google jest teraz rejestrowanie zainteresowanych użytkowników, aby mogli rozmawiać z chatbotem i przekazywać firmie opinie.
Na majowym szczycie I/O 2022 dyrektor generalny Google Sundar Pichai poinformował o eksperymentalnej rozmowie LaMDA 2 firmy Model AI. Powiedział, że projekt będzie otwarty dla beta testerów w nadchodzących miesiącach, a teraz użytkownicy mogą dokonywać rezerwacji, aby znaleźć się wśród pierwsi użytkownicy testujący tego rzekomo czującego chatbota.
LaMDA – model języka dla aplikacji dialogowych – jest uważany za czujący model przetwarzania języka naturalnego (NLP). NLP to rodzaj interfejsu między ludźmi a komputerami. Asystenci głosowi, tacy jak Siri lub Alexa, są wybitnymi przykładami NLP, które mogą tłumaczyć ludzką mowę na polecenia. NLP są również wykorzystywane do tłumaczeń w czasie rzeczywistym i aplikacji napisów.
Podobno wyczulony chatbot Google został zwolniony przez starszego inżyniera oprogramowania
Od lipca Google podobno zwolniony jeden ze starszych inżynierów oprogramowania Blake Lemoine, który twierdził, że chatbot LaMDA jest świadomy i zachowuje się jak samoświadoma osoba. Aby uzasadnić zwolnienie, Google powiedział, że pracownik naruszył zasady dotyczące zatrudnienia i bezpieczeństwa danych. Ponadto w lutym dwóch członków grupy badawczej Google zajmującej się etyczną sztuczną inteligencją opuściło firmę, mówiąc, że nie mogą poradzić sobie ze zwolnieniami.
Użytkownicy, którzy zarejestrują się w programie beta LaMDA, mogą wchodzić w interakcje z tym NLP w kontrolowanym i monitorowanym środowisko. Użytkownicy Androida w USA są pierwszymi użytkownikami, którzy się zarejestrują, a program rozszerzy się na użytkowników iOS w nadchodzących tygodniach. Ten eksperymentalny program oferuje użytkownikom wersji beta kilka wersji demonstracyjnych, aby zademonstrować możliwości LaMDA.
Zgodnie z Inżynierowie Google, pierwsza prezentacja nosi nazwę „Imagine It”, która pozwala użytkownikom nazwać miejsce i oferuje ścieżki do odkrywania ich wyobraźni. Drugie demo nazywa się „List It”, w którym użytkownicy mogą udostępnić cel lub temat, a następnie podzielić go na listę pomocnych podzadań. Wreszcie ostatnia wersja demonstracyjna to „Talk About It (Dogs Edition)”, która umożliwia otwartą rozmowę na temat psów między użytkownikami a chatbotami.
Zespół inżynierów Google twierdzi, że „przeprowadził dedykowane rundy testy kontradyktoryjne w celu znalezienia dodatkowych wad modelu.” Ponadto nie twierdzą, że ich system jest niezawodny. „Model może błędnie zrozumieć intencje kryjące się za pojęciami tożsamości i czasami nie daje odpowiedzi, gdy są używane, ponieważ ma trudności z rozróżnieniem podpowiedzi łagodnych i wrogich. Może również generować szkodliwe lub toksyczne reakcje w oparciu o uprzedzenia w danych treningowych, generując odpowiedzi, które stereotypizują i błędnie przedstawiają ludzi w oparciu o ich płeć lub pochodzenie kulturowe”.