Bitwa o sztuczną inteligencję doprowadziła do narodzin chatbota Google Bard AI, rywala chatbota Bing ChatGPT. Ale wydaje się, że niektórzy pracownicy Google nie myślą o Bardzie tak, jak chcą tego ich pracodawcy. Jaki dokładnie może być powód odrzucenia Barda przez jego ludzi?

Cóż, wielu może twierdzić, że raporty podają tylko niewielką liczbę pracowników Google. Niektóre osoby tworzące tę listę osób kopiących przeciwko Bardowi to byli pracownicy Google. Ale niezależnie od wielkości opozycji, mądrze jest wziąć pod uwagę przyczynę ich niechęci.

Sprowadza się to do zdolności chatbota Bard AI, gdy jest używany przez ludzi. Zarysowane problemy dotyczą również największego rywala Barda, chatbota Bing AI. Co zabawne, pracownicy Google określili tę platformę AI jako „gorszą niż bezużyteczną”. Ze strony Googlerów brzmi to trochę zbyt ostro, dlatego zwraca większą uwagę na wyniki Barda.

Wprowadzające w błąd odpowiedzi chatbota Bard AI firmy Google sprawiły, że jego twórcy poddali go intensywnej analizie.

W ciągu ostatnich kilku miesięcy firma Microsoft trafiała na pierwsze strony gazet w wyniku integracji ChatGPT z przeglądarką. To wprowadziło chatbota AI do Bing i Skype, ale użytkownicy byli w stanie dostrzec pewne wady. Te wady wynikają z tego, że chatbot Bing AI nie zna granic rozmowy, grozi użytkownikom i fałszuje informacje.

Krótko po tym, jak Microsoft ogłosił integrację ChatGPT z Bing, Google już przygotowywało się do ogłoszenia chatbot Bard AI. Cóż, wygląda na to, że pracownicy Google zwracają uwagę na zauważalne wady chatbota AI po jego pojawieniu się.

Te wady są dość podobne do tych, które wyszły na jaw w chatbocie ChatGPT. Bard podaje teraz użytkownikom fałszywe informacje i udziela niebezpiecznych porad, zagrażając w ten sposób bezpieczeństwu użytkowników. Pośpiech Google może być główną przyczyną problemów, na które zwracają uwagę ich pracownicy podczas korzystania z Barda.

Z raportów wynika, że ​​zespół ds. bezpieczeństwa wewnętrznego doradził, aby nie uruchamiać chatbota. Zamiast tego wady te zostaną naprawione, aby ułatwić wprowadzenie na rynek bardziej stabilnego i przyjaznego dla użytkownika produktu. Teraz Google będzie musiało skoncentrować się na rozwiązaniu tych problemów, aby osoby korzystające z tego produktu mogły uzyskiwać bezpieczne i dokładne odpowiedzi na swoje zapytania.

Podobnie jak chatbot Bing AI firmy Microsoft, Bard jest wyposażony w pewne wady. Wielu może twierdzić, że jest to normalne w przypadku każdego nowego produktu AI, ale takie problemy zmuszają niektóre kraje do zakazania chatbotów AI. Branża chatbotów AI musi zostać udoskonalona, ​​zanim będzie mogła zostać uznana przez większość za bezpieczną w użyciu.

Categories: IT Info