Podczas konferencji Google I/O większość rozmów dotyczyła sztucznej inteligencji. Firma uruchomiła Google Bard jako eksperymentalny produkt będący odpowiedzią na ChatGPT OpenAI (często nazywane chatbotami LLM lub chatbotami Large Language Model). Wydaje się jednak, że za kulisami Google nie jest tak entuzjastycznie nastawiony do chatbotów AI. Reuters donosi teraz, że Google rzekomo poinformował pracowników, aby uważali na używanie chatbotów LLM, w tym własnego Barda Google.
Google martwi się o prywatność i bezpieczeństwo, rzekomo radzi pracownikom, aby zachowali szczególną ostrożność podczas korzystania z Google Bard
Wygląda na to, że Google wykrył pewne problemy z prywatnością i bezpieczeństwem, które mogą wystąpić, gdy pracownicy korzystają z Google Bard. Po pierwsze, firma podobno powiedziała swoim programistom, aby nie używali kodu, który mogą generować chatboty (funkcja Google Bard do generowania kodu została zaprezentowana podczas konferencji Google I/O). Problemem wydają się być przede wszystkim tajemnice firmowe. Jeśli śledzisz świat technologii mobilnych (lub ogólnie świat technologii), widziałeś, jak wiele istotnych wycieków miało miejsce w ciągu ostatnich kilku lat i psuło ujawnienie dużych produktów.
Zasadniczo, jeśli pracownicy wprowadzają poufne informacje do Bard lub ChatGPT, informacje te mogą stać się publiczne. To samo dotyczy ciągów kodu, które mogłyby zagrozić bezpieczeństwu kodu, pokazując go potencjalnym hakerom, którzy mogliby z niego skorzystać.
Inne firmy, takie jak Samsung i Amazon, podobno również mają bariery ochronne, jeśli chodzi o sztuczną inteligencję.
W komentarzu dla agencji Reuters, Google powiedział, że stara się być przejrzysty w kwestii ograniczeń Barda i mówi, że jeśli chodzi o kod, Bard może być pomocnym narzędziem, chociaż czasami może dawać niepożądane sugestie.
Tymczasem Google podobno prowadzi rozmowy z irlandzką Komisją Ochrony Danych, po opóźnieniu wprowadzenia Bard w UE (ponownie z powodu obaw o prywatność irlandzkiego organu regulacyjnego).