Zgodnie z Arstechnica (przez Platformator), Microsoft właśnie zatrudnił zespół ds. etyki AI po masowych zwolnieniach w firmie, które dotknęły 10 000 pracowników. Zespół był odpowiedzialny za monitorowanie i ograniczanie szkód społecznych powodowanych przez produkty Microsoft AI.
Microsoft trafiał na pierwsze strony gazet w ostatnich miesiącach dzięki swojej początkowej inwestycji w firmę macierzystą ChatGPT OpenAI i zintegrowaniu jej z wyszukiwarką Bing. Podczas gdy wszystkie firmy, które włączają sztuczną inteligencję do swoich produktów i usług, mają zespół, który bada możliwe związane z tym zagrożenia, Microsoft właśnie zwolnił członków swojego zespołu ds. etyki AI.
Zespół podobno opracował „odpowiedzialny zestaw narzędzi innowacyjnych” dla Microsoft które pomogły inżynierom firmy przewidzieć i wyeliminować ryzyko generowane przez sztuczną inteligencję. Byli członkowie zespołu twierdzą, że odegrali kluczową rolę w ograniczaniu zagrożeń związanych ze sztuczną inteligencją w produktach firmy Microsoft.
Zespół ds. etyki Microsoft AI opuścił firmę po ostatnich zwolnieniach
W odpowiedzi na tę wiadomość Microsoft ogłosił, że pozostaje „zaangażowany w bezpieczne i odpowiedzialne opracowywanie produktów i doświadczeń związanych ze sztuczną inteligencją i robi to inwestując w ludzi, procesy i partnerstwa, które traktują to jako priorytet”.
Firma twierdzi również, że w ciągu ostatnich sześciu lat skupiła się na budowaniu Biura Odpowiedzialnej Sztucznej Inteligencji. Ten zespół pozostaje na swoim miejscu i współpracuje z Komitetem Eteru i Odpowiedzialną Strategią Sztucznej Inteligencji w Inżynierii w celu ograniczenia ryzyka związanego ze sztuczną inteligencją.
Decyzja firmy Microsoft o zwolnieniu zespołu ds.-4. Ten model został dodany do Microsoft Bing, co może jeszcze bardziej wzbudzić zainteresowanie rywala Google.
Microsoft zaczął tworzyć swój zespół ds. etyki AI w 2017 roku, a zespół miał podobno 30 członków. The Platformer donosi, że później firma rozproszyła członków do różnych działów, ponieważ konkurencja AI z Google nabrała tempa. Ostatecznie Microsoft zmniejszył zespół do zaledwie siedmiu osób.
Byli pracownicy twierdzą również, że Microsoft nie słuchał ich zaleceń dotyczących narzędzi opartych na sztucznej inteligencji, takich jak Bing Image Creator, które kopiowały prace artystów. Zwolnieni pracownicy są teraz zaniepokojeni możliwymi zagrożeniami, na jakie sztuczna inteligencja może narazić użytkowników, gdy w firmie nie ma nikogo, kto powiedziałby „nie” potencjalnie nieodpowiedzialnym projektom.