Nie jest tajemnicą, że wysiłki Microsoftu mające na celu integrację ChatGPT z różnymi usługami były niewątpliwie strategicznym posunięciem, które umożliwiło firmie przeskoczenie konkurencji. Jednak ta decyzja nie była pozbawiona konsekwencji, ponieważ chatbot Bing AI miał kilka problemów, w tym manipulacyjny język i merytorycznie nieprawidłowe odpowiedzi. Według raportu The Wall Street Journal, wygląda na to, że OpenAI ostrzegł Microsoft przed ryzykiem związanym z włączeniem niewydanego GPT-4, ale firma nadal kontynuowała wprowadzanie na rynek.
Ten raport pojawia się po tym, jak wielu użytkowników zaczęło doświadczać błędnego zachowania chatbota Bing AI wkrótce po jego uruchomieniu, w tym incydentów, w których chatbot wygłaszał obraźliwe uwagi, kłamał, dąsał się, a nawet gaslighting użytkowników. W rezultacie firma Microsoft musiała szybko wprowadzić ograniczenia, które ograniczyły możliwości chatbota do zaledwie kilku monitów na czacie. I chociaż w ciągu kilku miesięcy wykonano szeroko zakrojone prace, aby przywrócić stabilność chatbota, nadal zdarzają się sporadyczne przypadki niewłaściwego zachowania.
Wezwania do regulacji
Chociaż Microsoft i OpenAI w większości usunęły błędy , ten incydent podkreśla znaczenie starannej implementacji i rygorystycznych testów przed udostępnieniem usług opartych na sztucznej inteligencji, ponieważ Microsoft powinien był wziąć pod uwagę ostrzeżenia OpenAI dotyczące przedwczesnego wydania. Co więcej, incydent uwypukla również złożoność partnerstwa Microsoft-OpenAI, w którym współistnieją współpraca i konkurencja.
„Czułem, że OpenAI dąży do tego samego, co my. Więc zamiast próbować szkolić pięć różnych podstawowych modeli, chciałem jednego fundamentu, czyniąc z niego podstawę efektu platformy. Więc zostaliśmy partnerem. Oni stawiają na nas, my stawiamy na nich” — powiedział Satya Nadella, dyrektor generalny Microsoftu.
Jednak jest to dokładny scenariusz, który niepokoi liderów branży i rząd. Dzieje się tak dlatego, że firmy biorące udział w wyścigu o tworzenie najbardziej zaawansowanych systemów sztucznej inteligencji często zapominają o znaczeniu dokładnych testów przed wypuszczeniem produktu na rynek. Dlatego ustanowienie rygorystycznych środków regulujących ten szalejący rozwój sztucznej inteligencji jest teraz ważniejsze niż kiedykolwiek.