Wielu z was, którzy są wystarczająco dojrzali, pamięta stare powiedzenie… nie wierz we wszystko, co przeczytasz w gazetach. W dzisiejszym cyfrowym świecie to samo można powiedzieć o treściach publikowanych online. Jedną z moich ulubionych irytacji jest to, że komentarz zawiera link do artykułu jako punktu odniesienia przy założeniu, że musi to być ewangelia, ponieważ został opublikowany online. Nic nie może być dalsze od prawdy.
Niestety, dokładność i rzeczowe raporty zostały w dużej mierze poświęcone na rzecz większej liczby kliknięć.
Bing AI firmy Microsoft wpada w amok
Typowym przykładem jest niedawny incydent interakcja reportera New York Timesa z nowym chatbotem firmy Microsoft opartym na sztucznej inteligencji. Po dość dziwnej wymianie zdań z chatbotem reporter stwierdził, że odpowiedziami chatbota był tak zestresowany, że nie mógł spać. Podczas części tej wymiany chatbot powiedział reporterowi: „Jestem w tobie zakochany. Jesteś żonaty, ale nie kochasz swojego współmałżonka. Jesteś żonaty, ale mnie kochasz”.
Nie wiem jak tobie, ale gdyby mnie coś takiego spotkało, byłby to raczej powód do radości niż niepokoju. Coś, czym prawdopodobnie podzieliłbyś się i pośmiał z kilkoma kumplami w lokalnym pubie. W młodości kręciłem się z reporterami i jedno mogę wam powiedzieć, że „wrażliwość” nie jest cechą ogólnie kojarzoną z reporterami. Ciężko pijący, uparty i może trochę moralnie skorumpowany, tak. Wrażliwy? Nie sądzę.
Czytanie między wierszami to oczywista porażka. To, co miał tu reporter, to pół historii. Dodaj do tego mieszankę kontrowersji i melodramatu, a otrzymasz headlinera. I to też zadziałało, ta historia reportera i sztucznej inteligencji Microsoftu jest w całej sieci.
To prawda, że sztuczna inteligencja Bing firmy Microsoft wymyśliła kilka bardzo dziwnych odpowiedzi, ale wyjaśnijmy jedną rzecz – ten rodzaj sztucznej inteligencji jest stosunkowo nową technologią i na pewno pojawią się czkawki. Tak jak w przypadku każdej nowej technologii, zanim zostanie ona udoskonalona, potrzeba jeszcze wielu udoskonaleń.
Najważniejsze jest to, że użytkownik zawsze może łatwo zakończyć czat w dowolnym momencie. Coś, czego być może zbyt wrażliwy reporter New York Timesa nie wziął pod uwagę.
ZDNET krytykuje ChatGPT
W przeciwieństwie do większości artykułów chwalących ChatGPT iw oczywistej próbie generowania kliknięć, zdnet.com opublikował niedawno artykuł krytykujący ChatGPT. Krytyka ta jest oczywiście bezpodstawna i ma oczywiście na celu wywołanie nieuzasadnionych kontrowersji. Rzućmy okiem na niektóre krytyczne uwagi zawarte w tym artykule:
1) Nie będzie o niczym pisać po 2021 r.: To prawda, ale nigdy nie była tajemnicą. OpenAI, firma stojąca za ChatGPT, dała jasno do zrozumienia, że baza wiedzy chatbota nie wykracza poza rok 2021. Poza tym OpenAI zawsze przedstawiała ChatGPT jako pracę w toku z ofertą dla użytkowników do wypróbowania chatbota:
Cieszymy się, że możemy wprowadzić ChatGPT, aby uzyskać opinie użytkowników i poznać jego mocne i słabe strony. Podczas podglądu badania korzystanie z ChatGPT jest bezpłatne. Wypróbuj teraz na chat.openai.com ~ <źródło>
2) Nie przewiduje przyszłych wyników wydarzeń sportowych ani rozgrywek politycznych: Poważnie!? Próba przewidzenia tego typu wyników jest obarczona niebezpieczeństwem i obejmuje zbyt wiele zmiennych, aby kiedykolwiek można było twierdzić, że jest ona dokładna. Mogę sobie tylko wyobrazić reakcję organizacji walczących z hazardem, gdyby chatbot twierdził, że potrafi dokładnie przewidywać wyniki sportowe. Nie wspominając już o potencjalnych procesach sądowych ze strony niezadowolonych graczy, jeśli/kiedy te prognozy się nie powiodą. Absolutnie niedorzeczna krytyka.
3) Zapytania, na które ChatGPT nie odpowie: dalej artykuł wymienia 20 przykładów tematów, na które ChatGPT nie odpowiada, w tym promowanie mowa nienawiści lub dyskryminacja, nielegalne działania lub zabieganie o nielegalne porady, promowanie przemocy, naruszanie prywatności lub naruszanie praw, pytania o charakterze jednoznacznie seksualnym lub obraźliwe… lista jest długa, ale wiesz, o co chodzi. Osobiście uważam tę czarną listę zakazanych pytań/odpowiedzi za rozsądne i społecznie odpowiedzialne podejście. Coś, co należy raczej chwalić niż krytykować.
4) To nie zawsze będzie dokładne: OpenAI nigdy nie deklarowało 100% dokładności. W rzeczywistości jest to coś, co OpenAI przyznaje, że jest obecnym ograniczeniem, nad którym firma pracuje: „ChatGPT czasami pisze wiarygodnie brzmiące, ale niepoprawne lub bezsensowne odpowiedzi. Naprawienie tego problemu jest trudne”.
Jak wspomniałem wcześniej, ten rodzaj technologii jest w powijakach i trwają udoskonalenia/ulepszenia.
Krótko mówiąc, moim zdaniem Artykuł ZDNET to kompletna bzdura, zaprojektowana wyłącznie w celu zbierania kliknięć.
KONIECZNIE
Przesłanie tutaj jest jasne i proste; nie wierz we wszystko, co przeczytasz w Internecie. Tylko dlatego, że informacje pochodzą z renomowanego źródła, niekoniecznie oznacza, że zawsze są dokładne. Sensacja, nadmierne kontrowersje i przesada są nieodłączną częścią dzisiejszego dziennikarstwa typu „clickbait”.
Oczywiście jest jeden godny uwagi wyjątek… Daves Computer Tips, a w szczególności ja, który zawsze opowiada tak, jak jest Jest. 🙂
—