ChatGPT, wyszkolony przez OpenAI chatbot ze sztuczną inteligencją, fałszywie oskarżony wybitny obrońca w sprawach karnych i profesor prawa Jonathan Turley o molestowanie seksualne.
Chatbot wymyślił Waszyngton Opublikuj artykuł o wycieczce do szkoły prawniczej na Alaskę, podczas której Turley został oskarżony o wygłaszanie prowokacyjnych wypowiedzi seksualnych i próbę dotknięcia ucznia, mimo że Turley nigdy nie był na takiej wycieczce.
Reputacja Turleya mocno ucierpiała po tym, jak te szkodliwe twierdzenia szybko stały się wirusowe w mediach społecznościowych.
„Było to dla mnie zaskoczeniem, ponieważ nigdy nie pojechałem na Alaskę ze studentami, The Post nigdy nie opublikował takiego artykułu i nigdy nie zostałem przez nikogo oskarżony o molestowanie seksualne ani napaść, ” powiedział.
Po otrzymaniu e-maila od innego profesora prawa, który wykorzystał ChatGPT do zbadania przypadków molestowania seksualnego przez naukowców z amerykańskich szkół prawniczych, Turley dowiedział się o zarzutach.
Profesor Jonthan Turley został fałszywie oskarżony o molestowanie seksualne przez ChatGPT napędzany sztuczną inteligencją. Zdjęcie: Getty Images
Konieczność zachowania ostrożności podczas korzystania z danych generowanych przez sztuczną inteligencję
Na swoim blogu profesor George Washington University napisał:
„Wczoraj prezydent Joe Biden oświadczył, że„ dopiero się okaże ”, czy sztuczna inteligencja jest„ niebezpieczna ”. Chciałbym się różnić…”
W wyniku jego doświadczenia pojawiły się obawy co do niezawodności ChatGPT i prawdopodobieństwa wystąpienia w przyszłości przypadków takich jak ten, którego doświadczył Turley. Chatbot jest obsługiwany przez firmę Microsoft, która, jak twierdzi firma, wdrożyła aktualizacje w celu poprawy dokładności.
Czy ChatGPT ma halucynacje?
Kiedy sztuczna inteligencja generuje wyniki, które są nieoczekiwane, błędne i niepoparte dowodami z rzeczywistego świata, mówi się, że ma „halucynacje”.
Fałszywe treści, wiadomości lub informacje o osobach, wydarzeniach lub faktach mogą wynikać z tych halucynacji. Przypadki takie jak Turley pokazują daleko idące skutki rozpowszechniania w mediach i sieciach społecznościowych fałszywych informacji generowanych przez sztuczną inteligencję.
Twórcy ChatGPT, OpenAI, uznali potrzebę edukowania opinii publicznej o ograniczeniach narzędzi sztucznej inteligencji i zmniejszyć prawdopodobieństwo doświadczania takich halucynacji przez użytkowników.
Doceniane są próby uczynienia chatbota bardziej dokładnym, ale należy wykonać więcej pracy, aby upewnić się, że takie rzeczy się nie powtórzą.
Incydent zwrócił również uwagę na wartość etycznego wykorzystania sztucznej inteligencji i konieczność głębszego zrozumienia jej ograniczeń.
Wymagany nadzór człowieka
Chociaż sztuczna inteligencja może znacznie poprawić wiele aspektów naszego życia, wciąż nie jest doskonała i musi być nadzorowana przez ludzi, aby zapewnić dokładność i niezawodność.
W miarę jak sztuczna inteligencja staje się coraz bardziej zintegrowana z naszą codziennością życia, kluczowe znaczenie ma zachowanie ostrożności i odpowiedzialności podczas korzystania z takich technologii.
Spotkanie Turleya z ChatGPT podkreśla znaczenie zachowania ostrożności podczas radzenia sobie z niespójnościami i błędami generowanymi przez sztuczną inteligencję.
Istotne jest, abyśmy upewnili się, że ta technologia jest używana w sposób etyczny i odpowiedzialny, ze świadomością jej mocnych i słabych stron, ponieważ wciąż zmienia nasze środowisko.
Całkowita kapitalizacja rynkowa kryptowalut utrzymuje się na stałym poziomie 1,13 biliona dolarów na weekendowym wykresie na TradingView.com
Tymczasem, według starszej dyrektor ds. komunikacji w firmie Microsoft, Katy Asher, firma podjęła kroki w celu zapewnienia dokładności swojej platformy.
Turley napisał w odpowiedzi na swoim blogu:
„Możesz zostać zniesławiony przez sztuczną inteligencję, a te korporacje tylko wzruszą ramionami i powiedzą, że starają się mówić prawdę. ”
Jake Moore, globalny doradca ds. cyberbezpieczeństwa w firmie ESET, ostrzegł użytkowników ChatGPT, aby nie brali wszystkiego na haczyk, linkę i ciężarek, aby zapobiec szkodliwemu rozprzestrzenianiu się dezinformacji.
-Polecany obraz z Bizsiziz