Od czasu uruchomienia ChatGPT istnieje przewaga chatbotów AI, takich jak ChatGPT. Jednak rozprzestrzenianie się tych chatbotów oznacza również, że pojawiają się problemy. W rzeczywistości OpenAI zaskoczyło świat możliwościami ChatGPT. Z tego powodu było wiele sprzeciwów wobec jego używania, a niektóre wiążą się nawet z walkami prawnymi. Jednak w Stanach Zjednoczonych, ojczyźnie ChatGPT, prawo może po prostu chronić ChatGPT. Artykuł 230 amerykańskiej ustawy Communications Decency Act wydanej w 1996 r. mówi, że firma nie musi ponosić odpowiedzialności prawnej za treści publikowane przez osoby trzecie lub użytkowników na jej platformie (art. 230).
Jednak Sąd Najwyższy USA zdecyduje w ciągu najbliższych kilku miesięcy, czy osłabić tę ochronę. Może to mieć również wpływ na chatboty AI, takie jak ChatGPT. Oczekuje się, że do końca czerwca sędziowie zdecydują, czy należący do Alphabet YouTube może zostać pozwany za polecanie filmów użytkownikom. Chociaż platformy są zwolnione z odpowiedzialności za filmy wideo przesyłane przez użytkowników, czy zabezpieczenia określone w sekcji 230 nadal mają zastosowanie, gdy używają algorytmów do polecania treści użytkownikom?
Eksperci w dziedzinie technologii i prawa twierdzą, że sprawa ma implikacje wykraczające poza platformy mediów społecznościowych. Uważają, że werdykt może wywołać nową debatę na temat tego, czy firmy takie jak OpenAI i Google, które opracowują chatboty AI, mogą być odporne na roszczenia prawne, takie jak zniesławienie lub naruszenie prywatności. Eksperci zwracają uwagę, że dzieje się tak, ponieważ algorytm używany przez ChatGPT i innych jest podobny do sposobu, w jaki rekomenduje filmy użytkownikom YouTube.
Co robią chatboty AI?
Chatboty AI są szkolone do generowania ogromnych ilości oryginalnych treści, a sekcja 230 ma ogólnie zastosowanie do treści osób trzecich. Sądy muszą jeszcze rozważyć, czy odpowiedzi chatbota AI będą chronione. Demokratyczny senator powiedział, że immunitet nie może dotyczyć generatywnych narzędzi sztucznej inteligencji, ponieważ te narzędzia „tworzą treści”. „Sekcja 230 dotyczy ochrony użytkowników i stron internetowych hostujących i organizujących wypowiedzi użytkowników. Nie powinno to izolować firm od konsekwencji ich własnych działań i produktów” – powiedział.
Branża technologiczna naciska na utrzymanie sekcji 230. Niektórzy uważają, że narzędzia takie jak ChatGPT są jak wyszukiwarki, służące istniejące treści użytkownikom na podstawie zapytań. „AI tak naprawdę niczego nie tworzy. Po prostu przedstawia istniejące treści w inny sposób lub w innym formacie” – powiedział Carl Szabo, wiceprezes i główny radca prawny w grupie handlowej NetChoice z branży technologicznej.
Szabo powiedział, że jeśli sekcja 230 zostanie osłabiona, to stworzyłoby niemożliwe zadanie dla programistów AI. Narazi to ich również na powódź procesów sądowych, które mogą zdusić innowacje. Niektórzy eksperci spekulują, że sądy mogą zająć neutralne stanowisko i zbadać kontekst, w którym modele AI generują potencjalnie szkodliwe reakcje.
Gizchina Aktualności tygodnia
Zwolnienia mogą nadal obowiązywać w przypadkach, gdy model sztucznej inteligencji wydaje się być w stanie wyjaśnić istniejące źródła. Wiadomo jednak, że chatboty, takie jak ChatGPT, generują fałszywe odpowiedzi, które zdaniem ekspertów mogą nie być chronione.
Hanny Farid, technolog i profesor na Univ. z Kalifornii w Berkeley powiedział, że myślenie, że twórcy sztucznej inteligencji powinni być chronieni przed procesami sądowymi w związku z modelami, które „programują, szkolą i wdrażają”, jest naciągane.
„Jeśli firmy mogą zostać pociągnięte do odpowiedzialności w procesach cywilnych, to bezpieczniejsze produkty; jeśli są zwolnione, produkty wydają się być mniej bezpieczne” – powiedział Farid.
Problemy z narzędziami AI, takimi jak ChatGPT
Chatboty AI są obecnie bardzo popularne w dzisiejszym świecie. Wynika to z faktu, że zapewniają one skuteczny i wygodny sposób interakcji między ludźmi. Te chatboty są w stanie przetwarzać język naturalny i udzielać odpowiednich odpowiedzi na zapytania. To czyni je użytecznym narzędziem do obsługi klienta, sprzedaży i wsparcia. Pojawiły się jednak obawy dotyczące bezpieczeństwa korzystania z chatbotów AI, głównie pod względem prywatności i bezpieczeństwa.
Jednym z głównych problemów związanych z chatbotami AI może być luka w przypadku naruszeń danych i cyberataków. Ponieważ chatboty często wymagają od użytkowników podania danych osobowych, takich jak imię i nazwisko, adres i szczegóły płatności, istnieje ryzyko, że te informacje mogą zostać skradzione. Aby zmniejszyć to ryzyko, firmy muszą zapewnić bezpieczeństwo swoich chatbotów i stosować metody szyfrowania w celu ochrony danych użytkowników.
Kolejnym problemem związanym z chatbotami AI jest potencjalna stronniczość systemu. Ponieważ te chatboty są programowane przez ludzi, mogą to być uprzedzenia i stereotypy istniejące w społeczeństwie. Na przykład chatbot zaprojektowany do sprawdzania osób poszukujących pracy może dyskryminować określone grupy ze względu na ich rasę, płeć lub pochodzenie etniczne. Aby tego uniknąć, programiści chatbotów muszą upewnić się, że ich algorytmy są prawie idealne i bezstronne.
Istnieje również ryzyko, że chatboty AI mogą nie być w stanie obsłużyć złożonych zapytań. Obejmuje to te, które odnoszą się do zdrowia psychicznego lub przemocy domowej. W takich przypadkach użytkownicy mogą nie otrzymać pomocy, której potrzebują. Oczywiście jest to jeden z obszarów, w których ludzie chcą, aby chatboty ponosiły odpowiedzialność. Jeśli udzielą niewłaściwej odpowiedzi w niektórych scenariuszach, wynik może być bardzo zły.
Ostatnie słowa
Pomimo tych obaw chatboty AI mogą być bezpieczne w użyciu, jeśli są właściwie używane. Niektórzy chcą używać chatbotów AI, aby zastąpić lekarzy i innych ekspertów. Nie są to idealne zastosowania tego narzędzia. Twórcy muszą za wszelką cenę unikać stronniczości i zapewnić, że system jest otwarty. Nie należy też pozostawiać chatbotów do pracy bez obecności człowieka. Od czasu do czasu należy je sprawdzać i w razie potrzeby aktualizować. Aby upewnić się, że korzystanie z nich jest bezpieczne, programiści muszą zająć się problemami związanymi z bezpieczeństwem, prywatnością, stronniczością i ograniczeniami chatbotów. Dzięki odpowiednim narzędziom chatboty AI mogą bardzo łatwo wyszukiwać informacje. Może to być również całkiem przyzwoity asystent dla wielu osób, które potrzebują pomocy z informacjami.
Źródło/VIA: