Policja w Chinach rozprawiła się z gangiem, który używał ChatGPT do tworzenia fałszywych filmów. ChatGPT to chatbot AI opracowany przez Microsoft – wspierany przez OpenAI, który umożliwia użytkownikom generowanie odpowiedzi na podstawie monitów i pytań użytkowników. Gang nielegalnie kupił partię kont wideo od maja 2023 r., aby używać ChatGPT do tworzenia fałszywych filmów.
Chiński zakaz korzystania z ChatGPT
Chiński regulator podobno zablokowany dostęp do ChatGPT. Jednak chińskie firmy technologiczne i szkoły dążą do rozwoju krajowych botów AI. ChatGPT nie jest oficjalnie dostępny w Chinach, gdzie rząd prowadzi szczegółową zaporę ogniową i surową cenzurę internetową. Ale wielu uzyskiwało do niego dostęp za pośrednictwem VPN. Ponadto niektórzy zewnętrzni programiści stworzyli programy, które dawały pewien dostęp do usługi. Wyszukiwania ChatGPT na chińskich platformach nie zwracają już wyników. Jednak programy obejściowe zostały wyłączone lub zastąpione powiadomieniem informującym, że zostały zawieszone z powodu „naruszenia odpowiednich praw i przepisów”.
Zakaz ChatGPT w Chinach nie jest niespodzianką, ponieważ naród azjatycki dość surowo przestrzega swoich praw. Chiński rząd rozprawił się z polityczną propagandą i dezinformacją. Według raportów, postrzega zdolność ChatGPT do generowania tekstu jako zagrożenie dla kontroli nad przepływem informacji.
Sprawa oszustwa wideo ChatGPT
Po dochodzeniu policja Shaoxing odkrył, że gang nielegalnie kupił partię kont wideo od maja 2023 r. used-chatgpt-to-spread-fake-news.html”target=”_self”> ChatGPT do tworzenia fałszywych filmów. Policja nie podała szczegółów dotyczących treści fałszywych filmów ani sposobu ich wykorzystania. Jednak nie jest to pierwszy raz, kiedy ChatGPT jest używany do tworzenia fałszywych wiadomości w Chinach. W maju 2023 roku chińska policja aresztowała mężczyznę, który wykorzystał ChatGPT do stworzenia fałszywych wiadomości o katastrofie kolejowej. Jest to jedno z pierwszych działań egzekucyjnych na mocy niedawno uchwalonego chińskiego prawa regulującego „głębokie podróbki” generowane przez sztuczną inteligencję — pozornie realistyczne, ale sfabrykowane cyfrowe obrazy, filmy lub inne media.
Według raportu policyjnego z północnego zachodu Chińska prowincja Gansu, mężczyzna identyfikowany tylko przez nazwisko Hong, wykorzystał ChatGPT do stworzenia fałszywego artykułu informacyjnego o wypadku, który rzekomo doprowadził do śmierci dziewięciu pracowników budowlanych w Gansu. Ta historia stała się wirusowa i nawet wiarygodne źródła wiadomości zostały oszukane przez fałszywą historię.
Lokalna jednostka policji ds. bezpieczeństwa cybernetycznego została powiadomiona o artykule o katastrofie kolejowej — opublikowanym 25 kwietnia. materiał. Następnie Hong przyznał, że użył ChatGPT do stworzenia fałszywych wiadomości o katastrofach kolejowych przed opublikowaniem ich w Internecie. Aresztowanie Honga jest pierwszym zatrzymaniem od czasu, gdy w styczniu weszło w życie nowe chińskie rozporządzenie dotyczące głębokiej fałszywej technologii. Prawo ma na celu zapobieganie niewłaściwemu wykorzystaniu technologii, która może zmieniać dane dotyczące twarzy i głosu. Chociaż ChatGPT jest zakazany w Chinach, istnieją obejścia, takie jak wirtualne sieci prywatne.
Gizchina Wiadomości tygodnia
Chińska policja rozbija gang plotek
Ponadto 2 czerwca policja Shangyu odkryła podczas sondy online, że użytkownik aplikacji o nazwie „Shangyi Explanation” ” opublikował film o pożarze w parku przemysłowym Shangyu. Liczba wyświetleń filmu szybko wzrosła w krótkim czasie. Policja dwukrotnie sprawdziła nagranie i stwierdziła, że to fake news. Policja Shangyu zauważyła również grupę technologiczną w innej prowincji powiązaną z przestępstwem. 5 czerwca policja udała się do innych prowincji i aresztowała trzech podejrzanych.
Po przeprowadzeniu dochodzenia grupa gang pr nielegalnie nabyła od maja wiele kont wideo z Internetu. Połączył filmy i wyprodukował fałszywe filmy za pośrednictwem technologii ChatGPT w celu opublikowania sieci w celu zwiększenia ruchu. Ruch doprowadził do zysków dla grupy. Do tej pory gang nielegalnie kupił ponad 1500 kont wideo i opublikował ponad 3000 fałszywych filmów. Od tego czasu aresztowany podejrzany przyznał się do popełnienia przestępstwa, ale policja nadal prowadzi dochodzenie w celu wykrycia większej liczby podejrzanych.
Debata na temat regulacji AI
Zakaz korzystania z ChatGPT w Chinach i obawy co do autentyczności wywołały debata na temat regulacji AI. W styczniu 2023 r. chińska administracja ds. cyberprzestrzeni uchwaliła nowe przepisy ograniczające korzystanie z technologii sztucznej inteligencji. Włoski organ ochrony danych, Garante, nałożył tymczasowy zakaz na ChatGPT, chatbota, który wykorzystuje sztuczną inteligencję do generowania tekstów, które wydają się być tworzone przez ludzi i gry komputerowe.
Organ nadzoru był mniej zaniepokojony wykorzystania sztucznej inteligencji niż przez naruszenia przepisów o ochronie danych. Następnie Garante powiedział firmie wspieranej przez Microsoft Corp, stojącej za ChatGPT, OpenAI, że będzie musiała być bardziej przejrzysta dla swoich użytkowników, jeśli chodzi o sposób przetwarzania ich danych. Stwierdzono również, że amerykańska firma musiała uzyskać pozwolenie od użytkowników dla niektórych użytkowników. Jeśli dane użytkownika miałyby być wykorzystywane do dalszego rozwijania oprogramowania, będzie to wymagało zgody użytkownika. Mówi się również, że OpenAi musi filtrować dostęp do tej funkcji dla nieletnich.
Ostateczne słowa
Przypadek oszustwa wideo ChatGPT ujawnia potrzebę regulacji i kontroli technologii sztucznej inteligencji w Chinach. Chociaż ChatGPT może być przydatnym narzędziem do tworzenia czatów w oparciu o podpowiedzi i pytania użytkowników, może być również używany do tworzenia fałszywych wiadomości i filmów. Chiński rząd pracuje nad regulacją i kontrolą wykorzystania technologii sztucznej inteligencji, w tym ChatGPT, w miarę jak technologia staje się bardziej zaawansowana. Rozprawa z gangiem, który wykorzystywał ChatGPT do tworzenia fałszywych filmów, jest krokiem we właściwym kierunku w kierunku zapewnienia, że sztuczna inteligencja jest wykorzystywana w sposób odpowiedzialny i etyczny.
Zawsze istnieje niebezpieczeństwo tworzenia przez sztuczną inteligencję głębokich podróbek, dlatego istnieje potrzeba uregulowania korzystania z technologii sztucznej inteligencji. Ponieważ popularność ChatGPT stale rośnie, prawdopodobnie zobaczymy więcej przypadków oszustw i nadużyć. Te głębokie podróbki mogą z łatwością przekazać prawdziwy dźwięk, wideo lub obraz. Dlatego bardzo ważne jest, aby użytkownicy byli czujni i zgłaszali wszelkie podejrzane działania odpowiednim władzom.
Źródło/VIA: