Cảnh sát ở Trung Quốc đã triệt phá hai băng đảng khác nhau sử dụng ChatGPT để tạo video giả mạo . Một trong những đợt bùng phát diễn ra vào tháng Năm trong khi đợt còn lại vào tháng Sáu. ChatGPT là một chatbot AI được phát triển bởi OpenAI do Microsoft hậu thuẫn, cho phép người dùng tạo phản hồi dựa trên lời nhắc và câu hỏi của người dùng. Băng đảng này đã mua trái phép một loạt tài khoản video kể từ tháng 5 năm 2023 để sử dụng ChatGPT nhằm tạo video giả mạo.
Trung Quốc cấm ChatGPT
Các nhà quản lý Trung Quốc đã báo cáo kiểm soát quyền truy cập vào ChatGPT. Tuy nhiên, các công ty công nghệ và trường học Trung Quốc đang đẩy mạnh phát triển các bot AI trong nước. ChatGPT không chính thức có sẵn ở Trung Quốc, nơi chính phủ vận hành tường lửa chi tiết và kiểm duyệt internet nghiêm ngặt. Nhưng nhiều người đã truy cập nó qua VPN. Ngoài ra, một số nhà phát triển bên thứ ba đã tạo ra các chương trình cung cấp một số quyền truy cập vào dịch vụ. Tìm kiếm ChatGPT trên nền tảng Trung Quốc không còn trả lại kết quả. Tuy nhiên, các chương trình giải pháp thay thế đã bị vô hiệu hóa hoặc bị thay thế bằng một thông báo cho biết họ đã bị đình chỉ vì “vi phạm các luật và quy định có liên quan”.
Việc cấm ChatGPT ở Trung Quốc không có gì ngạc nhiên vì quốc gia châu Á này khá nghiêm khắc với luật pháp của mình. Chính phủ Trung Quốc đã đàn áp tuyên truyền chính trị và thông tin sai lệch. Theo các báo cáo, nó coi khả năng tạo văn bản của ChatGPT là mối đe dọa đối với quyền kiểm soát của nó đối với luồng thông tin.
Bùng nổ tháng 5 năm 2023: Vụ lừa đảo qua video ChatGPT
Cảnh sát báo cáo từ tỉnh Cam Túc phía tây bắc Trung Quốc đề cập đến một nghi phạm là thành viên của một băng đảng. Chỉ được xác định bằng họ của mình, Hong, anh ta đã sử dụng ChatGPT để tạo một bài báo giả mạo về một vụ tai nạn được cho là dẫn đến cái chết của 9 công nhân xây dựng ở Cam Túc. Câu chuyện này đã lan truyền nhanh chóng và thậm chí các nguồn tin tức hợp pháp cũng bị lừa bởi câu chuyện giả mạo.
Trở lại tháng 5, cảnh sát Thiệu Hưng phát hiện ra rằng cùng một băng nhóm đã mua trái phép một loạt tài khoản video và sử dụng chúng để tạo giả mạo video bằng ChatGPT. Cảnh sát đã bắt giữ một người đàn ông sử dụng ChatGPT để tạo tin giả về một vụ tai nạn tàu hỏa. Đây là một trong những hành động thực thi đầu tiên theo luật Trung Quốc ban hành gần đây quy định về “hàng giả sâu” do AI tạo ra. Theo cảnh sát, tác phẩm của băng nhóm này là những hình ảnh kỹ thuật số, video hoặc phương tiện khác có vẻ giống thật nhưng được ngụy tạo.
Đơn vị cảnh sát an ninh mạng địa phương đã được thông báo về bài báo về vụ tai nạn tàu hỏa — được đăng vào ngày 25 tháng 4. Sau đó nó đưa ra một thăm dò về vấn đề này. Hong sau đó thừa nhận anh ta đã sử dụng ChatGPT để tạo tin tức giả về vụ tai nạn tàu hỏa trước khi đăng chúng lên mạng. Vụ bắt giữ Hong là vụ bắt giữ đầu tiên kể từ khi quy định mới của Trung Quốc về công nghệ giả sâu có hiệu lực vào tháng Giêng. Luật nhằm ngăn chặn việc lạm dụng công nghệ có thể thay đổi dữ liệu khuôn mặt và giọng nói. Và mặc dù ChatGPT bị cấm ở Trung Quốc, vẫn có những cách giải quyết như mạng riêng ảo.
Tin tức trong tuần của Gizchina
Bùng nổ tháng 6: Cảnh sát Trung Quốc triệt phá một băng nhóm tung tin đồn
Vụ nổ lớn thứ hai xảy ra vào tháng 6 năm 2023. Vào ngày 2 tháng 6, cảnh sát Thượng Ngu phát hiện trong một cuộc điều tra thăm dò trực tuyến rằng một người dùng ứng dụng có tên “Shangyi Explanation” đã phát hành một video về vụ cháy ở Khu công nghiệp Thượng Ngu. Số lượt xem trên video tăng nhanh chóng trong một khoảng thời gian ngắn. Cảnh sát đã kiểm tra lại video và phát hiện ra rằng đó là tin giả. Cảnh sát Shangyu cũng phát hiện ra một nhóm công nghệ ở một tỉnh khác có liên quan đến vụ án. Ngày 5/6, cảnh sát ập vào các tỉnh khác và bắt giữ 3 nghi phạm.
Sau khi điều tra, nhóm pr băng đảng này đã chiếm đoạt trái phép một số tài khoản video từ Internet từ tháng 5. Nó đã ghép các video và tạo ra các video giả mạo thông qua công nghệ ChatGPT để xuất bản mạng nhằm thu hút lưu lượng truy cập. Lưu lượng truy cập dẫn đến lợi nhuận cho nhóm. Cho đến nay, băng nhóm này đã mua trái phép hơn 1.500 tài khoản video và phát hành hơn 3.000 video giả mạo. Nghi phạm bị bắt kể từ đó đã thú nhận tội ác nhưng cảnh sát vẫn đang điều tra thêm để tìm thêm nghi phạm.
Tranh luận về Quy định AI
Lệnh cấm ChatGPT ở Trung Quốc và những lo ngại về tính xác thực đã dấy lên một cuộc tranh luận về quy định AI. Vào tháng 1 năm 2023, Cục Quản lý Không gian mạng Trung Quốc đã ban hành các quy định mới để hạn chế việc sử dụng công nghệ AI. Cơ quan bảo vệ dữ liệu của Ý, Garante, đã áp đặt lệnh cấm tạm thời đối với ChatGPT, một chatbot sử dụng AI để tạo ra các văn bản có vẻ như chúng được tạo bởi con người và trò chơi máy tính.
Cơ quan giám sát ít quan tâm hơn bởi sử dụng AI hơn là do vi phạm luật bảo vệ dữ liệu. Sau đó, Garante nói với công ty do Microsoft Corp hậu thuẫn đứng sau ChatGPT, OpenAI, rằng họ sẽ phải minh bạch hơn với người dùng về cách dữ liệu của họ được xử lý. Nó cũng nói rằng công ty Hoa Kỳ đã phải xin phép người dùng đối với một số người dùng nhất định. Nếu dữ liệu người dùng được sử dụng để phát triển thêm phần mềm, thì nó sẽ cần sự cho phép của người dùng. Ngoài ra, nó nói rằng OpenAi phải lọc quyền truy cập vào tính năng này đối với trẻ vị thành niên.
Lời cuối cùng
Trường hợp lừa đảo qua video ChatGPT cho thấy sự cần thiết phải có quy định và kiểm soát công nghệ AI ở Trung Quốc. Mặc dù ChatGPT có thể là một công cụ hữu ích để tạo các cuộc trò chuyện dựa trên lời nhắc và câu hỏi của người dùng, nhưng nó cũng có thể được sử dụng để tạo tin tức và video giả mạo. Chính phủ Trung Quốc đã và đang nỗ lực điều chỉnh và kiểm soát việc sử dụng công nghệ AI, bao gồm cả ChatGPT, khi công nghệ này ngày càng tiên tiến hơn. Việc trấn áp băng đảng đã sử dụng ChatGPT để tạo video giả mạo là một bước đi đúng hướng nhằm đảm bảo rằng công nghệ AI được sử dụng một cách có trách nhiệm và có đạo đức.
Do đó, luôn có nguy cơ xảy ra các vụ giả mạo sâu do AI tạo ra, cần phải điều chỉnh việc sử dụng công nghệ AI. Khi mức độ phổ biến của ChatGPT tiếp tục tăng lên, có khả năng chúng ta sẽ thấy nhiều trường hợp gian lận và lạm dụng hơn. Những giả mạo sâu này có thể dễ dàng truyền âm thanh, video hoặc hình ảnh thực. Do đó, điều rất quan trọng là người dùng phải cảnh giác và báo cáo bất kỳ hoạt động đáng ngờ nào cho các cơ quan có thẩm quyền thích hợp.
Nguồn/VIA: