Không có gì bí mật khi kể từ khi ra mắt, ChatGPT đã thu hút sự chú ý của những người đam mê công nghệ cũng như các nhà lãnh đạo ngành nhờ khả năng đàm thoại và viết mã ấn tượng. Tuy nhiên, trong khi cuộc cách mạng AI mới này sẽ mang đến những khả năng thú vị cho tương lai, thì Europol, cơ quan thực thi pháp luật của Liên minh Châu Âu, đã làm dấy lên lo ngại về khả năng lạm dụng chatbot AI ChatGPT trong tội phạm mạng, thông tin sai lệch và lừa đảo.
Europol cho biết: “Khi khả năng của các LLM (mô hình ngôn ngữ lớn) như ChatGPT đang tích cực được cải thiện, thì khả năng bọn tội phạm khai thác các loại hệ thống AI này sẽ mang đến một viễn cảnh tồi tệ,” Europol cho biết.
Việc sử dụng ChatGPT trong lừa đảo và tội phạm mạng
Theo cơ quan này, tội phạm mạng có thể sử dụng khả năng của ChatGPT để tạo ra văn bản có tính thực tế cao nhằm bắt chước phong cách nói của các cá nhân hoặc nhóm cụ thể và nhắm mục tiêu vào các nạn nhân cả tin. Trên thực tế, những kẻ lừa đảo đã sử dụng AI như ChatGPT để tạo các video YouTube bị nhiễm phần mềm độc hại, sử dụng bản ghi màn hình hoặc hướng dẫn âm thanh với hình đại diện do AI tạo để mô tả cách tải xuống và cài đặt phần mềm bẻ khóa.
Ngoài ra, khả năng tạo ra văn bản có âm thanh chân thực trên quy mô lớn của ChatGPT cũng khiến ChatGPT trở nên lý tưởng cho hoạt động tuyên truyền và thông tin sai lệch. Vì bọn tội phạm có thể tạo và lan truyền các thông điệp phản ánh một câu chuyện cụ thể, khiến mọi người hiểu lầm và thao túng dư luận mà không tốn nhiều công sức. Ngoài ra, Europol cũng nêu bật khả năng sử dụng chatbot để tạo mã độc, vì bất kỳ ai cũng có thể sử dụng khả năng tạo ngôn ngữ và khả năng tự động hóa của ChatGPT để tạo mã độc và sử dụng nó trong các cuộc tấn công mạng.
Mặc dù lợi ích của công nghệ AI là Rõ ràng, điều quan trọng là phải giải quyết các rủi ro tiềm ẩn liên quan đến việc sử dụng sai. Báo cáo của Europol nhấn mạnh sự cần thiết của một khung pháp lý mạnh mẽ giúp cân bằng giữa đổi mới và bảo mật, đảm bảo rằng công nghệ mà chúng tôi tạo ra mang lại lợi ích cho xã hội đồng thời ngăn chặn việc sử dụng công nghệ đó với mục đích xấu. Hơn nữa, các công ty như Microsoft và OpenAI sẽ phải áp dụng các biện pháp bảo vệ để ngăn chặn hành vi sử dụng có mục đích xấu.