Bukan rahasia lagi bahwa sejak peluncurannya, ChatGPT telah memikat perhatian para penggemar teknologi dan pemimpin industri dengan kemampuan menulis kode dan percakapannya yang mengesankan. Namun, sementara revolusi AI baru ini akan menawarkan kemungkinan menarik untuk masa depan, Europol, lembaga penegak hukum Uni Eropa, memiliki memunculkan kekhawatiran tentang potensi penyalahgunaan chatbot AI ChatGPT dalam kejahatan dunia maya, disinformasi, dan phishing.
“Karena kemampuan LLM (model bahasa besar) seperti ChatGPT secara aktif ditingkatkan, potensi eksploitasi jenis sistem AI ini oleh penjahat memberikan pandangan yang suram,” kata Europol.
Penggunaan ChatGPT dalam phishing dan kejahatan dunia maya
Menurut agensi, penjahat dunia maya dapat menggunakan kemampuan ChatGPT untuk menghasilkan teks yang sangat realistis untuk meniru gaya bicara individu atau kelompok tertentu dan menargetkan korban yang tidak menaruh curiga. Faktanya, scammer sudah menggunakan AI seperti ChatGPT untuk membuat video YouTube yang terinfeksi malware, menggunakan rekaman layar atau panduan audio dengan avatar buatan AI untuk menjelaskan cara mendownload dan menginstal software crack.
Selain itu, kemampuan ChatGPT untuk menghasilkan teks yang terdengar autentik dalam skala besar juga menjadikannya ideal untuk propaganda dan disinformasi. Karena penjahat dapat menghasilkan dan menyebarkan pesan yang mencerminkan narasi tertentu, menyesatkan orang dan memanipulasi opini publik dengan usaha yang relatif sedikit. Selain itu, Europol juga menyoroti potensi penggunaan chatbot untuk menghasilkan kode berbahaya, karena siapa pun dapat menggunakan pembuatan bahasa dan kemampuan otomatisasi ChatGPT untuk menghasilkan kode berbahaya dan menggunakannya dalam serangan cyber.
Sementara manfaat teknologi AI adalah jelas, sangat penting untuk mengatasi potensi risiko yang terkait dengan penyalahgunaannya. Laporan Europol menggarisbawahi perlunya kerangka peraturan yang kuat yang menyeimbangkan inovasi dan keamanan, memastikan bahwa teknologi yang kami buat bermanfaat bagi masyarakat sambil mencegah penggunaannya yang berbahaya. Selanjutnya, perusahaan seperti Microsoft dan OpenAI harus menerapkan pengamanan untuk mencegah penggunaan yang berbahaya.