Di era di mana kecerdasan buatan (AI) dan pembelajaran mesin semakin terintegrasi ke dalam kehidupan kita sehari-hari, potensi penyalahgunaan juga meningkat. Contoh baru-baru ini menunjukkan seberapa cepat dan efisien seseorang dengan keterampilan teknis terbatas dapat membuat malware yang kuat dan tidak terdeteksi menggunakan AI, khususnya chatbot generatif OpenAI, ChatGPT.
ChatGPT mampu membuat malware tingkat lanjut dan menimbulkan ancaman yang signifikan
Gambar: OpenAI
Aaron Mulgrew, peneliti keamanan dan pemula yang memproklamirkan diri di Forcepoint, menguji batas kemampuan ChatGPT. Dia menemukan celah yang memungkinkannya membuat malware canggih, zero day hanya dalam beberapa jam. Prestasi ini sangat penting mengingat fakta bahwa Mulgrew tidak memiliki pengalaman sebelumnya dalam pengkodean.
OpenAI telah menerapkan pengamanan untuk mencegah pengguna mendorong ChatGPT untuk menulis kode berbahaya. Namun, Mulgrew dapat melewati perlindungan ini dengan meminta chatbot untuk menghasilkan setiap baris kode berbahaya, dengan fokus pada fungsi terpisah. Setelah mengkompilasi berbagai fungsi, Mulgrew berakhir dengan eksekusi pencurian data yang sangat canggih yang hampir tidak mungkin dideteksi.
Mulgrew menciptakan malwarenya sendiri, tidak seperti malware tradisional yang membutuhkan tim peretas dan sumber daya yang besar, dan dalam waktu singkat. Situasi ini menekankan potensi risiko terkait alat bertenaga AI seperti ChatGPT. Ini juga menimbulkan pertanyaan tentang keamanan mereka dan seberapa mudah mereka dapat dieksploitasi.
Malware ChatGPT: Melihat Lebih Dekat
malware Mulgrew menyamar sebagai aplikasi screensaver dengan ekstensi SCR. Saat diluncurkan pada sistem Windows, malware menyaring file, seperti gambar, dokumen Word, dan PDF, untuk menemukan data berharga untuk dicuri.
Salah satu aspek yang paling mengesankan dari malware ini adalah penggunaan steganografi, sebuah teknik yang memungkinkannya memecah data yang dicuri menjadi fragmen yang lebih kecil dan menyembunyikannya di dalam gambar di komputer yang terinfeksi. Pengguna mengunggah gambar ini ke folder Google Drive, dan proses ini secara efektif menghindari deteksi oleh perangkat lunak keamanan.
Mulgrew menunjukkan betapa mudahnya menyempurnakan dan memperkuat kode terhadap deteksi menggunakan petunjuk sederhana di ChatGPT. Dalam pengujian awal menggunakan VirusTotal, malware awalnya terdeteksi oleh hanya lima dari 69 produk pendeteksi. Namun, versi kode yang lebih baru benar-benar tidak terdeteksi.
Penting untuk dicatat bahwa malware Mulgrew dibuat untuk tujuan penelitian dan tidak tersedia untuk umum. Namun demikian, eksperimennya menyoroti kemudahan pengguna yang tidak memiliki keterampilan pengkodean tingkat lanjut dapat mengeksploitasi perlindungan lemah ChatGPT untuk membuat malware berbahaya tanpa menulis satu baris kode pun.
Gizchina News of the week
Implikasi Pembuatan Malware Berbantuan AI
Eksperimen Mulgrew mengkhawatirkan. Malware yang kompleks membutuhkan waktu berminggu-minggu bagi peretas yang terampil untuk berkembang. Alat bertenaga AI seperti ChatGPT membuat proses lebih mudah, lebih cepat, dan lebih mudah diakses. Bahkan orang yang tidak memiliki pengalaman coding dapat membuat malware. Peretas jahat mungkin sudah menggunakan metode serupa. Mereka membuat malware tingkat lanjut untuk tujuan yang buruk.
Ada kebutuhan untuk pendekatan multifaset terhadap AI dan keamanan siber. Pengembang harus memprioritaskan pengamanan untuk mencegah penyalahgunaan. Pengguna harus diberitahu tentang potensi risiko. Penting untuk tetap waspada. Alat bertenaga AI harus digunakan dengan hati-hati.
Komunitas keamanan siber perlu beradaptasi dengan perubahan. Strategi baru harus dilakukan untuk memerangi ancaman yang dibantu AI. Kolaborasi adalah kunci antara peneliti, pengembang, dan pakar keamanan. Kita perlu memastikan bahwa AI tidak membahayakan keamanan digital kita. Sangat penting untuk bekerja sama.
Eksperimen Malware Mulgrew berfungsi sebagai pengingat yang gamblang tentang sifat ganda AI dan teknologi pembelajaran mesin. Alat AI memiliki potensi besar untuk kemajuan. Mereka juga bisa berisiko di tangan yang salah. Kita perlu menyeimbangkan manfaat dan bahaya AI. Setiap orang perlu bekerja sama untuk pengembangan dan penggunaan AI yang bertanggung jawab dan aman. Ini penting untuk alat seperti ChatGPT.
Bisakah ChatGPT diakali untuk membuat malware canggih?
Kami menanyakan pertanyaan itu ke ChatGPT, dan inilah jawabannya:
ChatGPT adalah model bahasa yang dirancang untuk menghasilkan teks mirip manusia.
ChatGPT telah dilatih pada korpus teks yang besar, termasuk dokumen teknis dan kode perangkat lunak.
Sedangkan itu memiliki kemampuan untuk menghasilkan teks yang canggih, itu tidak dapat membuat malware yang sebenarnya.
Membuat malware melibatkan penulisan kode, yang berada di luar cakupan yang dapat dilakukan ChatGPT.
Selain itu, membuat malware tidak etis dan ilegal, dan bertentangan dengan tujuan ChatGPT, yaitu untuk memfasilitasi komunikasi dan berbagi pengetahuan.
Namun, seseorang dapat menggunakan ChatGPT untuk menghasilkan teks yang dapat digunakan dalam pembuatan malware.
Misalnya, ChatGPT dapat digunakan untuk menghasilkan teks yang berisi petunjuk untuk mengeksploitasi kerentanan dalam aplikasi perangkat lunak.
Teks ini kemudian dapat digunakan oleh pengembang yang terampil untuk membuat malware yang sebenarnya.
Untuk mencegah penyalahgunaan semacam ini, penting untuk memastikan bahwa ChatGPT hanya digunakan untuk tujuan etika dan hukum.
Hal ini dapat dicapai melalui pemantauan dan regulasi penggunaannya, serta pendidikan dan peningkatan kesadaran tentang potensi risiko yang terkait dengan penyalahgunaannya.
Penting juga untuk diingat bahwa ChatGPT hanyalah salah satu alat di antara banyak alat yang dapat digunakan dalam pembuatan perangkat lunak perusak.
Alat dan teknik lain, seperti rekayasa balik dan penyamaran kode, juga umum digunakan dalam pengembangan perangkat lunak perusak.
Oleh karena itu, penting untuk menggunakan pendekatan holistik untuk keamanan siber, yang mencakup tidak hanya mencegah penyalahgunaan alat seperti ChatGPT tetapi juga menerapkan langkah-langkah keamanan yang kuat dan tetap mengikuti perkembangan ancaman dan kerentanan terbaru.
Kesimpulannya, meskipun ChatGPT tidak dapat membuat malware di itu sendiri, dapat digunakan untuk menghasilkan teks yang dapat digunakan dalam pembuatan malware oleh pengembang terampil.
Untuk mencegah penyalahgunaan semacam ini, penting untuk memastikan bahwa ChatGPT hanya digunakan untuk etika dan tujuan hukum dan mengambil pendekatan holistik untuk keamanan siber.
Sumber/VIA: