Pusat Keamanan Siber Nasional (NCSC) Inggris Raya memperingatkan publik tentang bahaya ChatGPT. Model kecerdasan buatan ini mulai populer setelah diluncurkan beberapa bulan lalu. Setelah tersedia untuk umum, banyak orang berduyun-duyun mencoba kemampuannya dengan berbagai cara.
Beberapa orang meminta resep masakan tertentu, jawaban atas pertanyaan tugas, dan pertanyaan acak lainnya. Tanggapan model kecerdasan buatan ini terhadap berbagai pertanyaan yang dilontarkan sangat mengejutkan banyak orang. Karena alasan ini, semakin banyak orang yang ingin mencoba ChatGPT, sehingga meningkatkan popularitasnya.
Sekarang sistem yang menjalankan model kecerdasan buatan ini telah menerima peningkatan. Sistem GPT-4 membawa peningkatan pada kemampuan percakapan berbagai model kecerdasan buatan yang mengandalkannya. Dengan meningkatnya adopsi model kecerdasan buatan ini, apakah ada bahaya yang ditimbulkannya bagi masyarakat? Sebuah pembaruan terkini menyoroti beberapa, mari kita cermati bahaya ini.
Menurut Pusat Keamanan Siber Nasional (NCSC) inilah bahaya ChatGPT
Pusat Keamanan Siber Nasional Inggris (NCSC) telah memperingatkan masyarakat akan bahaya ChatGPT. Mereka melakukannya dengan blog terbaru memposting di situs web resmi mereka, tempat mereka mendalami ChatGPT dan model bahasa besar (LLM).
Dengan semakin populernya model kecerdasan buatan ini, ada kebutuhan untuk mengetahui risikonya mungkin berpose. Nah, Pusat Keamanan Siber Nasional Inggris (NCSC) telah melakukan penelitian untuk membantu mencerahkan publik. Dari temuan mereka, pengguna ChatGPT dan LLM lainnya akan mengetahui jurusan apa yang harus diambil dengan model kecerdasan buatan ini.
Salah satu pengamatan pertama yang perlu diperhatikan dengan model kecerdasan buatan adalah bahwa mereka mungkin menyesatkan. Beberapa informasi yang mereka berikan untuk permintaan pengguna mungkin salah, bias, kasar, dll. Karena alasan ini, pengguna ChatGPT dan LLM lainnya harus memperhatikan konten yang mereka konsumsi dari model kecerdasan buatan ini.
Di sana juga perlu berhati-hati tentang jenis informasi yang Anda bagikan dengan platform ini. National Cyber Security Center (NCSC) menyarankan untuk tidak membagikan informasi sensitif dengan ChatGPT atau LLM lainnya. Platform ini mungkin tidak mengungkapkan informasi pengguna, tetapi mereka memiliki akses ke kueri pengguna dan dapat diretas, sehingga mengungkapkan kueri ini ke publik.
Untuk alasan ini, cobalah untuk tidak mengajukan pertanyaan yang cukup sensitif ke platform semacam itu. untuk kehidupan pribadi atau pekerjaan Anda. Bahaya ChatGPT dan LLM lainnya juga mencakup bagaimana penjahat dunia maya dan aktor jahat dapat menggunakannya. Jadi, saat Anda mencoba model bahasa besar baru atau yang sudah ada, penting untuk memahami risiko yang ditimbulkannya.