Pusat Keselamatan Siber Kebangsaan (NCSC) UK sedang memaklumkan orang ramai tentang bahaya ChatGPT. Model kecerdasan buatan ini mendapat populariti selepas pelancarannya beberapa bulan lalu. Selepas ia tersedia kepada orang ramai, ramai orang datang untuk mencuba kebolehannya dalam pelbagai cara.

Sesetengah orang meminta resipi untuk hidangan tertentu, jawapan kepada soalan tugasan dan soalan rawak yang lain. Tanggapan model kecerdasan buatan ini terhadap pelbagai soalan yang dilontarkan membuatkan ramai orang kagum. Atas sebab ini, lebih ramai orang ingin mencuba ChatGPT, justeru meningkatkan popularitinya.

Kini sistem yang model kecerdasan buatan ini dijalankan telah menerima peningkatan. Sistem GPT-4 membawa peningkatan pada kebolehan perbualan pelbagai model kecerdasan buatan yang bergantung padanya. Dengan peningkatan penggunaan model kecerdasan buatan ini, adakah terdapat bahaya yang ditimbulkannya kepada masyarakat? A kemas kini terbaharu menyerlahkan beberapa, mari kita lihat secara dekat bahaya ini.

Menurut Pusat Keselamatan Siber Kebangsaan (NCSC) berikut adalah bahaya ChatGPT

Pusat Keselamatan Siber Kebangsaan UK (NCSC) telah memaklumkan orang ramai tentang bahaya ChatGPT. Mereka melakukan ini dengan blog terbaharu menyiarkan di tapak web rasmi mereka, di mana mereka menyelidiki ChatGPT dan model bahasa besar (LLM).

Dengan peningkatan populariti model kecerdasan buatan ini, terdapat keperluan untuk mengetahui risiko mereka mungkin bergambar. Nah, Pusat Keselamatan Siber Kebangsaan UK (NCSC) telah melakukan penyelidikan untuk membantu menyedarkan orang ramai. Daripada penemuan mereka, pengguna ChatGPT dan LLM lain akan mengetahui jurusan apa yang perlu diambil dengan model kecerdasan buatan ini.

Salah satu pemerhatian pertama yang perlu diingat dengan model kecerdasan buatan ialah model tersebut mungkin mengelirukan. Sesetengah maklumat yang mereka berikan kepada permintaan pengguna mungkin salah, berat sebelah, ganas, dsb. Atas sebab ini, pengguna ChatGPT dan LLM lain harus mengambil kira kandungan yang mereka gunakan daripada model kecerdasan buatan ini.

Terdapat adalah juga keperluan untuk berhati-hati tentang jenis maklumat yang anda kongsi dengan platform ini. Pusat Keselamatan Siber Nasional (NCSC) menasihatkan agar tidak berkongsi maklumat sensitif dengan ChatGPT atau LLM lain. Platform ini mungkin tidak mendedahkan maklumat pengguna, tetapi mereka mempunyai akses kepada pertanyaan pengguna dan boleh digodam, justeru mendedahkan pertanyaan ini kepada orang ramai.

Atas sebab ini, cuba jangan tanya platform sedemikian soalan yang agak sensitif kepada kehidupan peribadi atau kerja anda. Bahaya ChatGPT dan LLM lain juga merangkumi cara penjenayah siber dan pelakon jahat boleh menggunakannya. Jadi, semasa anda mencuba model bahasa besar baharu atau sedia ada, adalah penting untuk memahami risiko yang ditimbulkannya.

Categories: IT Info