Dilaporkan sebelum ini bahawa Samsung mahu menyepadukan kuasa alat AI generatif seperti ChatGPT untuk meningkatkan perniagaan cipnya. Walau bagaimanapun, keadaan tidak kelihatan baik kerana Samsung telah mengarahkan kakitangannya untuk berhenti menggunakan alat AI generatif seperti ChatGPT dan Bard kerana kebimbangan keselamatan.

Langkah ini dilakukan selepas beberapa maklumat sensitif dibocorkan oleh kakitangan Samsung sebanyak tiga kali. Ini berlaku selepas beberapa pekerja Samsung diperkenalkan dengan maklumat sensitif dalam ChatGPT. Nampaknya, maklumat yang disuap telah menjadi sebahagian daripada pangkalan data pembelajaran AI selama-lamanya. Maklumat sensitif yang dimasukkan ke dalam alat AI generatif termasuk data pengukuran peralatan semikonduktor, antara lain.

Mana-mana kakitangan yang gagal mematuhi garis panduan akan dilepaskan daripada pekerjaan

Sebagai dilaporkan oleh Bloomberg, Samsung memberitahu pekerjanya di salah satu bahagian terbesarnya pada hari Isnin tentang dasar baru. Pemberitahuan itu berbunyi, “Minat dalam platform AI generatif seperti ChatGPT telah berkembang secara dalaman dan luaran. Walaupun Minat ini menumpukan pada kegunaan dan kecekapan platform ini, terdapat juga kebimbangan yang semakin meningkat tentang risiko keselamatan yang dikemukakan oleh AI generatif.”

Memo itu juga menyebut dengan jelas bahawa langkah ini adalah diambil di tengah-tengah kebimbangan yang memuncak mengenai kebocoran kod sumber dalaman secara tidak sengaja kepada AI. Memandangkan maklumat itu kini disalurkan ke pangkalan data AI, data itu boleh muncul sebagai tindak balas kepada pertanyaan yang dibuat oleh mana-mana pengguna yang tinggal di mana-mana bahagian dunia. Peraturan baharu melarang penggunaan alat AI generatif pada peranti milik Samsung, termasuk komputer, tablet dan telefon.

Terutama, memo itu juga menyatakan bahawa pekerja Samsung yang gagal mematuhi garis panduan keselamatan boleh menghadapi tindakan tatatertib, termasuk pemberhentian daripada pekerjaan.

Categories: IT Info