Dilaporkan sebelumnya bahwa Samsung ingin mengintegrasikan kekuatan alat AI generatif seperti ChatGPT untuk meningkatkan bisnis chipnya. Namun, hal-hal tidak terlihat baik karena Samsung telah memerintahkan stafnya untuk berhenti menggunakan alat AI generatif seperti ChatGPT dan Bard karena masalah keamanan.
Langkah ini dilakukan setelah beberapa informasi sensitif dibocorkan oleh staf Samsung sebanyak tiga kali. Ini terjadi setelah beberapa karyawan Samsung diperkenalkan dengan informasi sensitif di ChatGPT. Rupanya, informasi yang diberikan telah menjadi bagian dari database pembelajaran AI selamanya. Informasi sensitif yang dimasukkan ke alat AI generatif antara lain mencakup data pengukuran peralatan semikonduktor.
Setiap staf yang gagal mematuhi pedoman akan dibebaskan dari pekerjaan
Sebagai dilaporkan oleh Bloomberg, Samsung memberi tahu karyawannya di salah satu divisi terbesarnya pada hari Senin tentang kebijakan baru. Notifikasi tersebut berbunyi, “Minat pada platform AI generatif seperti ChatGPT telah berkembang secara internal dan eksternal. Sementara Minat ini berfokus pada kegunaan dan efisiensi platform ini, ada juga kekhawatiran yang berkembang tentang risiko keamanan yang ditimbulkan oleh AI generatif.”
Memo tersebut juga menyebutkan secara eksplisit bahwa langkah ini diambil di tengah kekhawatiran yang meningkat atas kebocoran kode sumber internal yang tidak disengaja ke AI. Karena informasi tersebut sekarang diumpankan ke database AI, data tersebut dapat muncul sebagai tanggapan atas pertanyaan yang dibuat oleh pengguna mana pun yang tinggal di belahan dunia mana pun. Aturan baru melarang penggunaan alat AI generatif pada perangkat milik Samsung, termasuk komputer, tablet, dan ponsel.
Secara khusus, memo tersebut juga menyatakan bahwa karyawan Samsung yang gagal mematuhi pedoman keamanan dapat menghadapi tindakan disipliner, termasuk pemutusan hubungan kerja.