Menurut Arstechnica (melalui Platformer), Microsoft baru saja memecat tim etika AI setelah PHK massal di dalam perusahaan yang memengaruhi 10.000 karyawan. Tim tersebut bertanggung jawab untuk memantau dan mengurangi kerugian sosial yang disebabkan oleh produk Microsoft AI.
Microsoft telah menjadi berita utama dalam beberapa bulan terakhir untuk investasi awalnya di perusahaan induk ChatGPT, OpenAI, dan mengintegrasikannya ke dalam mesin pencari Bing-nya.. Sementara semua perusahaan yang memasukkan AI ke dalam produk dan layanan mereka memiliki tim untuk memeriksa kemungkinan bahaya terkait, Microsoft baru saja memberhentikan anggota tim etika AI-nya.
Tim tersebut dilaporkan mengembangkan”toolkit inovasi yang bertanggung jawab”untuk Microsoft yang membantu para insinyur perusahaan memprediksi dan menghilangkan risiko yang ditimbulkan oleh AI. Mantan anggota tim mengatakan bahwa mereka memiliki peran penting dalam memitigasi risiko AI di produk Microsoft.
Tim etika Microsoft AI keluar dari perusahaan setelah PHK baru-baru ini
Menanggapi berita tersebut, Microsoft mengumumkan tetap”berkomitmen untuk mengembangkan produk dan pengalaman AI dengan aman dan bertanggung jawab, dan melakukannya dengan berinvestasi pada orang, proses, dan kemitraan yang memprioritaskan hal ini.”
Perusahaan juga mengatakan telah berfokus untuk membangun Kantor AI yang Bertanggung Jawab dalam enam tahun terakhir. Tim ini tetap ada dan bekerja dengan Komite Aether dan Strategi AI yang Bertanggung Jawab di Bidang Teknik untuk memitigasi risiko AI.
Keputusan Microsoft untuk memberhentikan tim etika AI bertepatan dengan peluncuran model AI tercanggih OpenAI, GPT-4. Model ini ditambahkan ke Microsoft Bing, yang dapat memicu lebih banyak minat pada saingan Google.
Microsoft mulai membentuk tim etika AI pada tahun 2017, dan tim tersebut dilaporkan memiliki 30 anggota. Platformer melaporkan bahwa perusahaan kemudian menyebarkan anggota ke berbagai departemen karena persaingan AI dengan Google memanas. Terakhir, Microsoft mengurangi tim menjadi hanya tujuh orang.
Mantan karyawan juga mengklaim Microsoft tidak mendengarkan rekomendasi mereka untuk alat berbasis AI seperti Bing Image Creator yang menyalin karya seniman. Karyawan yang di-PHK sekarang khawatir tentang kemungkinan bahaya yang dapat diekspos oleh AI kepada pengguna ketika tidak ada seorang pun di perusahaan yang mengatakan”tidak”pada desain yang berpotensi tidak bertanggung jawab.