Menurut Arstechnica (melalui Platformer), Microsoft baru sahaja memecat pasukan etika AI berikutan pemberhentian besar-besaran dalam syarikat yang menjejaskan 10,000 pekerja. Pasukan itu bertanggungjawab untuk memantau dan mengurangkan bahaya sosial yang disebabkan oleh produk Microsoft AI.
Microsoft telah menjadi tajuk utama dalam beberapa bulan kebelakangan ini untuk pelaburan awalnya dalam syarikat induk ChatGPT OpenAI dan menyepadukannya ke dalam enjin carian Bingnya. Walaupun semua syarikat yang menggabungkan AI ke dalam produk dan perkhidmatan mereka mempunyai pasukan untuk memeriksa kemungkinan bahaya yang berkaitan, Microsoft hanya memberhentikan ahli pasukan etika AInya.
Pasukan itu dilaporkan membangunkan”kit alat inovasi yang bertanggungjawab”untuk Microsoft yang membantu jurutera syarikat meramal dan menghapuskan risiko yang dijana oleh AI. Bekas ahli pasukan berkata mereka mempunyai peranan penting dalam mengurangkan risiko AI dalam produk Microsoft.
Pasukan etika AI Microsoft meninggalkan syarikat berikutan pemberhentian baru-baru ini
Sebagai tindak balas kepada berita itu, Microsoft mengumumkan ia kekal “komitmen untuk membangunkan produk dan pengalaman AI dengan selamat dan bertanggungjawab, dan berbuat demikian dengan melabur dalam orang, proses dan perkongsian yang mengutamakan perkara ini.”
Syarikat itu juga berkata ia telah menumpukan pada membina Pejabat AI Bertanggungjawabnya dalam tempoh enam tahun yang lalu. Pasukan ini kekal di tempatnya dan bekerjasama dengan Jawatankuasa Aether dan Strategi AI Bertanggungjawab dalam Kejuruteraan untuk mengurangkan risiko AI.
Keputusan Microsoft untuk memberhentikan pasukan etika AI bertepatan dengan pelancaran model AI tercanggih OpenAI, GPT-4. Model ini ditambahkan pada Microsoft Bing, yang boleh menimbulkan lebih banyak minat terhadap saingan Google.
Microsoft mula membentuk pasukan etika AInya pada 2017, dan pasukan itu dilaporkan mempunyai 30 ahli. Platformer melaporkan bahawa syarikat itu kemudiannya menyebarkan ahli ke jabatan yang berbeza ketika persaingan AI dengan Google semakin panas. Akhirnya, Microsoft mengecilkan pasukan kepada hanya tujuh orang.
Bekas pekerja juga mendakwa Microsoft tidak mendengar cadangan mereka untuk alatan dipacu AI seperti Bing Image Creator yang menyalin karya artis. Kakitangan yang diberhentikan kini bimbang tentang kemungkinan bahaya yang boleh didedahkan AI kepada pengguna apabila tiada sesiapa dalam syarikat itu untuk mengatakan”tidak”kepada reka bentuk yang berpotensi tidak bertanggungjawab.