ตาม Arstechnica (ผ่าน โปรแกรมแพลตฟอร์ม) Microsoft เพิ่งตัดทีมจริยธรรมของ AI หลังจากการเลิกจ้างจำนวนมากภายในบริษัท ซึ่งส่งผลกระทบต่อพนักงาน 10,000 คน ทีมงานมีหน้าที่รับผิดชอบในการตรวจสอบและลดอันตรายทางสังคมที่เกิดจากผลิตภัณฑ์ AI ของ Microsoft
Microsoft ได้พาดหัวข่าวในช่วงหลายเดือนที่ผ่านมาสำหรับการลงทุนเริ่มต้นใน OpenAI ซึ่งเป็นบริษัทแม่ของ ChatGPT และรวมเข้ากับเครื่องมือค้นหา Bing. แม้ว่าทุกบริษัทที่รวม AI ไว้ในผลิตภัณฑ์และบริการของตนจะมีทีมเพื่อตรวจสอบอันตรายที่เกี่ยวข้อง แต่ Microsoft เพิ่งเลิกจ้างสมาชิกในทีมด้านจริยธรรมของ AI
มีรายงานว่าทีมดังกล่าวได้พัฒนา”ชุดเครื่องมือนวัตกรรมที่มีความรับผิดชอบ”สำหรับ Microsoft ที่ช่วยให้วิศวกรของบริษัทคาดการณ์และกำจัดความเสี่ยงที่เกิดจาก AI อดีตสมาชิกในทีมกล่าวว่าพวกเขามีบทบาทสำคัญในการลดความเสี่ยงด้าน AI ในผลิตภัณฑ์ของ Microsoft
ทีมจริยธรรมของ Microsoft AI ออกจากบริษัทหลังจากการปลดพนักงานเมื่อเร็วๆ นี้
เพื่อตอบสนองต่อข่าว Microsoft ประกาศว่ายังคง”มุ่งมั่นที่จะพัฒนาผลิตภัณฑ์ AI และประสบการณ์อย่างปลอดภัยและมีความรับผิดชอบ และทำเช่นนั้น ด้วยการลงทุนในบุคลากร กระบวนการ และพันธมิตรที่ให้ความสำคัญกับสิ่งนี้”
บริษัทยังกล่าวอีกว่า บริษัทได้ให้ความสำคัญกับการสร้างสำนักงาน AI ที่มีความรับผิดชอบในช่วงหกปีที่ผ่านมา ทีมนี้ยังคงอยู่และทำงานร่วมกับ Aether Committee และ Responsible AI Strategy in Engineering เพื่อลดความเสี่ยงของ AI
การตัดสินใจของ Microsoft ในการเลิกจ้างทีมจริยธรรม AI เกิดขึ้นพร้อมกับการเปิดตัว GPT โมเดล AI ที่ทันสมัยที่สุดของ OpenAI-4. โมเดลนี้ถูกเพิ่มเข้ามาใน Microsoft Bing ซึ่งสามารถกระตุ้นความสนใจคู่แข่งของ Google ได้มากขึ้น
Microsoft เริ่มก่อตั้งทีมจริยธรรม AI ในปี 2560 และมีรายงานว่าทีมมีสมาชิก 30 คน Platformer รายงานว่าบริษัทได้กระจายสมาชิกไปยังแผนกต่างๆ ในภายหลังเนื่องจากการแข่งขันด้าน AI กับ Google กำลังร้อนระอุ สุดท้าย Microsoft ลดขนาดทีมเหลือเพียงเจ็ดคน
อดีตพนักงานยังอ้างว่า Microsoft ไม่ฟังคำแนะนำของพวกเขาเกี่ยวกับเครื่องมือที่ขับเคลื่อนด้วย AI เช่น Bing Image Creator ที่คัดลอกผลงานของศิลปิน ตอนนี้พนักงานที่ถูกขวานมีความกังวลเกี่ยวกับอันตรายที่อาจเกิดขึ้นที่ AI สามารถเปิดเผยต่อผู้ใช้เมื่อไม่มีใครในบริษัทที่จะพูดว่า”ไม่”ต่อการออกแบบที่อาจขาดความรับผิดชอบ