ไม่มีความลับใดที่ความพยายามของ Microsoft ในการรวม ChatGPT เข้ากับบริการต่างๆ ของบริษัทนั้นเป็นการเคลื่อนไหวเชิงกลยุทธ์ที่ทำให้บริษัทสามารถก้าวกระโดดจากคู่แข่งได้ อย่างไรก็ตาม การตัดสินใจนี้ไม่ได้เกิดขึ้นโดยปราศจากผลที่ตามมา เนื่องจากแชทบอท Bing AI มีปัญหาหลายอย่าง รวมถึงการใช้ภาษาที่ไม่เหมาะสมและคำตอบที่ไม่ถูกต้อง ตามรายงานจาก The Wall Street Journal ดูเหมือนว่า OpenAI ได้เตือน Microsoft เกี่ยวกับความเสี่ยงในการรวม GPT-4 ที่ยังไม่เผยแพร่ แต่บริษัทยังคงดำเนินการเปิดตัวต่อไป
รายงานนี้เกิดขึ้นหลังจากที่ผู้ใช้จำนวนมากเริ่มประสบกับพฤติกรรมที่ผิดปกติจาก Bing AI แชทบอทหลังจากเปิดตัวได้ไม่นาน รวมถึงเหตุการณ์ที่แชทบอทพูดดูถูก โกหก บูดบึ้ง หรือแม้แต่จุดไฟใส่ผู้ใช้ ด้วยเหตุนี้ Microsoft จึงต้องวางข้อจำกัดอย่างรวดเร็ว ซึ่งจำกัดความสามารถของแชทบอทให้แสดงข้อความแจ้งเพียงไม่กี่ครั้งต่อการแชท และในขณะที่มีการทำงานอย่างครอบคลุมเพื่อฟื้นฟูความเสถียรของแชทบอทในช่วงหลายเดือน พฤติกรรมที่ไม่เหมาะสมยังคงเกิดขึ้นเป็นครั้งคราว
เรียกร้องให้มีการควบคุม
แม้ว่า Microsoft และ OpenAI จะแก้ไขข้อบกพร่องเป็นส่วนใหญ่ เหตุการณ์นี้เน้นย้ำถึงความสำคัญของการใช้งานอย่างระมัดระวังและการทดสอบอย่างเข้มงวดก่อนที่จะเผยแพร่บริการที่ขับเคลื่อนด้วย AI เนื่องจาก Microsoft ควรปฏิบัติตามคำเตือนของ OpenAI เกี่ยวกับการเผยแพร่ก่อนกำหนด นอกจากนี้ เหตุการณ์ดังกล่าวยังเน้นย้ำถึงความซับซ้อนของการเป็นหุ้นส่วนระหว่าง Microsoft-OpenAI ซึ่งการทำงานร่วมกันและการแข่งขันอยู่ร่วมกัน
“ฉันรู้สึกว่า OpenAI กำลังดำเนินการแบบเดียวกับเรา ดังนั้น แทนที่จะพยายามฝึกโมเดลพื้นฐานที่แตกต่างกันห้าแบบ ผมต้องการฐานรากหนึ่งฐาน เพื่อให้เป็นพื้นฐานสำหรับเอฟเฟกต์แพลตฟอร์ม ดังนั้นเราจึงร่วมมือกัน พวกเขาเดิมพันกับเรา เราเดิมพันกับพวกเขา” Satya Nadella ซีอีโอของ Microsoft กล่าว
อย่างไรก็ตาม นี่เป็นสถานการณ์ที่แน่นอนซึ่งทำให้ผู้นำในอุตสาหกรรมและรัฐบาลกังวล เนื่องจากบริษัทต่างๆ ในการแข่งขันที่จะสร้างระบบ AI ที่ทันสมัยที่สุดมักมองข้ามความสำคัญของการทดสอบอย่างละเอียดก่อนออกผลิตภัณฑ์ ดังนั้น การกำหนดมาตรการที่เข้มงวดเพื่อควบคุมการพัฒนา AI ที่แพร่หลายนี้จึงมีความสำคัญยิ่งกว่าที่เคยเป็นมา