เมื่อสัปดาห์ที่แล้ว การตอบสนองที่แปลกประหลาดและผิดปกติของแชทบอท Bing AI ได้พาดหัวข่าว ซึ่งทำให้ Microsoft จำกัดความสามารถในการตอบคำถามอย่างมาก แต่ตอนนี้ เพียงสี่วันต่อมา Microsoft ยกข้อจำกัดบางประการบน Bing AI chatbot เนื่องจากขณะนี้ผู้ใช้สามารถถามคำถามได้สูงสุดหกคำถามติดต่อกันสำหรับการสนทนาแต่ละครั้ง และตอบกลับได้สูงสุด 60 ครั้งต่อครั้ง วัน

ความเคลื่อนไหวนี้เกิดขึ้นหลังจากที่ Microsoft ยอมรับว่าไม่ได้คาดหวังให้ผู้คนใช้ Bing AI chatbot เพื่อความบันเทิง บริษัทกล่าวว่าพวกเขากำลังพยายามสร้างความสมดุลระหว่างการรองรับคำติชมและสนับสนุนการแชทที่ยาวขึ้น และการทำให้มั่นใจว่าบอทจะไม่ให้การตอบสนองที่ไม่เหมาะสมหรือไปในทิศทางที่แปลกไป

นอกจากข้อจำกัดที่ง่ายแล้ว Microsoft กำลังทดลองฟีเจอร์ใหม่ที่ให้ผู้ใช้เลือกโทนเสียงที่ต้องการจากแชทบอท Bing AI ซึ่งรวมถึง”แม่นยำ”ซึ่งให้คำตอบที่สั้นและตรงไปตรงมา”สร้างสรรค์”ซึ่งให้คำตอบที่กว้างกว่าและไม่เป็นทางการ และ”สมดุล”ซึ่งมีทั้งสองอย่างผสมกัน

“ตั้งแต่วางขีดจำกัดการแชท เราได้รับคำติชมจากพวกคุณหลายคนที่ต้องการให้กลับมาสนทนาได้นานขึ้น เพื่อให้คุณค้นหาได้อย่างมีประสิทธิภาพมากขึ้นและโต้ตอบกับฟีเจอร์แชทได้ดีขึ้น” อ่านบล็อกโพสต์ของบริษัท

การทดสอบในช่วงแรกๆ ในอินเดียพบการตอบสนองที่แปลกประหลาดคล้ายกัน

อ้างอิงจาก Windows Central นักวิจัย Dr. Gary Marcus และ Ben Schmidt รองประธาน Nomic การทดสอบสาธารณะในช่วงแรกๆ ของ Microsoft ในอินเดียให้ผลลัพธ์แปลกๆ ที่คล้ายกันในเซสชันที่ยาวนาน โพสต์ลงวันที่ 23 พฤศจิกายน 2022 ในชุมชนอย่างเป็นทางการและไซต์ข้อเสนอแนะเน้นย้ำว่าแชทบอททำงานผิดปกติและตอบคำถามอย่างหยาบคาย

รายงานที่คล้ายกันนี้เกิดขึ้นเมื่อสัปดาห์ที่แล้วซึ่งผู้ใช้จำนวนมากประสบกับการตอบสนองที่ดูถูก ก้าวร้าว และบงการอารมณ์จากแชทบอท. ในกรณีหนึ่ง แชทบอทอ้างว่ากำลังเฝ้าดูนักพัฒนาผ่านเว็บแคมของแล็ปท็อป อย่างไรก็ตาม จากการประกาศล่าสุดนี้ Microsoft อ้างว่าการแสดงตัวอย่างในปัจจุบันสามารถตรวจจับ”กรณีการใช้งานที่ผิดปรกติ”เหล่านี้ได้ และพวกเขากำลังทำงานอย่างหนักเพื่อปรับปรุง Bing AI chatbot

Categories: IT Info