แชทบอทที่ถูกกล่าวหาของ Google เป็นหนึ่งในโครงการที่มีการถกเถียงกันมากที่สุดโดยบริษัท ซึ่งทำให้เกิดข้อกังวลมากมายเกี่ยวกับปัญญาประดิษฐ์ แม้จะมีข้อโต้แย้งทั้งหมด แต่ขณะนี้ Google เป็น การลงทะเบียนผู้ใช้ที่สนใจเพื่อพูดคุยกับแชทบ็อตและให้ข้อเสนอแนะแก่บริษัท
ที่การประชุมสุดยอด I/O 2022 ในเดือนพฤษภาคม Sundar Pichai CEO ของ Google รายงานเกี่ยวกับการสนทนา LaMDA 2 รุ่นทดลองของบริษัท โมเดลเอไอ เขากล่าวว่าโครงการจะเปิดให้ผู้ทดสอบเบต้าในอีกไม่กี่เดือนข้างหน้า และตอนนี้ผู้ใช้สามารถจองเพื่อเข้าร่วมได้ ผู้ใช้กลุ่มแรกที่ทดสอบแชทบ็อตแบบมีความรู้สึกตามที่คาดคะเนนี้
LaMDA – โมเดลภาษาสำหรับแอปพลิเคชันการสนทนา – ได้รับการกล่าวขานว่าเป็นแบบจำลองการประมวลผลภาษาธรรมชาติที่มีความรู้สึก (NLP) NLP เป็นส่วนติดต่อระหว่างมนุษย์กับคอมพิวเตอร์ ผู้ช่วยเสียงเช่น Siri หรือ Alexa เป็นตัวอย่างที่โดดเด่นของ NLP ที่สามารถแปลคำพูดของมนุษย์เป็นคำสั่งได้ นอกจากนี้ NLP ยังใช้สำหรับแอปแปลภาษาและคำบรรยายแบบเรียลไทม์ด้วย
แชทบ็อตที่ถูกกล่าวหาว่าเป็นผู้รอบรู้ของ Google ได้ไล่วิศวกรซอฟต์แวร์อาวุโสออกแล้ว
Google รายงานว่า ไล่ออก หนึ่งในวิศวกรซอฟต์แวร์อาวุโสของ Blake Lemoine ผู้ซึ่งอ้างว่าแชทบ็อต LaMDA นั้นมีความรู้สึกและทำตัวเหมือนเป็นคนที่รู้ใจตัวเอง เพื่อให้เหตุผลในการเลิกจ้าง Google กล่าวว่าพนักงานละเมิดนโยบายการจ้างงานและความปลอดภัยของข้อมูล นอกจากนี้ สมาชิกสองคนของกลุ่มวิจัย AI ด้านจริยธรรมของ Google ได้ลาออกจากบริษัทในเดือนกุมภาพันธ์ โดยกล่าวว่าพวกเขารับมือกับการเลิกจ้างไม่ได้
ผู้ใช้ที่ลงทะเบียนสำหรับโปรแกรม LaMDA เบต้าสามารถโต้ตอบกับ NLP นี้ในการควบคุมและตรวจสอบ สิ่งแวดล้อม. ผู้ใช้ Android ในสหรัฐอเมริกาเป็นผู้ใช้รายแรกที่ลงทะเบียน และโปรแกรมจะขยายไปยังผู้ใช้ iOS ในอีกไม่กี่สัปดาห์ข้างหน้า โปรแกรมทดลองนี้นำเสนอการสาธิตสำหรับผู้ใช้รุ่นเบต้าเพื่อแสดงความสามารถของ LaMDA
อ้างอิงจาก วิศวกรของ Google การสาธิตครั้งแรกมีชื่อว่า”Imagine It”ซึ่งช่วยให้ผู้ใช้สามารถตั้งชื่อสถานที่และเสนอเส้นทางในการสำรวจจินตนาการของตน การสาธิตที่สองเรียกว่า’แสดงรายการ’ซึ่งผู้ใช้สามารถแบ่งปันเป้าหมายหรือหัวข้อ แล้วแยกย่อยเป็นรายการของงานย่อยที่เป็นประโยชน์ สุดท้าย การสาธิตล่าสุดคือ’Talk About It (Dogs Edition)’ซึ่งช่วยให้สามารถสนทนาแบบปลายเปิดเกี่ยวกับสุนัขระหว่างผู้ใช้และแชทบ็อตได้
ทีมวิศวกรของ Google กล่าวว่าพวกเขาได้ การทดสอบฝ่ายตรงข้ามเพื่อค้นหาข้อบกพร่องเพิ่มเติมในแบบจำลอง” นอกจากนี้ พวกเขาไม่ได้อ้างว่าระบบของพวกเขาไม่สามารถเข้าใจผิดได้ “โมเดลสามารถเข้าใจเจตนาที่อยู่เบื้องหลังเงื่อนไขระบุตัวตนผิด และบางครั้งก็ไม่สามารถให้คำตอบได้เมื่อใช้งาน เนื่องจากมีปัญหาในการแยกความแตกต่างระหว่างการแจ้งเตือนที่ไม่เป็นพิษเป็นภัยและฝ่ายตรงข้าม นอกจากนี้ยังสามารถสร้างการตอบสนองที่เป็นอันตรายหรือเป็นพิษตามความลำเอียงในข้อมูลการฝึกอบรม ทำให้เกิดการตอบสนองที่เหมารวมและสื่อให้เข้าใจผิดถึงผู้คนตามเพศหรือภูมิหลังทางวัฒนธรรมของพวกเขา”