Ubisoft และ Riot กำลังร่วมมือกันในโครงการวิจัยต่อต้านสารพิษ ซึ่งจะมุ่งเน้นไปที่การรวบรวมบันทึกการสนทนาในเกมเพื่อเป็นข้อมูลการฝึกอบรมสำหรับอัลกอริทึม AI ทั้งสองบริษัทมีกำหนดจะเปิดเผยผลการค้นพบของพวกเขาจากข้อมูลนี้ในฤดูร้อนหน้า ซึ่งจะตัดสินขั้นตอนในอนาคต ณ จุดนั้น

พูดกับฉันผ่านการโทรผ่าน Zoom, Wesley Kerr ผู้อำนวยการฝ่ายวิจัยเทคโนโลยีของ Riot และ Yves Jacquier ผู้อำนวยการบริหารของ Ubisoft La Forge ทั้งสองได้แบ่งปันเป้าหมายและความหวังระยะยาวสำหรับโครงการนี้ โดยยกย่องว่าเป็นความร่วมมือการวิจัยแบบเปิดครั้งแรกในด้าน AI ระหว่างบริษัทเกมสองแห่ง พวกเขาหวังว่าการเรียนรู้ที่เผยแพร่ในปีหน้าจะเป็นก้าวแรกในการใช้ AI เป็นเครื่องมือในการลดความเป็นพิษอย่างมีประสิทธิภาพของอุตสาหกรรม/p> ด้วยเหตุผลบางอย่าง ผู้เล่นของ Udyr มักจะเป็นพิษเมื่อฉันเล่น League บ่อยๆ ฉันสงสัยว่ามันจะเป็นจริงหรือไม่หลังจากที่เขาปรับปรุงใหม่?

จากข้อมูลของ Jacquier โครงการนี้มีเป้าหมายหลักสามประการ ขั้นแรก เพื่อสร้างเครือข่ายชุดข้อมูลที่ใช้ร่วมกัน ซึ่งเต็มไปด้วยข้อมูลผู้เล่นที่ไม่ระบุตัวตนทั้งหมด ประการที่สอง เพื่อสร้างอัลกอริทึม AI ที่สามารถทำงานกับข้อมูลนี้ได้ สุดท้ายนี้ ความร่วมมือครั้งนี้จะทำหน้าที่เป็น”ต้นแบบ”สำหรับการริเริ่มในอุตสาหกรรมในอนาคตเพื่อต่อต้านสารพิษ ส่งเสริมการแข่งขันและก้าวต่อไปในสาขานี้

เป็นเรื่องที่สมเหตุสมผลที่ Riot และ Ubisoft จะเป็นสองบริษัทที่ลงทุน ในการแก้ปัญหานี้ หากมีการพิจารณาชื่อผู้เล่นหลายคนยอดนิยม Rainbow Six: Siege สกปรกอย่างรวดเร็วทันทีที่การทำงานร่วมกันของทั้งทีมได้รับผลกระทบ และฝาแฝด League of Legends และ Valorant ที่มีปัญหาของ Riot ก็เปียกโชกไปด้วยของเหลวที่เป็นพิษ

ทั้ง Kerr และ Jacquier เน้นย้ำตลอดการสัมภาษณ์ว่าการไม่เปิดเผยตัวตนของผู้เล่น และการปฏิบัติตามกฎหมายของภูมิภาคและ GDPR เป็นสิ่งสำคัญที่สุดของพวกเขา เมื่อถูกถามว่ามีการแชร์ข้อมูลผู้เล่นระหว่างบริษัทหรือไม่ Kerr เน้นย้ำว่าข้อมูลบัญชี League of Legends ของคุณจะไม่ถูกส่งไปยังบริษัทอื่นโดยไม่ได้รับความยินยอมจากผู้เล่น แต่บันทึกการแชทจะถูกดึงข้อมูลที่ระบุตัวตนออกก่อนที่อัลกอริทึมใดๆ จะสามารถเลือกและแย่งมันไปได้

ปัญหาที่เกิดขึ้นทันทีที่คุณนึกถึงเมื่อคุณได้ยินเกี่ยวกับ AI ที่ควบคุมความเป็นพิษคือความเพียรพยายามของผู้เล่น มุ่งมั่นที่จะให้คุณรู้ว่าคุณเป็นขยะแค่ไหน การประดิษฐ์คำศัพท์ใหม่ ซึ่งเป็นศัพท์เฉพาะเกี่ยวกับถังขยะที่แปรเปลี่ยน มีการเปลี่ยนแปลงอยู่ตลอดเวลาภายในชุมชนออนไลน์ AI จะตอบสนองต่อสิ่งนั้นได้อย่างไร? Jacquier กล่าวว่าเคล็ดลับคือไม่ต้องพึ่งพาพจนานุกรมและแหล่งข้อมูลคงที่ ดังนั้นมูลค่าในการใช้บันทึกการสนทนาของผู้เล่นปัจจุบัน ซึ่งสะท้อนถึงเมตาความเป็นพิษในปัจจุบัน

จากนั้นยังมีข้อกังวลอื่น ๆ เกี่ยวกับการยิงที่ผิดพลาด โดยเฉพาะอย่างยิ่งในสื่อที่มีการหยอกล้อกันเองระหว่างเพื่อน เพื่อนร่วมทีมแบบสุ่ม และแม้แต่ผู้เล่นศัตรู สามารถเป็นส่วนหนึ่งของประสบการณ์ ถ้าฉันเล่นเลนบนสุดใน League of Legends และฉันเขียนคำว่า”เป็น CS bud ที่ดี”ให้คู่ต่อสู้ในเลน 0/3 ของฉัน นั่นก็เป็นแค่การล้อเล่นนิดหน่อยใช่ไหม? ถ้าพวกเขาทำแบบเดียวกันกับฉัน มันทำให้ฉันต้องการชนะมากขึ้นและเพิ่มพูนประสบการณ์ AI สามารถระบุความแตกต่างระหว่างความเป็นพิษที่เป็นอันตรายอย่างแท้จริงกับการล้อเล่นได้อย่างไร

“เป็นเรื่องยากมาก”Jacquer กล่าว “การทำความเข้าใจบริบทของการอภิปรายเป็นหนึ่งในส่วนที่ยากที่สุด ตัวอย่างเช่น หากผู้เล่นคุกคามผู้เล่นอื่น ใน Rainbow Six ถ้าผู้เล่นพูดว่า’เฮ้ ฉันจะพาเธอออกไป’นั่นอาจเป็นส่วนหนึ่งของแฟนตาซี ในขณะที่บริบทอื่นอาจมีความหมายแตกต่างกันมาก” Kerr ติดตามเรื่องนี้ด้วยข้อดีบางประการของวิดีโอเกมในเรื่องนี้ ต้องขอบคุณปัจจัยอื่นๆ

จากข้อมูลของเขา การพิจารณาว่าคุณเข้าคิวกับใครเป็นตัวอย่างของปัจจัยที่สามารถช่วยเหลือ AI ในการพิจารณาความเป็นพิษที่แท้จริงจากการขบฟัน ตามทฤษฎีแล้ว คุณจะไม่โดนสุนัขจรจัดเล่นงานถ้าคุณเรียกเพื่อนซี้ที่เป็นเพื่อนรักมาตลอดชีวิตในห้องล็อบบี้

สำหรับอนาคต ทุกสายตาจับจ้องไปที่ผลงานที่ตีพิมพ์ในปีหน้า สำหรับตอนนี้ มันมุ่งเน้นไปที่บันทึกการแชทเท่านั้น แต่ด้วย Riot Games ที่ตรวจสอบการสื่อสารด้วยเสียงใน Valorant Kerr ปฏิเสธที่จะถอดมันออกจากโต๊ะเพื่อเป็นพื้นที่การวิจัยในอนาคต หากความร่วมมือยังคงดำเนินต่อไปหลังปี 2023 สำหรับตอนนี้ มันเป็นพิมพ์เขียว ก้าวแรกสู่การเดินทางอันยาวไกล ทั้งสองบริษัทดูเหมือนจะทุ่มเทให้กับการเดินทาง ในขณะที่ทั้ง Kerr และ Jacquier มีความหวังว่าโครงการวิจัยจะก่อให้เกิดผลการวิจัยที่สำคัญ และสร้างแรงบันดาลใจให้บริษัทอื่นๆ ทำตาม พวกเขาไม่เชื่อว่า AI จะเป็นตัวกำหนดและยุติการกลั่นกรองความเป็นพิษทั้งหมด

“AI เป็นเครื่องมือ แต่ไม่ใช่กระสุนเงิน มีหลายวิธีในการรับรองความปลอดภัยของผู้เล่น ดังนั้นแนวคิดก็คือการทำความเข้าใจให้ดียิ่งขึ้นว่าเครื่องมือนี้สามารถใช้เพื่อจัดการกับเนื้อหาที่เป็นอันตรายได้ดีที่สุดอย่างไร”

ท้ายที่สุดแล้ว การวิจัยนี้เป็นเพียงองค์ประกอบหนึ่งในความพยายามที่กว้างขึ้น แต่ ในความคิดของทั้ง Jacquier และ Kerr ที่หวังว่าจะได้รับการพิสูจน์ว่ามีความสำคัญในอนาคต เวลาเท่านั้นที่จะบอกได้ว่าพวกเขาพูดถูกหรือไม่ พวกเขาสามารถรักษาสัญญาว่าจะรักษาความเป็นส่วนตัวของผู้เล่นหรือไม่ และ AI จะเป็นจริงหรือไม่ ด่านหน้าในการต่อสู้กับสารพิษ

Categories: IT Info