นับตั้งแต่การกำเนิดของ AI เชิงกำเนิด เช่น ChatGPT ผู้เชี่ยวชาญและรัฐบาลต่างก็มีความกังวลเกี่ยวกับการพัฒนาที่ขาดการควบคุมในสาขานี้ ขณะนี้ ในความพยายามที่จะแก้ไขข้อกังวลเหล่านี้ OpenAI กำลังจัดตั้งทีมเฉพาะที่มุ่งจัดการศักยภาพ ความเสี่ยงที่เกี่ยวข้องกับ AI อัจฉริยะ
ทีมงานซึ่งนำโดย Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI พร้อมด้วย Jan Leike ซึ่งเป็นสมาชิกคนสำคัญของทีมแนวร่วมของ OpenAI จะพัฒนาวิธีการเพื่อจัดการกับสถานการณ์สมมุติที่ ระบบ AI อัจฉริยะที่เหนือชั้นกว่าความฉลาดของมนุษย์และเริ่มทำงานโดยอัตโนมัติ แม้ว่าสถานการณ์นี้อาจดูเกินจริง แต่ผู้เชี่ยวชาญยืนยันว่า AI อัจฉริยะอาจกลายเป็นความจริงภายในทศวรรษหน้า โดยเน้นย้ำถึงความสำคัญของการพัฒนาการป้องกันในปัจจุบัน
“ปัจจุบัน เราไม่มีวิธีแก้ปัญหาสำหรับการควบคุม หรือควบคุม AI ที่อาจฉลาดล้ำและป้องกันไม่ให้ทำงานผิดปกติ” อ่านบล็อกโพสต์ที่ประกาศการตัดสินใจ
ทีม Superalignment
ทีม Superalignment ที่ก่อตั้งโดย OpenAI จะสามารถเข้าถึงประมาณ 20% ของทรัพยากรการคำนวณในปัจจุบัน พร้อมด้วยนักวิทยาศาสตร์และวิศวกรจาก OpenAI รุ่นก่อนหน้า การแบ่งการจัดตำแหน่งเพื่อพัฒนา”นักวิจัยการจัดตำแหน่งอัตโนมัติระดับมนุษย์”ซึ่งจะช่วยในการประเมินระบบ AI อื่นๆ และดำเนินการวิจัยการจัดตำแหน่งเป็นหลัก
“ในขณะที่เราดำเนินการในเรื่องนี้ ระบบ AI ของเราสามารถรับช่วงต่อได้มากขึ้น และงานจัดตำแหน่งของเรามากขึ้น และท้ายที่สุดก็คิด นำไปใช้ ศึกษา และพัฒนาเทคนิคการจัดตำแหน่งที่ดีกว่าที่เรามีในตอนนี้” อ่าน บล็อกโพสต์
ระบบ AI เพื่อตรวจสอบ AI อื่นๆ
ในขณะที่ข้อเสนอของการพัฒนาระบบ AI เพื่อตรวจสอบ AI อื่นๆ อาจดูเหมือน OpenAI โต้แย้งว่าระบบ AI สามารถสร้างความก้าวหน้าได้เร็วกว่าในการวิจัยการจัดตำแหน่งเมื่อเทียบกับมนุษย์ วิธีการนี้ไม่เพียงแต่ช่วยประหยัดเวลาสำหรับนักวิจัยของมนุษย์เท่านั้น แต่ยังช่วยให้พวกเขามุ่งเน้นไปที่การตรวจสอบการวิจัยการจัดตำแหน่งที่ดำเนินการโดย AI แทนที่จะสร้างมันขึ้นมาเองเพียงอย่างเดียว
อย่างไรก็ตาม สิ่งสำคัญคือต้องทราบว่า OpenAI รับทราบถึงความเสี่ยงที่อาจเกิดขึ้น และอันตรายที่เกี่ยวข้องกับแนวทางนี้ นอกจากนี้ บริษัทยังวางแผนที่จะเผยแพร่แผนการทำงานโดยสรุปทิศทางการวิจัยในอนาคต