Kể từ khi các AI thế hệ mới ra đời như ChatGPT, các chuyên gia và chính phủ đã có những lo ngại xung quanh sự phát triển không được kiểm soát trong lĩnh vực này. Giờ đây, trong nỗ lực giải quyết những lo ngại này, OpenAI đang thành lập một nhóm chuyên dụng nhằm quản lý tiềm năng rủi ro liên quan đến AI siêu thông minh.

Nhóm do Ilya Sutskever, đồng sáng lập OpenAI, dẫn đầu, cùng với Jan Leike, một thành viên nổi bật trong nhóm liên kết của OpenAI, sẽ phát triển các phương pháp để xử lý tình huống giả định trong đó hệ thống AI siêu thông minh vượt qua trí thông minh của con người và bắt đầu hoạt động tự chủ. Mặc dù viễn cảnh này có vẻ xa vời, nhưng các chuyên gia cho rằng trí tuệ nhân tạo siêu thông minh có thể trở thành hiện thực trong thập kỷ tới, nhấn mạnh tầm quan trọng của việc phát triển các biện pháp bảo vệ ngày nay.

“Hiện tại, chúng tôi chưa có giải pháp để điều khiển hoặc kiểm soát một trí tuệ nhân tạo có khả năng siêu thông minh và ngăn không cho nó trở nên bất hảo,” bài đăng trên blog thông báo về quyết định này viết.

Nhóm Superalignment

Nhóm Superalignment do OpenAI thành lập sẽ có quyền truy cập vào khoảng 20% ​​tài nguyên máy tính hiện tại, cùng với các nhà khoa học và kỹ sư từ OpenAI trước đây bộ phận căn chỉnh để phát triển một “nhà nghiên cứu căn chỉnh tự động cấp độ con người”, chủ yếu sẽ hỗ trợ đánh giá các hệ thống AI khác và tiến hành nghiên cứu căn chỉnh.

“Khi chúng tôi đạt được tiến bộ về vấn đề này, các hệ thống AI của chúng tôi có thể tiếp quản nhiều hơn và nhiều hơn nữa công việc căn chỉnh của chúng tôi và cuối cùng là hình thành, triển khai, nghiên cứu và phát triển các kỹ thuật căn chỉnh tốt hơn so với hiện tại,” một bài đăng trên blog.

Một hệ thống AI để kiểm tra các AI khác

Mặc dù đề xuất phát triển một hệ thống AI để kiểm tra các AI khác có vẻ bất thường, OpenAI lập luận rằng các hệ thống AI có thể đạt được tiến bộ nhanh hơn trong nghiên cứu căn chỉnh so với con người. Cách tiếp cận này không chỉ tiết kiệm thời gian cho các nhà nghiên cứu con người mà còn cho phép họ tập trung vào việc xem xét nghiên cứu căn chỉnh do AI thực hiện thay vì chỉ tự mình tạo ra nghiên cứu đó.

Tuy nhiên, điều quan trọng cần lưu ý là OpenAI thừa nhận những rủi ro tiềm ẩn và những nguy hiểm liên quan đến phương pháp này. Ngoài ra, công ty có kế hoạch phát hành một lộ trình phác thảo hướng nghiên cứu của mình trong tương lai.

Categories: IT Info