Theo Arstechnica (thông qua Nền tảng), Microsoft vừa sa thải nhóm đạo đức AI sau đợt sa thải hàng loạt trong công ty đã ảnh hưởng đến 10.000 nhân viên. Nhóm chịu trách nhiệm giám sát và giảm tác hại xã hội do các sản phẩm trí tuệ nhân tạo của Microsoft gây ra.

Microsoft đã gây chú ý trong những tháng gần đây với khoản đầu tư ban đầu vào OpenAI của công ty mẹ ChatGPT và tích hợp nó vào công cụ tìm kiếm Bing của mình. Mặc dù tất cả các công ty kết hợp AI vào các sản phẩm và dịch vụ của họ đều có một nhóm để kiểm tra các mối nguy hiểm có thể xảy ra liên quan, nhưng Microsoft vừa sa thải các thành viên trong nhóm đạo đức AI của mình.

Nhóm này được cho là đã phát triển một “bộ công cụ đổi mới có trách nhiệm” cho Microsoft đã giúp các kỹ sư của công ty dự đoán và loại bỏ các rủi ro do AI tạo ra. Các thành viên cũ của nhóm cho biết họ có vai trò chính trong việc giảm thiểu rủi ro AI trong các sản phẩm của Microsoft.

Nhóm đạo đức AI của Microsoft đã rời công ty sau đợt sa thải gần đây

Đáp lại tin tức này, Microsoft tuyên bố họ vẫn “cam kết phát triển các sản phẩm và trải nghiệm AI một cách an toàn và có trách nhiệm, đồng thời làm như vậy bằng cách đầu tư vào con người, quy trình và quan hệ đối tác ưu tiên cho điều này.”

Công ty cũng cho biết họ đã tập trung vào việc xây dựng Văn phòng AI có trách nhiệm trong sáu năm qua. Nhóm này vẫn giữ nguyên vị trí và làm việc với Ủy ban Aether và Chiến lược AI có trách nhiệm trong Kỹ thuật để giảm thiểu rủi ro AI.

Quyết định sa thải nhóm đạo đức AI của Microsoft trùng với thời điểm ra mắt mô hình AI tiên tiến nhất của OpenAI, GPT-4. Mô hình này được thêm vào Microsoft Bing, điều này có thể thu hút nhiều sự quan tâm hơn nữa đối với đối thủ của Google.

Microsoft bắt đầu thành lập nhóm đạo đức AI của mình vào năm 2017 và theo báo cáo, nhóm này có 30 thành viên. Nền tảng báo cáo rằng công ty sau đó đã phân tán các thành viên vào các bộ phận khác nhau khi cuộc cạnh tranh AI với Google đang nóng lên. Cuối cùng, Microsoft đã giảm quy mô nhóm xuống chỉ còn bảy người.

Các nhân viên cũ cũng cho rằng Microsoft đã không lắng nghe đề xuất của họ về các công cụ do AI điều khiển như Bing Image Creator vốn đã sao chép tác phẩm của các nghệ sĩ. Các nhân viên bị trục xuất hiện lo ngại về những mối nguy hiểm có thể xảy ra mà AI có thể gây ra cho người dùng khi không có ai trong công ty nói “không” với các thiết kế có khả năng vô trách nhiệm.

Categories: IT Info