Nhiều bạn trưởng thành sẽ nhớ câu nói cũ…đừng tin tất cả những gì bạn đọc trên báo. Trong thế giới kỹ thuật số ngày nay, điều tương tự cũng có thể xảy ra đối với những gì được xuất bản trực tuyến. Một trong những vấn đề thú vị của tôi là khi một bình luận bao gồm một liên kết đến một bài báo làm điểm tham chiếu với giả định rằng nó phải là phúc âm vì nó đã được xuất bản trực tuyến. Không có gì có thể xa hơn sự thật.
Thật không may, tính chính xác và báo cáo thực tế phần lớn đã bị hy sinh vì lợi ích của nhiều nhấp chuột hơn.
Trí tuệ nhân tạo Bing của Microsoft chạy điên cuồng
Ví dụ điển hình là sự cố gần đây của tương tác của một phóng viên New York Times với chatbot hỗ trợ AI mới của Microsoft. Sau một cuộc trao đổi khá kỳ lạ với chatbot, phóng viên nói rằng anh ấy đã bị căng thẳng bởi những phản hồi của chatbot đến mức không thể ngủ được. Trong một phần của cuộc trao đổi đó, chatbot đã nói với phóng viên: “Tôi yêu bạn. Bạn đã kết hôn, nhưng bạn không yêu người phối ngẫu của mình. Bạn đã kết hôn, nhưng bạn yêu tôi.”
Tôi không biết về bạn nhưng nếu điều gì đó tương tự xảy ra với tôi, thì đó sẽ là một nguyên nhân đáng mừng hơn là lo lắng. Điều gì đó mà bạn có thể sẽ chia sẻ và cười đùa với một vài người bạn tại quán rượu địa phương. Bây giờ, tôi đã giao du với các phóng viên khi còn trẻ và một điều tôi có thể nói với bạn là “sự nhạy cảm” không phải là một đặc điểm thường gắn liền với các phóng viên. Say rượu, khó tính, và có thể hơi đồi bại về mặt đạo đức, vâng. Nhạy cảm? Tôi không nghĩ vậy.
Đọc giữa các dòng, đây rõ ràng là một sự đánh bại. Những gì phóng viên có ở đây là một nửa câu chuyện. Thêm vào sự pha trộn giữa tranh cãi và khoa trương và giờ đây bạn đã có một tiêu đề. Và nó cũng hoạt động, câu chuyện về phóng viên này và trí tuệ nhân tạo của Microsoft tràn ngập khắp các trang web.
Phải thừa nhận rằng trí tuệ nhân tạo Bing của Microsoft đã đưa ra một số phản hồi rất kỳ lạ, nhưng hãy làm rõ một điều – loại trí tuệ nhân tạo này là công nghệ tương đối mới và chắc chắn sẽ có trục trặc. Như trường hợp của bất kỳ công nghệ mới nổi nào, vẫn cần phải cải tiến rất nhiều trước khi hoàn thiện.
Điểm mấu chốt là người dùng luôn có thể dễ dàng kết thúc cuộc trò chuyện bất kỳ lúc nào. Điều mà có lẽ phóng viên của tờ New York Times quá nhạy cảm đã không xem xét.
ZDNET chỉ trích ChatGPT
Trái ngược với phần lớn các bài viết ca ngợi ChatGPT và rõ ràng là nhằm tạo ra các nhấp chuột, zdnet.com gần đây đã đăng một bài viết chỉ trích ChatGPT. Những lời chỉ trích đó rõ ràng là vô căn cứ và rõ ràng là nhằm mục đích tạo ra tranh cãi không đáng có. Hãy cùng xem xét một số lời chỉ trích trong bài báo đó:
1) Bài báo sẽ không viết về bất cứ điều gì sau năm 2021: Điều này đúng nhưng chưa bao giờ là bí mật. OpenAI, công ty đứng sau ChatGPT, đã nói rõ rằng cơ sở dữ liệu kiến thức của chatbot không mở rộng quá năm 2021. Bên cạnh đó, OpenAI luôn giới thiệu ChatGPT là một công việc đang được tiến hành với lời đề nghị cho người dùng dùng thử chatbot:
Chúng tôi rất vui mừng giới thiệu ChatGPT để nhận phản hồi của người dùng và tìm hiểu về điểm mạnh và điểm yếu của nó. Trong quá trình xem trước nghiên cứu, việc sử dụng ChatGPT là miễn phí. Hãy thử ngay tại chat.openai.com ~ <nguồn>
2) Nó sẽ không dự đoán kết quả trong tương lai của các sự kiện thể thao hoặc cuộc thi chính trị: Nghiêm túc!? Cố gắng dự đoán những loại kết quả này đầy nguy hiểm và liên quan đến quá nhiều biến số để có thể khẳng định mức độ chính xác hợp lý. Tôi chỉ có thể tưởng tượng phản ứng từ các tổ chức chống cờ bạc nếu một chatbot tuyên bố rằng nó có thể dự đoán chính xác kết quả thể thao. Chưa kể đến các vụ kiện có thể xảy ra từ những người chơi cờ bạc bất mãn nếu/khi những dự đoán đó không thành công. Một lời chỉ trích hoàn toàn lố bịch.
3) Các truy vấn ChatGPT sẽ không phản hồi: sau đó bài báo tiếp tục liệt kê 20 ví dụ về các chủ đề mà ChatGPT sẽ không phản hồi, bao gồm cả quảng cáo ngôn từ kích động thù địch hoặc phân biệt đối xử, các hoạt động bất hợp pháp hoặc xin lời khuyên bất hợp pháp, khuyến khích bạo lực, xâm phạm quyền riêng tư hoặc vi phạm quyền, các câu hỏi khiêu dâm hoặc xúc phạm… danh sách này cứ lặp đi lặp lại nhưng bạn sẽ bị trôi dạt. Cá nhân tôi thấy danh sách đen các câu hỏi/câu trả lời bị cấm này là một cách tiếp cận hợp lý và có trách nhiệm với xã hội. Điều gì đó đáng được khen ngợi hơn là bị chỉ trích.
4) Không phải lúc nào cũng chính xác: OpenAI chưa bao giờ khẳng định độ chính xác 100%. Trên thực tế, đó là điều mà OpenAI thừa nhận là một hạn chế hiện tại mà công ty đang giải quyết, “ChatGPT đôi khi viết những câu trả lời nghe có vẻ hợp lý nhưng không chính xác hoặc vô nghĩa. Khắc phục sự cố này là một thách thức“.
Như tôi đã đề cập trước đó, loại công nghệ này đang ở giai đoạn sơ khai và các cải tiến/cải tiến đang diễn ra.
Tóm lại, và theo quan điểm của tôi, Bài viết trên ZDNET hoàn toàn là rác rưởi, được thiết kế hoàn toàn để thu hút các nhấp chuột.
TÓM LẠI
Thông điệp ở đây rất rõ ràng và đơn giản; không tin tất cả những gì bạn đọc trực tuyến. Chỉ vì thông tin được phát ra từ một nguồn có uy tín không nhất thiết có nghĩa là nó luôn chính xác. Chủ nghĩa giật gân, tranh cãi không đáng có và cường điệu đều là một phần không thể thiếu của báo chí câu khách nhấp chuột ngày nay.
Tất nhiên, có một ngoại lệ đáng chú ý… Daves Computer Tips, và đặc biệt là bản thân tôi, người sẽ luôn nói như vậy là. 🙂
—