Một trong những vấn đề với chatbot AI đàm thoại ở giai đoạn này là chúng có xu hướng bị ảo giác. Nói cách khác, chúng tạo nên thông tin để phù hợp với yêu cầu của người dùng. ChatGPT là một mô hình ngôn ngữ được thiết kế để cung cấp cho người dùng câu trả lời cho một câu hỏi và khi làm như vậy, chatbot AI sẽ đưa ra thông tin để lấp đầy bất kỳ khoảng trống nào ngay cả khi những gì nó đưa ra không đúng sự thật.
Thời báo New York (thông qua Mashable) đã báo cáo về một luật sư tên là Steven Schwartz của Levidow, Levidow & Oberman đã làm luật sư trong 30 năm. Nhưng nhờ ChatGPT, Schwartz có thể thấy mình đang tìm kiếm một nghề mới. Bạn thấy đấy, Schwartz đang đại diện cho một khách hàng tên là Roberto Mata, người đang kiện hãng hàng không Avianca có trụ sở tại Colombia sau khi đầu gối của anh ấy bị đau do xe phục vụ đâm vào anh ấy trong chuyến bay.
Quyết định sử dụng ChatGPT của Schwartz có thể anh ấy đã phải trả giá bằng 30 năm sự nghiệp luật sư của mình
Avianca đã cố gắng yêu cầu một thẩm phán bác bỏ vụ kiện và các luật sư của Mata-bao gồm cả Schwartz-đã đệ trình một bản tóm tắt có chứa các trường hợp tương tự đã được xét xử trước tòa trong một nỗ lực để chứng minh với thẩm phán rằng vụ án không nên bị bác bỏ. Nhưng đây là lúc ChatGPT và Schwartz gặp rắc rối. Schwartz đã đệ trình vụ kiện khi lần đầu tiên nó đến tòa án Tiểu bang và cung cấp nghiên cứu pháp lý khi nó được chuyển đến Tòa án Liên bang ở Manhattan.
Một luật sư đã sử dụng ChatGPT để thực hiện”nghiên cứu pháp lý”và trích dẫn một số trường hợp không tồn tại trong nộp đơn và hiện đang gặp rất nhiều rắc rối với thẩm phán pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) Ngày 27 tháng 5 năm 2023
Muốn cải thiện hồ sơ của mình, Schwartz đã nhờ đến ChatGPT để giúp anh tìm các trường hợp tương tự dẫn đến việc đưa ra tòa. ChatGPT đã đưa ra một danh sách các trường hợp sau: Varghese kiện China Southern Airlines, Shaboon kiện Egyptair, Petersen kiện Iran Air, Martinez kiện Delta Airlines, Estate of Durden kiện KLM Royal Dutch Airlines và Miller kiện United Airlines.”Đó có vẻ là một danh sách hợp lý các trường hợp cần trích dẫn cho thẩm phán. Chỉ có một vấn đề rất nhỏ; không có trường hợp nào trong số đó là có thật! Tất cả đều do ChatGPT tạo ra.
Luật sư không bao giờ cho rằng chatbot AI có thể cung cấp cho anh ta thông tin giả mạo
Nhóm pháp lý của Avianca và thẩm phán nhanh chóng nhận ra rằng họ không thể tìm thấy bất kỳ trường hợp nào được trích dẫn trong hồ sơ của Schwartz. Khi đệ trình lên tòa án, Schwartz đã đính kèm một ảnh chụp màn hình tương tác của anh ấy với ChatGPT và nói rằng đối với chatbot AI đàm thoại, anh ấy”không biết về khả năng nội dung của nó có thể sai.”tháng để”thảo luận về các biện pháp trừng phạt tiềm năng”đối với Schwartz.
Hãy coi đây là một lời cảnh báo cho bất kỳ ai có kế hoạch để AI thực hiện một số công việc cho họ. Bạn có thể nghĩ rằng mình đang tiết kiệm thời gian, nhưng bạn có thể gặp nhiều rắc rối hơn nếu thay thế công việc khó khăn của chính mình bằng kết quả từ một chatbot AI. Tôi sẽ không bao giờ muốn các bài báo của mình được viết bởi AI và bạn không chỉ tự làm hại mình bằng cách sử dụng AI mà còn đang lừa dối khán giả của mình bằng cách tuyên bố quyền tác giả của thứ mà bạn không viết hoặc bởi vì bạn có thể đang cung cấp cho khán giả của mình những thứ được tạo ra.-up thông tin.
Không thành vấn đề nếu bạn là sinh viên dự định sử dụng chatbot AI để giúp bạn viết bài luận hoặc luật sư muốn trích dẫn các trường hợp. Chatbot AI có thể gây ảo giác và cung cấp cho bạn thông tin giả mạo. Điều đó không có nghĩa là chúng không hữu ích và có thể chỉ cho bạn đi đúng hướng. Nhưng sau khi hoàn tất việc chỉ điểm, bạn có trách nhiệm đảm bảo rằng thông tin bạn đang thu thập là hợp pháp.