ปัญหาอย่างหนึ่งของแชทบอท AI เชิงสนทนาในขั้นตอนนี้คือพวกมันมักจะประสาทหลอน กล่าวอีกนัยหนึ่ง พวกเขาสร้างข้อมูลให้พอดีกับคำขอของผู้ใช้ ChatGPT เป็นรูปแบบภาษาที่ออกแบบมาเพื่อตอบคำถามของผู้ใช้ ในการทำเช่นนั้น แชทบ็อต AI จะแสดงข้อมูลเพื่อเติมเต็มช่องว่างแม้ว่าสิ่งที่เกิดขึ้นจะไม่เป็นความจริงก็ตาม

The New York Times (ผ่าน Mashable) รายงานเกี่ยวกับทนายความชื่อ Steven Schwartz แห่ง Levidow Levidow & Oberman ที่ทำงานเป็นทนายความมา 30 ปี แต่ต้องขอบคุณ ChatGPT ชวาร์ตษ์สามารถค้นหาอาชีพใหม่ได้ คุณเห็นไหมว่า Schwartz เป็นตัวแทนของลูกค้าชื่อ Roberto Mata ซึ่งกำลังฟ้องร้องสายการบิน Avianca ในโคลอมเบียหลังจากที่เข่าของเขาได้รับบาดเจ็บจากรถเข็นเสิร์ฟที่ชนเขาระหว่างเที่ยวบิน

การตัดสินใจของ Schwartz ที่จะใช้ ChatGPT สามารถทำได้ ทำให้เขาสูญเสียอาชีพนักกฎหมายตลอด 30 ปี

Avianca พยายามขอให้ผู้พิพากษายกฟ้องคดี และทนายความของ Mata ซึ่งรวมถึง Schwartz ได้ยื่นบทสรุปที่มีคดีคล้ายคลึงกันซึ่งได้รับการพิจารณาในศาลด้วยความพยายาม เพื่อพิสูจน์ให้ผู้พิพากษาเห็นว่าไม่ควรยกฟ้อง แต่นี่คือจุดที่ ChatGPT และ Schwartz ทำพลาด Schwartz ยื่นฟ้องคดีนี้เมื่อคดีนี้ขึ้นสู่ศาลของรัฐเป็นครั้งแรก และให้ข้อมูลการวิจัยทางกฎหมายเมื่อคดีดังกล่าวถูกโอนไปยังศาลรัฐบาลกลางในแมนฮัตตัน

ทนายความคนหนึ่งใช้ ChatGPT เพื่อทำ”การวิจัยทางกฎหมาย”และอ้างถึงคดีที่ไม่มีอยู่จริงจำนวนหนึ่งใน ยื่นฟ้องและตอนนี้กำลังมีปัญหากับผู้พิพากษา pic.twitter.com/AJSE7Ts7W7

— แดเนียล เฟลด์แมน (@d_feldman) 27 พฤษภาคม 2023

ชวาร์ตษ์หาทางปรับปรุงการยื่นเอกสารของเขาจึงหันมาใช้ ChatGPT เพื่อช่วยเขาค้นหาคดีที่คล้ายกันซึ่งขึ้นสู่ศาล ChatGPT จัดทำรายการกรณีเหล่านี้: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines และ Miller v. United Airlines”ฟังดูเหมือนเป็นรายการคดีที่เหมาะสมที่จะอ้างถึงผู้พิพากษา มีเพียงประเด็นเล็กๆ เรื่องเดียว ไม่มีกรณีเหล่านั้นจริง! ทั้งหมดนี้สร้างขึ้นโดย ChatGPT

ทนายความไม่เคย พิจารณาว่าแชทบอท AI สามารถให้ข้อมูลปลอมแก่เขา

ทีมกฎหมายของ Avianca และผู้พิพากษาตระหนักได้อย่างรวดเร็วว่าพวกเขาไม่พบคดีใด ๆ ที่อ้างถึงในการยื่นฟ้องของ Schwartz ในคำให้การเป็นลายลักษณ์อักษร เขา ยื่นฟ้องต่อศาล Schwartz รวมภาพหน้าจอของการโต้ตอบของเขากับ ChatGPT และกล่าวว่า เท่าที่เกี่ยวข้องกับการสนทนา AI chatbot เขา”ไม่รู้ถึงความเป็นไปได้ที่เนื้อหาอาจเป็นเท็จ”ผู้พิพากษาได้กำหนดการพิจารณาคดีครั้งต่อไป เดือนเพื่อ”หารือเกี่ยวกับการคว่ำบาตรที่อาจเกิดขึ้น”สำหรับชวาร์ตษ์

ให้สิ่งนี้เป็นคำเตือนสำหรับใครก็ตามที่วางแผนจะให้ AI ทำงานบางอย่างแทนพวกเขา คุณอาจคิดว่าคุณประหยัดเวลา แต่คุณอาจพบกับปัญหามากขึ้นหากคุณแทนที่การทำงานหนักของคุณเองด้วยผลลัพธ์จากแชทบอท AI ฉันไม่ต้องการให้บทความของฉันเขียนโดย AI และไม่เพียงแต่คุณทำร้ายตัวเองโดยใช้ AI เท่านั้น คุณยังโกหกผู้ชมของคุณด้วยการอ้างสิทธิ์ในสิ่งที่คุณไม่ได้เขียน หรือเพราะคุณอาจให้ผู้ชมทำ-อัพข้อมูล

ไม่สำคัญว่าคุณจะเป็นนักเรียนที่วางแผนจะใช้แชทบ็อต AI เพื่อช่วยคุณเรื่องเอกสารที่คุณต้องเขียน หรือเป็นทนายความที่ต้องการอ้างถึงคดีต่างๆ แชทบอท AI สามารถหลอกหลอนและให้ข้อมูลปลอมแก่คุณได้ ไม่ได้หมายความว่าจะไม่มีประโยชน์และอาจชี้ทางที่ถูกต้องให้คุณได้ แต่เมื่อชี้เสร็จแล้ว ก็ขึ้นอยู่กับคุณที่จะตรวจสอบให้แน่ใจว่าข้อมูลที่คุณได้รับนั้นถูกต้องตามกฎหมาย

Categories: IT Info