Salah satu masalah dengan chatbot AI perbualan pada peringkat ini ialah mereka cenderung berhalusinasi. Dengan kata lain, mereka membuat maklumat agar sesuai dengan permintaan pengguna. ChatGPT ialah model bahasa yang direka untuk memberi pengguna jawapan kepada soalan dan dengan berbuat demikian, chatbot AI akan menghasilkan maklumat untuk mengisi sebarang kekosongan walaupun perkara yang dikemukakan itu tidak benar.

The New York Times (melalui Mashable) melaporkan tentang seorang peguam bernama Steven Schwartz dari Levidow, Levidow & Oberman yang telah bekerja sebagai peguam selama 30 tahun. Tetapi terima kasih kepada ChatGPT, Schwartz boleh mendapati dirinya mencari profesion baharu. Anda lihat, Schwartz mewakili seorang pelanggan bernama Roberto Mata yang menyaman syarikat penerbangan yang berpangkalan di Colombia, Avianca selepas lututnya cedera akibat kereta hidangan yang melanggarnya semasa penerbangan.

Keputusan oleh Schwartz untuk menggunakan ChatGPT boleh menyebabkan dia kehilangan kerjaya guaman selama 30 tahun

Avianca cuba mendapatkan hakim untuk menolak kes itu dan peguam Mata-termasuk Schwartz-menyerahkan taklimat yang mengandungi kes serupa yang dibicarakan di mahkamah dalam percubaan untuk membuktikan kepada hakim bahawa kes itu tidak boleh ditolak. Tetapi di sinilah ChatGPT dan Schwartz kacau. Schwartz memfailkan kes itu apabila ia mula-mula mendarat di mahkamah Negeri dan menyediakan penyelidikan undang-undang apabila ia dipindahkan ke Mahkamah Persekutuan di Manhattan.

Seorang peguam menggunakan ChatGPT untuk melakukan”penyelidikan undang-undang”dan memetik beberapa kes yang tidak wujud dalam pemfailan, dan kini menghadapi banyak masalah dengan hakim pic.twitter.com/AJSE7Ts7W7

— Daniel Feldman (@d_feldman) 27 Mei 2023

Ingin menambah baik pemfailannya, Schwartz berpaling kepada ChatGPT untuk membantunya mencari kes serupa yang dibawa ke mahkamah. ChatGPT menghasilkan senarai kes ini: Varghese lwn China Southern Airlines, Shaboon lwn Egyptair, Petersen lwn Iran Air, Martinez lwn Delta Airlines, Estate of Durden lwn KLM Royal Dutch Airlines dan Miller lwn United Airlines.”Kedengarannya seperti senarai kes yang baik untuk disebut kepada hakim. Hanya ada satu isu kecil; tiada satu pun daripada kes itu benar! Kesemuanya dibuat oleh ChatGPT.

Peguam tidak pernah menganggap bahawa chatbot AI boleh memberinya maklumat palsu

Pasukan undang-undang Avianca dan hakim segera menyedari bahawa mereka tidak dapat menemui mana-mana kes yang disebut dalam pemfailan Schwartz. Dalam afidavit dia difailkan dengan mahkamah, Schwartz menyertakan tangkapan skrin interaksinya dengan ChatGPT dan berkata bahawa setakat chatbot AI perbualan berkenaan, dia”sedar kemungkinan kandungannya boleh palsu.”Hakim telah menjadualkan pendengaran untuk seterusnya bulan untuk”membincangkan kemungkinan sekatan”untuk Schwartz.

Biar ini menjadi amaran kepada sesiapa sahaja yang bercadang meminta AI melakukan beberapa kerja mereka untuk mereka. Anda mungkin berfikir bahawa anda menjimatkan masa, tetapi anda boleh menghadapi lebih banyak masalah jika anda menggantikan kerja keras anda sendiri dengan hasil daripada chatbot AI. Saya tidak sekali-kali mahu artikel saya ditulis oleh AI dan bukan sahaja anda mencederakan diri sendiri dengan menggunakan AI, anda berbohong kepada khalayak anda sama ada dengan mendakwa pengarang sesuatu yang anda tidak tulis, atau kerana anda mungkin menyediakan khalayak anda dengan buatan sendiri.-up maklumat.

Tidak kira jika anda seorang pelajar yang merancang untuk menggunakan AI chatbot untuk membantu anda dengan kertas yang anda perlukan untuk menulis atau peguam yang ingin memetik kes. Chatbot AI boleh berhalusinasi dan memberi anda maklumat palsu. Itu bukan bermakna mereka tidak boleh berguna dan mungkin dapat menunjukkan anda ke arah yang betul. Tetapi sebaik sahaja penunjuk selesai, terpulang kepada anda untuk memastikan maklumat yang anda perolehi adalah sah.

Categories: IT Info