Yksi ​​keskustelua tekevien AI-chatbottien ongelmista tässä vaiheessa on, että niillä on taipumus hallusinoida. Toisin sanoen ne muodostavat tietoa käyttäjän pyynnöstä. ChatGPT on kielimalli, joka on suunniteltu antamaan käyttäjälle vastaus kysymykseen, ja niin tehdessään AI-chatbot keksii tietoja, jotka täyttävät mahdolliset aukot, vaikka se ei olisikaan totta.

The New York Times (Mashable) raportoi asianajajasta nimeltä Steven Schwartz of Levidow, Levidow & Oberman, joka on työskennellyt asianajajana 30 vuotta. Mutta ChatGPT:n ansiosta Schwartz saattoi löytää itsensä etsimässä uutta ammattia. Schwartz edusti Roberto Mata-nimistä asiakasta, joka haastoi kolumbialaiseen lentoyhtiöön Aviancan, koska hänen polvensa loukkaantui tarjoilukärrystä, joka törmäsi häneen lennon aikana.

Schwartzin päätös käyttää ChatGPT:tä voi maksoi hänelle hänen 30-vuotisen lakimiesuransa

Avianca yritti saada tuomarin hylkäämään asian, ja Matan asianajajat, mukaan lukien Schwartz, esittivät selvityksen, joka sisälsi samanlaisia ​​​​tapauksia, jotka käsiteltiin tuomioistuimessa. todistaa tuomarille, että asiaa ei pidä hylätä. Mutta tässä ChatGPT ja Schwartz menivät sekaisin. Schwartz jätti asian, kun se päätyi osavaltion tuomioistuimeen, ja toimitti oikeudellisen tutkimuksen, kun se siirrettiin liittovaltion tuomioistuimeen Manhattanilla.

Lakimies käytti ChatGPT:tä”oikeudelliseen tutkimukseen”ja mainitsi useita olemattomia tapauksia hakemuksen, ja hänellä on nyt paljon ongelmia tuomarin kanssa pic.twitter.com/AJSE7Ts7W7

— Daniel Feldman (@d_feldman) 27. toukokuuta 2023

Schwartz halusi parantaa hakemustaan ​​ja kääntyi ChatGPT:n puoleen auttaakseen häntä löytämään samanlaisia ​​tapauksia, jotka pääsivät oikeuteen. ChatGPT tuotti luettelon näistä tapauksista: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines ja Miller v. United Airlines.”Tämä kuulostaa pätevältä listalta tapauksista, jotka on syytä mainita tuomarille. Siinä oli vain yksi pieni ongelma; yksikään tapauksista ei ollut todellista! ChatGPT:n keksi ne kaikki.

Lakimies ei koskaan katsoi, että tekoäly-chatbot saattoi antaa hänelle vääriä tietoja

Aviancan lakitiimi ja tuomari huomasivat nopeasti, etteivät he löytäneet mitään Schwartzin hakemuksessa mainituista tapauksista. Tuomioistuimelle jätetty Schwartz sisälsi kuvakaappauksen vuorovaikutuksestaan ​​ChatGPT:n kanssa ja sanoi, että mitä puhuttelevaan AI-chatbotiin tulee, hän”ei ollut tietoinen mahdollisuudesta, että sen sisältö voisi olla väärä.”Tuomari on määrännyt kuulemisen seuraavaksi kuukausi Schwartzin”mahdollisista sanktioista”keskustelemiseksi.

Olkoon tämä varoitus kaikille, jotka aikovat saada tekoälyn tekemään osan työstään heidän puolestaan. Saatat ajatella, että säästät aikaa, mutta saatat päätyä enemmän vaikeuksiin, jos korvaat oman kovan työsi tekoäly-chatbotin tuloksilla. En koskaan haluaisi artikkeleideni olevan tekoälyn kirjoittamia, etkä vahingoita itseäsi käyttämällä tekoälyä, vaan valehtelet yleisöllesi joko väittämällä, että olet kirjoittanut jotain, jota et ole kirjoittanut, tai koska mahdollisesti tarjoat yleisöllesi tehtyä-tietoja.

Sillä ei ole väliä, oletko opiskelija, joka aikoo käyttää tekoäly-chatbotia auttaakseen sinua kirjoitettavan paperin kanssa, vai lakimies, joka haluaa lainata tapauksia. AI-chatbotit voivat hallusinoida ja antaa sinulle vääriä tietoja. Tämä ei tarkoita, etteivätkö niistä voisi olla hyötyä ja että ne voisivat ohjata sinut oikeaan suuntaan. Mutta kun osoitus on tehty, sinun on varmistettava, että saamasi tiedot ovat laillisia.

Categories: IT Info