ChatGPT:n julkaisusta lähtien ChatGPT:n kaltaiset AI-chatbotit ovat olleet valtaosa. Näiden chatbottien leviäminen tarkoittaa kuitenkin myös ongelmien pahenemista. Itse asiassa OpenAI yllätti maailman ChatGPT:n kyvyllä. Tästä syystä sen käyttöä on vastustettu paljon ja joihinkin liittyy jopa oikeudellisia taisteluita. Kuitenkin Yhdysvalloissa, ChatGPT:n kotimaassa, laki saattaa vain suojata ChatGPT:tä. Vuonna 1996 julkaistun Yhdysvaltain Communications Decency Actin pykälä 230 sanoo, että yrityksen ei tarvitse kantaa oikeudellista vastuuta kolmansien osapuolten tai käyttäjien alustallaan julkaisemasta sisällöstä (Artikla 230).
Yhdysvaltain korkein oikeus päättää kuitenkin lähikuukausina, heikennetäänkö tätä suojaa. Tällä voi olla vaikutusta myös AI-chatboteihin, kuten ChatGPT. Tuomareiden odotetaan ratkaisevan kesäkuun loppuun mennessä, voidaanko Alphabetin omistama YouTube haastaa oikeuteen videoiden suosittelemisesta käyttäjille. Vaikka alustat on vapautettu vastuusta käyttäjien lataamista videoista, sovelletaanko pykälän 230 mukaisia suojauksia, kun ne suosittelevat sisältöä käyttäjille algoritmeja?
Teknologia-ja lakiasiantuntijat sanovat, että tapauksella on sosiaalisen median alustojen ulkopuolisia vaikutuksia. He uskovat, että tuomio voi herättää uutta keskustelua siitä, voidaanko tekoäly-chatbotteja kehittävät yritykset, kuten OpenAI ja Google suojattu oikeudellisilta vaatimuksilta, kuten kunnianloukkaukselta tai yksityisyyden loukkaamiselta. Asiantuntijat huomauttavat, että tämä johtuu siitä, että ChatGPT:n ja muiden käyttämä algoritmi muistuttaa tapaa, jolla se suosittelee videoita YouTube-käyttäjille.
Mitä tekoäly-chatbotit tekevät?
Tekoäly-chatbotit on koulutettu tuottaa suuria määriä alkuperäistä sisältöä, ja kohta 230 koskee yleensä kolmannen osapuolen sisältöä. Tuomioistuimet eivät ole vielä pohtineet, suojataanko AI-chatbotin vastaukset. Demokraattinen senaattori sanoi, että koskemattomuusoikeutta ei voida soveltaa generatiivisiin tekoälytyökaluihin, koska ne”luovat sisältöä”.”Osio 230 koskee käyttäjien ja verkkosivustojen suojaamista ja käyttäjien puheen järjestämistä. Sen ei pitäisi eristää yrityksiä omien toimiensa ja tuotteidensa seurauksilta”, hän sanoi.
Teknologiateollisuus on pyrkinyt pitämään pykälän 230. Jotkut ihmiset ajattelevat, että ChatGPT:n kaltaiset työkalut ovat kuin hakukoneita, jotka palvelevat. olemassa olevaa sisältöä käyttäjille kyselyjen perusteella.”Tekoäly ei oikeastaan luo mitään. Se vain esittelee olemassa olevan sisällön eri tavalla tai eri muodossa”, sanoi Carl Szabo, NetChoicen teknologiateollisuuden kaupparyhmän varapuheenjohtaja ja lakiasiainjohtaja.
Szabo sanoi, että jos § 230 heikennettäisiin, se loisi mahdottomaksi tehtävän tekoälykehittäjille. Tämä altistaa heidät myös oikeusjuttujen tulville, jotka voivat tukahduttaa innovaatiot. Jotkut asiantuntijat spekuloivat, että tuomioistuimet voivat ottaa neutraalin kannan ja tutkia kontekstia, jossa tekoälymallit tuottavat mahdollisesti haitallisia vastauksia.
Viikon Gizchina-uutiset
Poikkeusedut voivat silti olla voimassa tapauksissa, joissa tekoälymalli näyttää pystyvän selittämään olemassa olevat lähteet. ChatGPT:n kaltaisten chatbottien on tiedetty tuottavan vääriä vastauksia, joita asiantuntijoiden mukaan ei ehkä ole suojattu.
Hanny Farid, tekniikan asiantuntija ja yliopiston professori. Kaliforniassa, Berkeleyssä, sanoi, että on kaukaa haettua ajatella, että tekoälykehittäjien pitäisi olla immuuneja oikeusjutuksille, jotka liittyvät heidän”ohjelmoimiinsa, kouluttamiansa ja käyttöönottamiinsa malleihin.”
“Jos yritykset voidaan asettaa vastuuseen siviilioikeudellisissa kanteissa, ne tekevät turvallisemmat tuotteet; jos ne on vapautettu, tuotteet ovat yleensä vähemmän turvallisia”, Farid sanoi.
Ongelmia tekoälytyökaluissa, kuten ChatGPT
AI chatbotit ovat nyt erittäin suosittuja nykymaailmassa. Tämä johtuu siitä, että ne tarjoavat tehokkaan ja kätevän tavan ihmisille olla vuorovaikutuksessa. Nämä chatbotit pystyvät käsittelemään luonnollista kieltä ja antamaan asiaankuuluvia vastauksia kyselyihin. Tämä tekee niistä hyödyllisen työkalun asiakaspalveluun, myyntiin ja tukeen. Tekoälychatbottien käytön turvallisuudesta on kuitenkin herännyt huolta, lähinnä yksityisyyden ja turvallisuuden kannalta.
Yksi AI-chatbottien suurimmista huolenaiheista voi olla aukko tietomurroille ja kyberhyökkäykselle. Koska chatbotit vaativat käyttäjiä usein antamaan henkilökohtaisia tietoja, kuten nimensä, osoitteensa ja maksutietonsa, on olemassa vaara, että nämä tiedot voidaan varastaa. Tämän riskin vähentämiseksi yritysten on varmistettava, että heidän chatbotit ovat turvallisia, ja käytettävä salausmenetelmiä käyttäjien tietojen suojaamiseen.
Toinen tekoäly-chatbottien ongelma on järjestelmän mahdollisuus vääristyä. Koska nämä chatbotit ovat ihmisten ohjelmoimia, ne voivat olla yhteiskunnassa vallitsevia ennakkoluuloja ja stereotypioita. Esimerkiksi chatbot, joka on suunniteltu seulomaan työnhakijoita, voi syrjiä tiettyjä ryhmiä rodun, sukupuolen tai etnisen taustan perusteella. Tämän välttämiseksi chatbot-kehittäjien on varmistettava, että heidän algoritminsa ovat lähes täydellisiä ja harhaanjohtavia.
On myös olemassa riski, että AI-chatbotit eivät ehkä pysty käsittelemään monimutkaisia kyselyitä. Tämä sisältää ne, jotka liittyvät mielenterveyteen tai perheväkivaltaan. Tällaisissa tapauksissa käyttäjät eivät välttämättä saa tarvitsemaansa tukea. Tietenkin tämä on yksi niistä alueista, joilla ihmiset haluavat näiden chatbottien olevan vastuussa. Jos ne antavat väärän vastauksen tietyissä skenaarioissa, lopputulos voi olla erittäin huono.
Loppusanat
Näistä huolenaiheista huolimatta tekoäly-chatbotit voivat olla turvallisia käyttää, jos niitä käytetään oikein. Jotkut ihmiset haluavat käyttää AI-chatbotteja korvaamaan lääkäreitä ja muita asiantuntijoita. Nämä eivät ole tämän työkalun ihanteellisia käyttötapoja. Kehittäjien on vältettävä puolueellisuutta hinnalla millä hyvänsä ja varmistettava, että järjestelmä on osallistava. Chatbotteja ei myöskään pidä jättää toimimaan ilman ihmisen läsnäoloa. Ajoittain ne tulee tarkistaa ja tarvittaessa päivittää. Varmistaakseen, että ne ovat turvallisia käyttää, kehittäjien on otettava huomioon turvallisuuteen, yksityisyyteen, puolueellisuuteen ja chatbottien rajoituksiin liittyvät huolenaiheet. Oikeilla työkaluilla AI-chatbotit voivat tehdä tiedonhaun erittäin helposti. Se voisi olla myös melko kunnollinen apulainen monille ihmisille, jotka tarvitsevat jonkinlaista apua tiedon kanssa.
Lähde/VIA: