Ei ole mikään salaisuus, että ChatGPT on julkaisustaan lähtien vanginnut niin teknologian harrastajien kuin alan johtajien huomion vaikuttavalla koodinkirjoitus-ja keskustelukykyllään. Vaikka tämä uusi tekoälyvallankumous tarjoaa jännittäviä mahdollisuuksia tulevaisuuteen, Europol, Euroopan unionin lainvalvontaviranomainen, on kuitenkin osoitti huolta tekoälychatbotin ChatGPT:n mahdollisesta väärinkäytöstä tietoverkkorikollisuuden, disinformaation ja tietojenkalastelun yhteydessä.
“Koska ChatGPT:n kaltaisten LLM:ien (suurten kielimallien) ominaisuuksia parannetaan aktiivisesti, rikollisten mahdollinen tämäntyyppisten tekoälyjärjestelmien hyödyntäminen tarjoaa synkät näkymät”, Europol sanoo.
ChatGPT:n käyttö tietojenkalastelussa. ja tietoverkkorikollisuus
Viranomaisen mukaan verkkorikolliset voivat käyttää ChatGPT:n kykyä tuottaa erittäin realistista tekstiä matkiakseen tiettyjen henkilöiden tai ryhmien puhetyyliä ja kohdistaakseen pahaa aavistamattomia uhreja. Itse asiassa huijarit käyttävät jo tekoälyä, kuten ChatGPT:tä, tehdäkseen haittaohjelmien saastuttamia YouTube-videoita ja käyttävät näyttötallenteita tai ääniohjeita tekoälyn luoman avatarin kanssa kuvaamaan murtuneiden ohjelmistojen lataamista ja asentamista.
Lisäksi ChatGPT:n kyky purkaa autenttista kuulostavaa tekstiä suuressa mittakaavassa tekee siitä myös ihanteellisen propagandalle ja disinformaatiota. Koska rikolliset voivat luoda ja levittää viestejä, jotka kuvastavat tiettyä kertomusta, johtaa ihmisiä harhaan ja manipuloi yleistä mielipidettä suhteellisen pienellä vaivalla. Lisäksi Europol korostaa myös chatbotin mahdollista käyttöä haitallisen koodin tuottamiseen, koska kuka tahansa voi käyttää ChatGPT:n kielten luonti-ja automaatiovalmiuksia haitallisen koodin luomiseen ja sen käyttämiseen kyberhyökkäyksissä.
Vaikka tekoälytekniikan edut ovat On selvää, että on erittäin tärkeää puuttua sen väärinkäyttöön liittyviin mahdollisiin riskeihin. Europolin raportissa korostetaan tarvetta luoda vankka sääntelykehys, joka tasapainottaa innovaation ja turvallisuuden ja varmistaa, että luomamme teknologia hyödyttää yhteiskuntaa ja estää sen haitallisen käytön. Lisäksi yritysten, kuten Microsoftin ja OpenAI:n, on otettava käyttöön suojatoimia haitallisen käytön estämiseksi.