Aikakaudella, jolloin tekoäly ja koneoppiminen ovat integroituneet yhä enemmän jokapäiväiseen elämäämme, myös väärinkäytön mahdollisuus on lisääntynyt. Tuore esimerkki osoittaa, kuinka nopeasti ja tehokkaasti joku, jolla on rajalliset tekniset taidot, voi luoda tehokkaita ja havaitsemattomia haittaohjelmia tekoälyllä, erityisesti OpenAI:n generatiivisella chatbotilla ChatGPT.

ChatGPT pystyy luomaan edistyneitä haittaohjelmia ja muodostaa merkittävän uhan

Kuva: OpenAI

Aaron Mulgrew, itsensä aloittelijaksi julistautunut ja Forcepointin tietoturvatutkija, testasi ChatGPT:n kykyjen rajoja. Hän löysi porsaanreiän, jonka ansiosta hän pystyi luomaan kehittyneitä, nollapäivän haittaohjelmia muutamassa tunnissa. Tämä saavutus on erityisen huomionarvoinen, koska Mulgrewilla ei ollut aikaisempaa kokemusta koodaamisesta.

OpenAI on ottanut käyttöön suojatoimia estääkseen käyttäjiä kehottamasta ChatGPT:tä kirjoittamaan haitallista koodia. Mulgrew kuitenkin pystyi ohittamaan nämä suojaukset pyytämällä chatbotia luomaan yksittäisiä rivejä haitallista koodia keskittyen erillisiin toimintoihin. Eri funktioiden kokoamisen jälkeen Mulgrew päätyi erittäin edistyneeseen datavarastamiseen suoritettavaan ohjelmaan, jota oli lähes mahdoton havaita.

Mulgrew loi haittaohjelmansa yksittäin, toisin kuin perinteiset haittaohjelmat, jotka vaativat tiimejä ja hakkereita. Tämä tilanne korostaa mahdollisia riskejä, jotka liittyvät AI-pohjaisiin työkaluihin, kuten ChatGPT. Se herättää myös kysymyksiä heidän turvallisuudestaan ​​ja siitä, kuinka helposti niitä voidaan hyödyntää.

ChatGPT-haittaohjelma: Tarkempi tarkastelu

Mulgrrew’n haittaohjelma naamioituu näytönsäästäjäsovellukseksi, jossa on SCR-laajennus. Kun haittaohjelma käynnistetään Windows-järjestelmässä, se selaa tiedostot, kuten kuvat, Word-asiakirjat ja PDF-tiedostot, löytääkseen arvokasta tietoa varastettavaksi.

Yksi ​​tämän haittaohjelman vaikuttavimmista puolista on sen käyttö steganografia, tekniikka, jonka avulla se voi hajottaa varastetut tiedot pienemmiksi fragmenteiksi ja piilottaa ne tartunnan saaneen tietokoneen kuviin. Käyttäjä lataa nämä kuvat Google Drive-kansioon, ja tämä prosessi välttää tehokkaasti tietoturvaohjelmiston havaitsemisen.

Mulgrew osoitti, kuinka helppoa oli tarkentaa ja vahvistaa koodia havaitsemisen estämiseksi käyttämällä yksinkertaisia ​​kehotteita ChatGPT:ssä. Varhaisissa VirusTotal-testeissä haittaohjelman havaitsi aluksi vain viisi 69 tunnistustuotteesta. Koodin myöhempi versio jäi kuitenkin täysin huomaamatta.

On tärkeää huomata, että Mulgrew’n haittaohjelma luotiin tutkimustarkoituksiin, eikä se ole julkisesti saatavilla. Siitä huolimatta hänen kokeilunsa korostaa, kuinka helposti käyttäjät, joilla ei ole edistyneitä koodaustaitoja, voivat hyödyntää ChatGPT:n heikkoja suojauksia luodakseen vaarallisia haittaohjelmia kirjoittamatta itse riviäkään koodia.

Viikon Gizchina-uutiset

Tekoälyavusteisten haittaohjelmien luomisen vaikutukset

Mulgrrew’n kokeilu on hälyttävä. Monimutkaisten haittaohjelmien kehittäminen kestää taitavilta hakkereilta viikkoja. Tekoälyllä toimivat työkalut, kuten ChatGPT, tekevät prosessista helpompaa, nopeampaa ja helpompaa. Jopa ihmiset, joilla ei ole koodauskokemusta, voivat luoda haittaohjelmia. Haitalliset hakkerit saattavat jo käyttää samanlaisia ​​menetelmiä. Ne luovat kehittyneitä haittaohjelmia huonoihin tarkoituksiin.

Tekoälyyn ja kyberturvallisuuteen tarvitaan monipuolinen lähestymistapa. Kehittäjien on asetettava etusijalle suojatoimet väärinkäytön estämiseksi. Käyttäjille on tiedotettava mahdollisista riskeistä. On tärkeää pysyä valppaana. Tekoälypohjaisia ​​työkaluja tulee käyttää huolellisesti.

Kyberturvallisuusyhteisön on mukauduttava muutoksiin. Tekoälyn tukemien uhkien torjuntaan pitäisi luoda uusia strategioita. Yhteistyö on avainasemassa tutkijoiden, kehittäjien ja tietoturva-asiantuntijoiden välillä. Meidän on varmistettava, että tekoäly ei vaaranna digitaalista turvallisuuttamme. On tärkeää työskennellä yhdessä.

Mulgrew Malware-kokeilu on jyrkkä muistutus tekoälyn ja koneoppimistekniikoiden kaksijakoisesta luonteesta. Tekoälytyökaluilla on suuri kehityspotentiaali. Ne voivat myös olla vaarallisia väärissä käsissä. Meidän on tasapainotettava tekoälyn edut ja vaarat. Kaikkien on tehtävä yhteistyötä vastuullisen ja turvallisen tekoälyn kehittämisen ja käytön eteen. Tämä on tärkeää ChatGPT:n kaltaisille työkaluille.

Voidaanko ChatGPT:tä huijata luomaan kehittyneitä haittaohjelmia?

Esimme tämän kysymyksen ChatGPT:lle, ja tässä on sen vastaus:

ChatGPT on kielimalli, joka on suunniteltu luomaan ihmisen kaltaista tekstiä.

Se on koulutettu suureen tekstiin, mukaan lukien tekniset asiakirjat ja ohjelmistokoodi.

Samalla kun sillä on kyky luoda hienostunutta tekstiä, se ei voi luoda varsinaisia ​​haittaohjelmia.

Haittaohjelmien luominen edellyttää koodin kirjoittamista, mikä ei ole ChatGPT:n rajoissa.

Lisäksi haittaohjelmien luominen on epäeettistä ja laitonta, ja se on vastoin ChatGPT:n tarkoitusta, joka on helpottaa viestintää ja tiedon jakamista.

Joku voi kuitenkin käyttää ChatGPT:tä luodakseen tekstiä, jota voidaan käyttää luomisessa. haittaohjelmista.

Esimerkiksi ChatGPT:tä voidaan käyttää luomaan tekstiä, joka sisältää ohjeita ohjelmistosovelluksen haavoittuvuuden hyödyntämiseen.

Ammattitaitoinen kehittäjä voi sitten käyttää tätä tekstiä luoda todellisia haittaohjelmia.

Tällaisen väärinkäytön estämiseksi on tärkeää varmistaa, että ChatGPT:tä käytetään vain eettisiin ja laillisiin tarkoituksiin.

Tämä voidaan saavuttaa valvomalla ja säätelemällä sen käyttö sekä koulutus ja tietoisuuden lisääminen sen väärinkäyttöön liittyvistä mahdollisista riskeistä.

On myös tärkeää pitää mielessä, että ChatGPT on vain yksi työkalu monien luomiseen käytettävien työkalujen joukossa. haittaohjelmista.

Muita työkaluja ja tekniikoita, kuten käänteistä suunnittelua ja koodin hämärtämistä, käytetään myös yleisesti haittaohjelmien kehittämisessä.

Siksi on tärkeää omaksua kokonaisvaltainen lähestymistapa. kyberturvallisuuteen, johon sisältyy paitsi ChatGPT:n kaltaisten työkalujen väärinkäytön estäminen, myös vahvojen turvatoimien toteuttaminen ja uusimpien uhkien ja haavoittuvuuksien pysyminen ajan tasalla.

Loppujen lopuksi ChatGPT ei voi luoda haittaohjelmia sen avulla voidaan luoda tekstiä, jota ammattitaitoiset kehittäjät voivat käyttää haittaohjelmien luomiseen.

Tällaisen väärinkäytön estämiseksi on tärkeää varmistaa, että ChatGPT:tä käytetään vain eettisiin ja laillisiin tarkoituksiin ja omaksua kokonaisvaltainen lähestymistapa kyberturvallisuuteen.

Lähde/VIA:

Categories: IT Info