In een tijd waarin kunstmatige intelligentie (AI) en machine learning steeds meer zijn geïntegreerd in ons dagelijks leven, is ook de kans op misbruik toegenomen. Een recent voorbeeld laat zien hoe snel en efficiënt iemand met beperkte technische vaardigheden krachtige en niet-detecteerbare malware kan maken met behulp van AI, met name de generatieve chatbot van OpenAI, ChatGPT.

ChatGPT is in staat geavanceerde malware te creëren en vormt een aanzienlijke bedreiging

Afbeelding: OpenAI

Aaron Mulgrew, een zelfverklaarde beginner en beveiligingsonderzoeker bij Forcepoint, testte de grenzen van de mogelijkheden van ChatGPT. Hij ontdekte een maas in de wet waardoor hij binnen een paar uur geavanceerde zero-day-malware kon maken. Deze prestatie is vooral opmerkelijk gezien het feit dat Mulgrew geen eerdere ervaring had met coderen.

OpenAI heeft beveiligingen geïmplementeerd om te voorkomen dat gebruikers ChatGPT vragen om kwaadaardige code te schrijven. Mulgrew slaagde er echter in om deze beveiligingen te omzeilen door de chatbot te vragen om afzonderlijke regels schadelijke code te genereren, met de nadruk op afzonderlijke functies. Na het compileren van de verschillende functies eindigde Mulgrew met een zeer geavanceerd uitvoerbaar bestand voor het stelen van gegevens dat bijna onmogelijk te detecteren was.

Mulgrew creëerde zijn malware in zijn eentje, in tegenstelling tot traditionele malware waarvoor teams van hackers en aanzienlijke middelen nodig zijn, en in een fractie van de tijd. Deze situatie benadrukt de potentiële risico’s van AI-aangedreven tools zoals ChatGPT. Het roept ook vragen op over hun veiligheid en hoe gemakkelijk ze kunnen worden misbruikt.

De ChatGPT-malware: nader bekeken

Mulgrew’s malware vermomt zichzelf als een screensaver-applicatie met een SCR-extensie. Wanneer de malware op een Windows-systeem wordt gestart, doorzoekt hij bestanden, zoals afbeeldingen, Word-documenten en pdf’s, om waardevolle gegevens te vinden die kunnen worden gestolen.

Een van de meest indrukwekkende aspecten van deze malware is het gebruik van steganografie, een techniek waarmee de gestolen gegevens in kleinere fragmenten kunnen worden opgesplitst en in afbeeldingen op de geïnfecteerde computer kunnen worden verborgen. De gebruiker uploadt deze afbeeldingen naar een Google Drive-map en dit proces omzeilt effectief detectie door beveiligingssoftware.

Mulgrew liet zien hoe gemakkelijk het was om de code te verfijnen en te versterken tegen detectie met behulp van eenvoudige prompts op ChatGPT. Bij vroege tests met VirusTotal werd de malware in eerste instantie gedetecteerd door slechts vijf van de 69 detectieproducten. Een latere versie van de code werd echter volledig onopgemerkt.

Het is belangrijk op te merken dat de malware van Mulgrew is gemaakt voor onderzoeksdoeleinden en niet openbaar beschikbaar is. Desalniettemin benadrukt zijn experiment het gemak waarmee gebruikers zonder geavanceerde codeervaardigheden de zwakke beveiligingen van ChatGPT kunnen misbruiken om gevaarlijke malware te creëren zonder zelf ook maar één regel code te hoeven schrijven.

Gizchina Nieuws van de week

De implicaties van AI-ondersteunde creatie van malware

Het experiment van Mulgrew is alarmerend. Het kost weken om complexe malware te ontwikkelen. AI-aangedreven tools zoals ChatGPT maken het proces eenvoudiger, sneller en toegankelijker. Zelfs mensen zonder codeerervaring kunnen malware maken. Kwaadwillende hackers gebruiken mogelijk al vergelijkbare methoden. Ze creëren geavanceerde malware voor slechte doeleinden.

Er is behoefte aan een veelzijdige benadering van AI en cyberbeveiliging. Ontwikkelaars moeten prioriteit geven aan veiligheidsmaatregelen om misbruik te voorkomen. Gebruikers moeten worden geïnformeerd over mogelijke risico’s. Het is belangrijk om waakzaam te blijven. AI-aangedreven tools moeten zorgvuldig worden gebruikt.

De cyberbeveiligingsgemeenschap moet zich aanpassen aan verandering. Er moeten nieuwe strategieën komen om AI-ondersteunde bedreigingen te bestrijden. Samenwerking tussen onderzoekers, ontwikkelaars en beveiligingsexperts is essentieel. We moeten ervoor zorgen dat AI onze digitale veiligheid niet in gevaar brengt. Het is belangrijk om samen te werken.

Het Mulgrew Malware-experiment dient als een sterke herinnering aan de tweesnijdende aard van AI en machine learning-technologieën. AI-tools hebben een groot potentieel voor vooruitgang. Ze kunnen ook riskant zijn in verkeerde handen. We moeten de voordelen en gevaren van AI met elkaar in evenwicht brengen. Iedereen moet samenwerken voor een verantwoorde en veilige ontwikkeling en gebruik van AI. Dit is belangrijk voor tools zoals ChatGPT.

Kan ChatGPT worden misleid om geavanceerde malware te maken?

We stelden die vraag aan ChatGPT, en hier is het antwoord:

ChatGPT is een taalmodel dat is ontworpen om mensachtige tekst te genereren.

Het is getraind op een groot tekstcorpus, inclusief technische documenten en softwarecode.

Terwijl het heeft de mogelijkheid om geavanceerde tekst te genereren, het kan geen echte malware creëren.

Het creëren van malware omvat het schrijven van code, wat buiten het bereik valt van wat ChatGPT kan doen.

Bovendien maakt het creëren van malware is onethisch en illegaal en druist in tegen het doel van ChatGPT, namelijk het faciliteren van communicatie en het delen van kennis.

Het is echter mogelijk dat iemand ChatGPT gebruikt om tekst te genereren die kan worden gebruikt bij het maken van malware.

ChatGPT kan bijvoorbeeld worden gebruikt om tekst te genereren met instructies voor het misbruiken van een kwetsbaarheid in een softwaretoepassing.

Deze tekst kan vervolgens worden gebruikt door een bekwame ontwikkelaar om daadwerkelijke malware creëren.

Om dit soort misbruik te voorkomen, is het belangrijk ervoor te zorgen dat ChatGPT alleen voor ethische en legale doeleinden wordt gebruikt.

Dit kan worden bereikt door monitoring en regulering van het gebruik ervan, evenals educatie en bewustmaking over de mogelijke risico’s die samenhangen met het misbruik ervan.

Het is ook belangrijk om in gedachten te houden dat ChatGPT slechts één van de vele tools is die kunnen worden gebruikt bij het maken van malware.

Andere tools en technieken, zoals reverse engineering en codeversluiering, worden ook vaak gebruikt bij de ontwikkeling van malware.

Daarom is het belangrijk om een ​​holistische benadering te hanteren tot cyberbeveiliging, wat niet alleen het voorkomen van misbruik van tools zoals ChatGPT omvat, maar ook het implementeren van sterke beveiligingsmaatregelen en het up-to-date blijven met de nieuwste bedreigingen en kwetsbaarheden.

Kort gezegd, terwijl ChatGPT geen malware kan creëren op zijn eigen, kan het worden gebruikt om tekst te genereren die kan worden gebruikt bij het maken van malware door bekwame ontwikkelaars.

Om dit soort misbruik te voorkomen, is het belangrijk om ervoor te zorgen dat ChatGPT alleen wordt gebruikt voor ethische en juridische doeleinden en om een ​​holistische benadering van cyberbeveiliging te hanteren.

Bron/VIA:

Categories: IT Info