Nie jest tajemnicą, że od samego początku ChatGPT przyciąga uwagę entuzjastów technologii i liderów branży imponującymi możliwościami pisania kodu i konwersacji. Jednak chociaż ta nowa rewolucja w zakresie sztucznej inteligencji zaoferuje ekscytujące możliwości na przyszłość, Europol, unijny organ ścigania, zgłosił obawy dotyczące potencjalnego niewłaściwego wykorzystania chatbota ChatGPT opartego na sztucznej inteligencji do cyberprzestępczości, dezinformacji i phishingu.
„Ponieważ możliwości LLM (dużych modeli językowych), takich jak ChatGPT, są aktywnie ulepszane, potencjalne wykorzystanie tego typu systemów sztucznej inteligencji przez przestępców przedstawia ponure perspektywy”, mówi Europol.
Wykorzystanie ChatGPT w phishingu i cyberprzestępczość
Według agencji cyberprzestępcy mogą wykorzystywać zdolność ChatGPT do tworzenia wysoce realistycznego tekstu, który naśladuje styl wypowiedzi określonych osób lub grup i atakuje niczego niepodejrzewające ofiary. W rzeczywistości oszuści już używają sztucznej inteligencji, takiej jak ChatGPT, do tworzenia zainfekowanych złośliwym oprogramowaniem filmów na YouTube, używając nagrań ekranu lub przewodników dźwiękowych z awatarem wygenerowanym przez sztuczną inteligencję, aby opisać, jak pobrać i zainstalować złamane oprogramowanie.
Dodatkowo, zdolność ChatGPT do tworzenia autentycznie brzmiącego tekstu na dużą skalę sprawia, że jest to idealne narzędzie propagandowe i dezinformacji. Ponieważ przestępcy mogą generować i rozpowszechniać wiadomości odzwierciedlające określoną narrację, wprowadzać ludzi w błąd i manipulować opinią publiczną przy stosunkowo niewielkim wysiłku. Co więcej, Europol podkreśla również potencjalne wykorzystanie chatbota do generowania złośliwego kodu, ponieważ każdy może wykorzystać możliwości generowania języka i automatyzacji ChatGPT do generowania złośliwego kodu i wykorzystywania go w cyberatakach.
Chociaż zalety technologii AI są oczywiste, należy zająć się potencjalnym ryzykiem związanym z jego niewłaściwym użyciem. Raport Europolu podkreśla potrzebę solidnych ram regulacyjnych, które równoważą innowacyjność i bezpieczeństwo, zapewniając, że technologia, którą tworzymy, przynosi korzyści społeczeństwu, jednocześnie zapobiegając jej złośliwemu wykorzystaniu. Ponadto firmy takie jak Microsoft i OpenAI będą musiały wprowadzić zabezpieczenia zapobiegające złośliwemu użyciu.