人工知能 (AI) と機械学習がますます日常生活に組み込まれるようになった時代に、誤用の可能性も高まっています。最近の例では、技術スキルが限られている人でも、AI、特に OpenAI のジェネレーティブ チャットボットである ChatGPT を使用して、強力で検出不可能なマルウェアをいかに迅速かつ効率的に作成できるかを示しています。

ChatGPT は高度なマルウェアを作成することができ、重大な脅威をもたらします

画像: OpenAI

自称初心者であり、Forcepoint のセキュリティ研究者である Aaron Mulgrew は、ChatGPT の機能の限界をテストしました。彼は、高度なゼロデイ マルウェアをわずか数時間で作成できる抜け穴を発見しました。 Mulgrew にはコーディングの経験がなかったという事実を考えると、この偉業は特に注目に値します。

OpenAI は、ユーザーが ChatGPT に悪意のあるコードを書くように促すのを防ぐためのセーフガードを実装しています。しかし、Mulgrew は、チャットボットに個々の機能に焦点を当てた悪意のあるコードの個々の行を生成するように要求することで、これらの保護を回避することができました。さまざまな関数をコンパイルした後、Mulgrew は検出がほとんど不可能な高度なデータ盗用実行ファイルを作成しました。

Mulgrew は、ハッカーのチームとかなりのリソースを必要とする従来のマルウェアとは異なり、わずかな時間でマルウェアを単独で作成しました。この状況は、ChatGPT のような AI を利用したツールに関連する潜在的なリスクを強調しています。また、その安全性と、どれほど簡単に悪用されるかについても疑問が生じます。

ChatGPT マルウェア: 詳細

Mulgrew のマルウェアは、SCR 拡張子を持つスクリーンセーバー アプリケーションに偽装します。 Windows システムで起動されると、マルウェアは画像、Word 文書、PDF などのファイルをふるいにかけ、盗む価値のあるデータを見つけます。

このマルウェアの最も印象的な側面の 1 つは、ステガノグラフィーは、盗んだデータを小さな断片に分解し、感染したコンピューターの画像内に隠すことを可能にする手法です。ユーザーはこれらの画像を Google ドライブ フォルダにアップロードします。このプロセスは、セキュリティ ソフトウェアによる検出を効果的に回避します。

Mulgrew は、ChatGPT の単純なプロンプトを使用して、検出に対してコードを改良および強化することがいかに簡単であるかを示しました。 VirusTotal を使用した初期のテストでは、最初にマルウェアが検出されたのは 69 の検出製品のうち 5 つだけでした。ただし、コードの新しいバージョンは完全に検出されませんでした。

Mulgrew のマルウェアは研究目的で作成されたものであり、公開されていないことに注意してください。それにもかかわらず、彼の実験は、高度なコーディング スキルを持たないユーザーが ChatGPT の脆弱な保護を悪用して、コードを 1 行も書かずに危険なマルウェアを簡単に作成できることを浮き彫りにしています。

Gizchina の今週のニュース

AI 支援によるマルウェア作成の影響

Mulgrew の実験は驚くべきものです。複雑なマルウェアは、熟練したハッカーが開発するのに数週間かかります。 ChatGPT のような AI を利用したツールは、プロセスをより簡単に、より速く、よりアクセスしやすくします。コーディングの経験がない人でも、マルウェアを作成できます。悪意のあるハッカーがすでに同様の方法を使用している可能性があります。彼らは悪意のある高度なマルウェアを作成します。

AI とサイバーセキュリティに対する多面的なアプローチが必要です。開発者は、誤用を防ぐためにセーフガードを優先する必要があります。潜在的なリスクについてユーザーに通知する必要があります。警戒を怠らないことが重要です。 AI を利用したツールは慎重に使用する必要があります。

サイバーセキュリティ コミュニティは変化に適応する必要があります。 AI が支援する脅威に対抗するために、新しい戦略を講じる必要があります。研究者、開発者、およびセキュリティの専門家の間のコラボレーションが重要です。 AI によってデジタルの安全性が損なわれないようにする必要があります。協力することが重要です。

Mulgrew Malware の実験は、AI と機械学習テクノロジの両刃の性質をはっきりと思い出させてくれます。 AI ツールには大きな進歩の可能性があります。彼らはまた、間違った手に危険を及ぼす可能性があります。 AI の利点と危険性のバランスを取る必要があります。責任ある安全な AI の開発と使用のためには、全員が協力する必要があります。これは、ChatGPT のようなツールにとって重要です。

ChatGPT をだまして高度なマルウェアを作成することはできますか?

私たちは ChatGPT にその質問をしました。その答えは次のとおりです:

ChatGPT は、人間のようなテキストを生成するように設計された言語モデルです。

技術文書やソフトウェア コードを含む大規模なテキスト コーパスでトレーニングされています。

その間洗練されたテキストを生成する能力がありますが、実際のマルウェアを作成することはできません。

マルウェアの作成にはコードの記述が含まれますが、これは ChatGPT が実行できる範囲を超えています。

さらに、マルウェアの作成非倫理的かつ違法であり、コミュニケーションと知識の共有を促進するという ChatGPT の目的に反します。

しかし、誰かが ChatGPT を使用して、作成に使用できるテキストを生成する可能性があります。

たとえば、ChatGPT を使用して、ソフトウェア アプリケーションの脆弱性を悪用するための指示を含むテキストを生成できます。

熟練した開発者は、このテキストを使用して、

この種の悪用を防ぐには、ChatGPT が倫理的および法的目的にのみ使用されるようにすることが重要です。

これは、

また、ChatGPT は作成に使用できる多くのツールの 1 つにすぎないことを心に留めておくことも重要です。

マルウェアの開発には、リバース エンジニアリングやコード難読化などの他のツールや手法もよく使用されます。

したがって、全体論的なアプローチを取ることが重要です。これには、ChatGPT などのツールの誤用を防止するだけでなく、強力なセキュリティ対策を実装し、最新の脅威と脆弱性を最新の状態に保つことも含まれます。

結論として、ChatGPT はマルウェアを作成することはできません。

この種の悪用を防ぐには、ChatGPT が倫理的で適切な目的でのみ使用されるようにすることが重要です。

出典/VIA:

Categories: IT Info