Twitter は、画像に関するコミュニティ ノート 。この機能は現在テスト段階にあり、Twitter 上のユーザーが AI によって生成された画像を識別するのに役立ちます。過去数か月間、多くのユーザーが AI モデルの産物であるこれらの画像に騙されました。
この機能は、誤解を招くメディアと戦うために Twitter が活用するツールの 1 つにすぎません。 Twitter プラットフォームを使用する一部の悪質な攻撃者は、AI が生成した画像を何百万ものユーザーに送信し、それらが決して行われていない活動の証拠であると主張します。この取り組みの背後にある目的は人々を誤解させることであり、国際社会に損害を与える可能性があります。
これらの画像が投稿を通じて Twitter に送信されると、疑いを持たないユーザーが簡単に他の人と共有してしまいます。これは、誤解を招く情報が山火事のように広がり、個人またはグループの誤った考えを醸成するのに役立ちます。画像に関する Twitter コミュニティ ノートは、ソーシャル メディア プラットフォームを利用する何百万人もの人々にそのような画像が拡散するのを防ぐために登場しました。
Twitter は、画像のコミュニティ ノート機能を使用して AI 生成画像の拡散を抑制することを目指しています
Twitter コミュニティ ノート ページは最近、AI によって生成された画像に対処する投稿を公開しました。この種の画像はソーシャル メディア プラットフォームでますます蔓延しており、多くのユーザーを誤解させる傾向があります。 Twitter はこれに注目し、他のユーザーが認識できるように、この種の投稿にフラグを立てる機能をユーザーのグループに提供しています。
現時点では、悪意のある Twitter が簡単に投稿できるようになりました。ユーザーは任意の AI モデルを使用して、あらゆる写真を生成できます。彼らがしなければならないのは、写真がどのようなものであるべきか、写真にどのような要素が含まれるべきかを説明することだけです。その後、AI モデルが動作し、ユーザーの仕様に基づいてほぼ現実的な画像を生成します。
この画像を利用した悪意のあるユーザーは、誤解を招く説明とともにその画像を Twitter に投稿することができます。この投稿を見た他の Twitter ユーザーは、誤解を招く説明を信じて投稿をリツイートしたり、「いいね!」したりして、数百万人に拡散する可能性があります。現在、Twitter はプラットフォーム上の投稿者に、AI が生成した誤解を招く画像や動画にフラグを立てる機能を提供しています。
画像の Twitter コミュニティ ノートを使用すると、高評価の投稿者は AI にフラグを立てることができます。生成された画像。現在、この機能はテスト段階にあり、投稿者はこれらの画像にフラグを立てて他のユーザーに知らせることができます。これらの画像にフラグを立てるために、高評価の投稿者は、他の Twitter ユーザーに表示される説明を画像に追加します。
説明が設定されると、Twitter アルゴリズムは、その画像のすべての投稿と一致します。説明のあるプラットフォーム。別のユーザーがその画像を再度投稿すると、その説明がポップアップ表示され、AI が生成した画像としてフラグが立てられます。ただし、この機能は一般に公開される前に、テスト中に良好なパフォーマンスを発揮する必要があります。