AIが再びテクノロジーの世界の焦点となっている時代に、Googleはあなたに提供できるtext-ti-imageAIジェネレーターを考案しました。テキスト入力に基づく画像を使用します。これは、GoogleBrainチームによって作成されたImagenAIシステムであり、Googleと多数のサンプル画像を信じるなら、「写実的な画像と深いレベルの言語理解」を生み出すことができます。詳細を見てみましょう。

Imagen AIでできることは次のとおりです!

名前が示すように、仕事は難しくありません。あなたがする必要があるのはあなたが見たいものをタイプすることです、そしてたくさんのデータを読んだ後のその理解に基づいて、Imagenはあなたのために画像を生成します。

ImagenのWebサイトでは、いくつかの使用例が紹介されており、非常に印象的です。 Imagenは、大規模なトランスフォーマー言語モデルを組み合わせてテキストと拡散モデルを理解し、高品質の画像を作成します

画像:Imagen

出力は非常に正確に表示され、OpenAIの人気のあるDALL-E(後継モデルもあります)、VQ-GAN + CLIP、潜在拡散モデルなどの他のテキストから画像へのAIモデルとの競争が激しくなります。 Googleには証拠さえあります。このためにDrawBenchと呼ばれるベンチマークツールが導入されており、そのデータはImagenをより優れたものとして認識しています。

画像: Imagen

Googleはまた、COCOでImagenが7.27のCOCO FIDを達成でき、人間の評価者が「参照画像と同等の」結果を見つけたことを明らかにしています。

しかし、このようなAIシステムによって提供されるサンプル画像は、多くの場合、最良と見なされるものであり、うまくいかないものは、カーテンの後ろに十分に残っています。したがって、GoogleのAIモデルを検討するには、時期尚早である可能性があります。

AIモデルにも一連の警告がありますが、Googleはこれを強調表示することを控えていません。 AIは、蔑称的なコンテンツや偽の画像の作成などの悪意のあるアクティビティのツールとして使用される可能性があるため、まだ人々が試すことはできません。さらに、AIはさまざまな社会的バイアスに陥りやすい可能性があります。

Imagenのウェブサイトにはと書かれています。「Imagenは、人物を描いた画像を生成する際に深刻な制限があります。私たちの人間による評価では、Imagenは、人物を描写していない画像で評価した場合に大幅に高い優先度を取得し、画像の忠実度が低下していることを示しています。予備評価では、Imagenがいくつかの社会的バイアスとステレオタイプをエンコードしていることも示唆されています。これには、肌の色が薄い人の画像を生成する全体的なバイアスや、さまざまな職業を描いた画像が西洋の性別のステレオタイプと一致する傾向が含まれます。」

、Imagenが正しく機能するには、まだいくつかの作業が必要であると言っても過言ではありません。それでも、楽しい部分としては、Imagenはかなり良い選択のように感じます。間抜けで非現実的なものを見たい場合は、Imagenが役立つかもしれません。 Googleのテキストから画像へのAIについてどう思いますか?以下のコメントでお知らせください。

コメントを残す

Categories: IT Info