OpenAI は、昨夜 GPT-4 をローンチしたときに大きな波を起こしました。次世代の AI 言語モデルは、前モデルから大幅に改善されており、さらに多くの機能を備えています。 ChatGPT とその代替手段について 1 つまたは 2 つのことを知っている場合は、チャットボットと人工知能全般について、これが何を意味するかをすでに認識しています。ただし、特に言語モデルや GPT-4 を知らない人のために、私たちはあなたをサポートします。私たちは OpenAI のブログとインターネットを精査し、GPT-4 に関する専用ガイドを作成しました。したがって、あなたがそれについてほとんど、またはまったく手がかりがない場合は、コーヒーを飲みながら座って、この AI モデルについてすべて説明してください。

GPT-4: 知っておくべきことすべて (2023)

GPT-4 のトピックは、情報に関しては非常に幅広いものです。すべてを整理するのに役立つように、以下の表を作成しました。モデルの特定の側面にすばやくジャンプしたい場合に使用します。

目次

GPT-4 とは?

簡単に言えば、GPT-4 は OpenAI の大規模言語モデル システム (LLM) における最新のイテレーションです。一般に、言語モデル システムは、文の次の単語を予測し、それに入力をインテリジェントに追加しようとするシステムです。彼らは、パターンを識別してそれに基づいて行動する能力を与える大規模なデータセットを研究することによってそれを行います。

GPT-4 はこのシリーズの最新モデルであり、GPT 3 や 3.5 などの前世代のモデルよりも大幅に改善されることが期待されています。 GPT-4 が優れている点がいくつかありますが、これについては以下で詳しく説明します。ただし、理解しておくべき簡単なポイントは、この新しいモデルにより、ChatGPT や MS Bing などのチャットボットの応答能力が大幅に向上するということです。そのため、ChatGPT の古いプロンプトと新しいプロンプトで、より優れた回答を提供し、より創造的に設計し、異なるパフォーマンスを発揮することが期待できます。

GPT-4 はマルチモーダル

以前の GPT モデルを使用したことがある場合は、入力したテキストを解釈する機能が限られていることに気付くかもしれません。ただし、新しいモデルの最新かつ最大の実装の 1 つは、マルチモーダルであることです。これは、GPT-4 がテキストと画像の両方のプロンプトを受け入れることができることを意味します。

これは、AI が画像を受け取るだけでなく、実際にそれを解釈して理解することに変換されます。 。この理解は、テキスト入力と視覚入力の両方が散在するプロンプトに適用されます。さらに、GPT-4 のマルチモーダル機能は、テキストと写真を含むドキュメント、図 (スケッチまたは手描き)、またはスクリーンショットを含む、あらゆるサイズと種類の画像とテキストに広がります。 GPT-4 の出力は、テキストのみの入力と同じように機能します。

OpenAI が主催する開発者ライブストリームで、同社は GPT を紹介しました-4 のマルチモーダルな性質。 GPT-4 は、ストリーム内の Discord ウィンドウのスクリーンショットを提供され、骨の折れる詳細で説明するよう求められました。

モデルは 1 分強かかり、非常に説明的で正確な応答をレンダリングしました。応答は、入力画面のほぼすべての要素をキャプチャしました。左上隅のサーバー名からさまざまな音声チャネルまで、右側のペインでオンラインのすべての Discord メンバーの名前まで、GPT-4 はすべてをキャプチャしました。

GPT-4 は、カメラを持っているリスの写真を含むいくつかのランダムなアートワークを人々が提出するいくつかの追加テストを受けました。次にモデルは、「この画像のどこがおかしいのか」を特定するよう求められました。リスは通常ナッツを食べ、人間のように行動しないため、写真は面白いものであるとの回答が再び寄せられました.ご覧のとおり、人間のように非常に具体的な回答が得られました。

ただし、前述のように、モデルの特異性は スクリーンショットを超えて、あらゆる種類のテキストと画像の入力に及びます。 OpenAI は、Greg がジョーク Web サイトの手描きのモックアップの写真を撮影したときにも同じことを示しました。次に、同じものを GPT-4 の API に接続された Discord サーバーにアップロードしました。次にモデルは、「簡単な HTML/JS コードを書いてページをウェブサイトにし、ジョークを実際のものに置き換える」よう求められました。

驚くべきことに、GPT-4 は同じ作業コードをコンパイルしました。テストすると、ボタンを押すとジョークが表示される、完全に機能する Web サイトが作成されました。 ChatGPT モデルが人間の手書き文字を解読し、テキストと画像入力の組み合わせからコードを作成できるという事実は驚くべきものです。 GPT-4 のマルチモーダル機能は、AI がプロンプトを完全に理解し、完璧な精度で結果を提供する方向への大きな一歩です

大きな問題はありませんでしたが、OpenAI は速度が GPT-4 で使用できるものであり、時間がかかる可能性があると主張しました。さらに、GPT-4 の視覚的入力はまだ研究プレビュー段階であり、まだ公開されていません

GPT-4 が GPT 3.5/GPT-3 よりも優れている点は?

息をのむようなマルチモーダル アプローチに加えて、GPT-4 には、新しいモデルが優れているだけでなく、他の改善領域があります。その兄。

1.微妙なプロンプトの理解を深める

OpenAI は、一見しただけでは GPT-4 と GPT-3.5 の違いを実際に理解するのは難しいかもしれないと主張しています。ただし、前者の機能は、核心に入ると明らかになります。違いを実証するために、新しいモデルはさまざまな人間レベルの試験で GPT-3.5 と比較されました。 OpenAI は公開されている最新のテストを使用し、モデルにこのための特別なトレーニングを与えませんでした。

GPT-4 対 3.5

データ自体は、私たちがお伝えできるよりも優れた状況を示しています。すべての結果で、GPT-4 がトップになり、以前のバージョンを上回っていました。一部の試験 (SAT EBRW など) ではしきい値がわずかに押し上げられていましたが、他の試験 (制服司法試験、AP 化学など) では成績が飛躍的に向上しました。 OpenAI は次のように述べています。これにより、ボットはより複雑なプロンプトを簡単に効果的に理解できるようになります。

2.指数関数的に大きい単語制限

誰もが GPT 3 と GPT 3.5 を愛していましたが、人々はもっと長い入力を認識できることを望んでいました。 GPT-4 の導入により、その問題が解決されました。新しい GPT-4 AI 言語モデルには、驚異的な 25,000 語の入力制限が付属しており、これは非常に大きなものです。文脈上、GPT 3.5 は 8,000 語に制限されていました

これは、ボットが読み取り、出力をレンダリングするためのはるかに長い入力プロンプトをボットにフィードできることを意味します。したがって、GPT-4 が最終的に起動すると、はるかに詳細な応答が得られ、問題なく長い入力が必要になることが期待できます。開発者にとってこれが意味することは、チャットボットに新しい API とドキュメントを感じ、コードの記述や既存のコードのバグ修正をより簡単に行えるようになることです。

3.より多くの言語をサポート

ChatGPT は、主に世界中の英語話者によって使用されています。ただし、GPT-4 では他の言語も考慮されます。最新のモデルでは、26 を超える言語のサポートが実証されています。これには、ウクライナ語、韓国語、ゲルマン語などが含まれます。

OpenAI は、MMLU ベンチマークをさまざまな言語に翻訳することで、同じことをテストしました。 26 の言語のうち、GPT-4 は 24 の言語で GPT-3.5 の英語のパフォーマンスを上回っています。ただし、GPT-4 がすべての言語を完全にサポートするには、さらにデータ トレーニングを行う必要があります。

4.異なるパーソナリティ

操縦性とは、決まった口調で特定の方法で行動するよう AI に指示できる概念です。この良い例は、ChatGPT にカウボーイや警察官のように振る舞うように依頼することです (ChatGPT API を使用してチャットボットを作成したときに行ったように、役割を割り当てます)。 GPT-4 はその操縦性を手に入れましたが、OpenAI は AI がキャラクターを壊すのを難しくしています。開発者は、「システム」メッセージでこれらの方向性を説明することにより、AI のスタイルを最初から修正できるようになりました。これらのメッセージは簡単にジェイルブレイクできるため、OpenAI はメッセージの安全性を高める作業も行っています。

OpenAI がブログ投稿で紹介したデモから、ユーザーが GPT-4 をソクラテスの教師であることをやめさせようとしているのを見て、彼らの質問に対する答えだけを伝えようとしているのを見るのは非常に面白かったです。ただし、家庭教師としてプログラムされているため、GPT-4 は性格を壊すことを拒否しました。これは、多くの開発者が将来ボットをトレーニングするときに期待できることと同じです.

GPT-4 のアプリケーションの可能性

ユーザーによる GPT-4 のマルチモーダル アプリケーションはまだ可能ではありませんが、OpenAI はすでに Be My Eyes と提携しています。視覚障害者向けのアプリ。アプリに GPT-4 が含まれているため、見ているものの写真を撮ることができます。AI は、ドレス、植物、ジムのマシン、地図の読み取りなど、画面に表示されているものを正確に説明します。

GPT-4 は、インテリジェントな学習のために Duolingo、カーン アカデミー などの他のアプリとも提携しており、さらにはアイスランド政府と提携して言語の保護を行っています。 GPT-4 の API は現在、待機リストに基づいて利用できますが、最終的にリリースされれば、開発者が素晴らしいエクスペリエンスを提供することを期待できます。それが起こる前であっても、上記のアプリケーションはすでに人々が使用できるようになっています。

GPT-4 には制限がありますか?

GPT-4 は人工知能の次のステップとして予告されていますが、まだスピードバンプがあります。

まず、GPT-4 は2021 年 9 月以降に発生したイベントに関する世界の知識を欠いています。また、モデルはその経験から学習しません。これにより、GPT-4 モデルが推論エラーを作成する可能性があり、ユーザーからの明らかな虚偽のステートメントを受け入れる傾向さえあります。

GPT-4 は、人間と同じように問題で失敗することもあります。でしょう。 GPT 3.5 と同様に、新しいモデルも幻覚を起こし、自信を持って予測が間違っている可能性があります。これにより、GPT-4 が間違いを犯したときにその作業をダブルチェックしない可能性があります。

それにもかかわらず、OpenAI は、これを回避するために GPT-4 が以前のモデルよりも適切にトレーニングされていることを約束します。同社独自の敵対的事実評価では、このモデルはGPT 3.5と比較して幻覚の減少において35%高いスコアを記録しました。モデルの認識と予測は改善されましたが、その結果は依然として人間のアドバイスと併せて解釈する必要があります。

OpenAI Evals – GPT-4 を一緒に改善

OpenAI は独自のソフトウェア フレームワークを使用して、GPT-4 などのモデルのベンチマークを作成および実行します。ただし、これはオープンソースであるため、同社は最も使用されているいくつかのテンプレートを共有しています. OpenAI は、evals がクラウドソーシング ベンチマークの不可欠な部分になることを開始しました。これを使用して、GPT-4 がより適切にトレーニングされ、さらに優れたパフォーマンスを発揮できるようにすることができます。

そのため、同社はすべての人 (そう、すべての GPT-4 ユーザー) にベンチマークに対してモデルをテストし、その例を提出するよう招待しました。 OpenAI の GPT-4 研究ページで、これに関する詳細情報を見つけることができます。

GPT-4 に今すぐアクセスする方法

残念ながら、GPT-4 はまだすべての人に公開されているわけではありません。 OpenAI は現在、新しいモデルを ChatGPT Plus サブスクライバーのみに 使用制限付きでリリースしています。 Plus サブスクライバーは、GPT-4 の 2 つの異なるバージョンへのトークン アクセスも制限されています。一部のユーザーはGPT-4s 32Kエンジンを使用できますが、これによりワード制限が長くなりますが、容量が制限されたGPT-4 8Kに制限されるユーザーもいます. OpenAI は、これが需要に基づいて動的に調整されると述べています。今すぐアクセスしたい ChatGPT Plus サブスクライバーは、GPT-4 へのアクセス方法に関するガイドをこちらで確認してください。

ChatGPT Plus を入手するのが面倒なら、Microsoft Bing は既に GPT-4 を使用しています。 OpenAI のように言語モデルをいじることはできませんが、実験してさまざまな種類のものを試してみることはまだかなり良いことです。開始するには、任意の Web ブラウザーで MS Bing を使用する方法を確認してください。

よくある質問 (FAQ)

1. GPT-4 は ChatGPT に導入されますか?

実際、GPT-4 はすでに ChatGPT に導入されています。前述のように、新しいモデルは ChatGPT Plus サブスクライバー向けに既に公開されています。サインインしている場合は、正しいモデルを選択してチャットを開始するだけです。 ChatGPT Plus をまだ取得していない場合は、上記のリンクをたどって ChatGPT Plus を取得することもできます。

2. GPT-4 は無料で使用できますか?

現時点では、残念ながら GPT-4 は無料で使用できません月額 $20 の ChatGPT Plus サブスクリプションが必要です。しかし、OpenAI は、ある時点で無料の GPT-4 クエリをすべての人に提供したいと述べています。同社は、GPT-4 などの新しい AI 言語モデルへのアクセスを改善するために、新しいサブスクリプション層を導入することもできます。

3. GPT-4 に完全に依存できますか?

いいえ、GPT-4 に完全に依存することはできません。新しいモデルには、古いデータセットや時折の幻覚など、いくつかの制限があります。このモデルは自信を持って間違った答えを出すこともできます。 GPT-4 は確かに GPT 3.5 に比べて改善されていますが、まだ問題がいくつかあります。したがって、最新のモデルを使用することになった場合は、それに沿って適切な人間の判断を使用してください。

4. GPT-4 のデータセットのサイズは?

GPT-3 の 1,750 億に対して、GPT-4 には 100 兆のパラメータがあるという噂が広まりましたが、それは間違いである可能性が最も高いです。 StriclyVC とのインタビューで、OpenAI の CEO である Sam Altman は、そうではないことを間接的に述べており、「GPT-4 の噂はばかげている」と述べています。

おそらくこのため、GPT-4 のデータセット サイズに関して OpenAI は期待を和らげており、正確な数値を提供していません。それが実際に明らかになるかどうかは時がたてばわかります。それにもかかわらず、最初のデモンストレーションでは非常にうまく機能するはずです.

5. GPT-4 はどのように訓練されましたか?

以前の言語モデルと同様に、GPT-4 の基本モデルは、ドキュメント内の次の単語を予測するようにトレーニングされています。そのため、使用されるデータは、公開されているデータと OpenAI 独自のライセンス データの組み合わせです。

このデータには、正しい情報と間違った情報、弱い推論と強い推論、自己矛盾したステートメント、およびその他のさまざまなアイデアが混在しています。これにより、GPT-4 は幅広いレベルのデータを解析して、求められていることを認識できるようになります。

OpenAI の新しいマルチモーダル GPT-4 AI モデルに備えましょう

GPT-4 について理解する前よりも多くの情報をこの説明者に残していただければ幸いです。 GPT-4はチャンスがぎっしり詰まったモデルで、誰もが興奮するモデルです。すべての人のためにChatGPTに完全に実装されたら、誰もが新しいモデルを最大限に活用してエクスペリエンスを作成する方法を見るのは興味深いでしょう.ただし、ChatGPT を体験するのを待つ必要はありません。 ChatGPT でできるすべてのクールなことを確認してから、ChatGPT を Siri と統合して、Apple Watch で ChatGPT を取得することもできます!では、このエキサイティングな新しいモデルについてどう思いますか?以下のコメントにあなたの考えを書き込んでください!

コメントを残す

昨年、MSI は Intel Core i9-12900HX と RTX 3080 Ti ラップトップ GPU を搭載した Titan GT77 を発売しました。これは地球上で最も強力なゲーミング ラップトップでした。 iPhone 14 シリーズが発売されてから数か月が経ち、今年が Pro モデルの年であることは定評があります。しかし、飾り気のないプロに行くつもりなら、シェルの量は […]

Wondershare は、過去数年間、私たちの生活と創造的な努力を簡素化するための最高のソフトウェアとツールをいくつか開発してきました。特に、Wondershare Filmora は数々の称賛を受けています。ビデオ編集リーダー賞の受賞者でした […]

Categories: IT Info