GPT-4、ビジョン対応で利用可能に

AI プラグインの設定で、有効にできる AI ボットのリストが表示されます。


gpt-4-turbo ボットは「gpt-4-turbo-preview」または「gpt-4-vision-preview」のどちらでしょうか?
つまり、ビジョン機能はありますか?
もし「gpt-4-turbo-preview」の場合、ビジョン機能も追加されますか?スクリーンショットがあれば、ボットがユーザーのクエリを理解するのに役立つと思うので、便利だと思います。

答えはわかりませんが、Visionは4と同じで、多くの問題があり、問題を引き起こす可能性があります。しかし、私の知る限り、Visionには独自のモデルがあるはずであり、Discourseは独自の命名スタイルを使用していません。

FYI、これは Discourse Chatbot 🤖 (「ベーシック」モードの場合) でサポートされています。

「いいね!」 1

(RAGなしでは少し無力ですが、それ以外は非常に楽しいです)

「いいね!」 2

サム・アルトマン :phone: に電話してください。ビジョンモデルに関数を追加する必要があります。

「いいね!」 3

現在、gpt-4-turbogpt-4-0125-preview と同等であり、ビジョン機能はありません。

@keegan がここでビジョン統合を検討しています:

特に、ビジョンAPI(オープンおよびクローズドモデルの両方)を使用して画像にキャプションを追加することに焦点を当てています。

ボットとのプライベートメッセージを開始し、画像をアップロードしてそれについて質問するという「デモ」の力は非常に気に入っていますが、モデルを切り替える必要があるため、フローを検討する必要があります。

「自動ツール」の概念がここで機能するかもしれません。アップロードを検出したら、自動的にツールにルーティングし、その後メインモデルに戻ります… 検討します。

技術的には、私たちのアーキテクチャ内でこれを配線するのはそれほど複雑ではありません。

「いいね!」 2

ありがとう、サム!

Vision - OpenAI APIによると

Vision と Turbo はほとんど同じはずです(まだ十分にテストしていないので、確信はありませんが)。

「いいね!」 1