新しいAI modelsを試してみる

こんにちは :waving_hand:

Discourse で使用されている新しい AI モデルに関する経験を共有するために、このトピックを作成しました。

数日前にトピックの要約のために grok-2-1212 を設定しました。これは非常にうまく機能します。言語検出と品質は十分です。AI ボットでも試しましたが、ほとんどの場合失敗しました。おそらく、まだツールをうまく処理できないのだと思います。

AI ボットとして Gemini Flash 2 も試しました。これは高速に動作し、素晴らしい回答を追加しますが、ツールをうまく処理できずに回答が壊れてしまうことがあります。単純なマークダウンのフォーマットの問題であることもあれば、検索できないこともあります。私のフォーラムでは、ほとんどの場合「フォーラムで見つかりませんでした」と表示されますが、その件についてはもっと多くのトピックがあることを知っています…

「いいね!」 4

検索の問題についてですが、AIがフォーラムのコンテンツを完全にインデックス化していない、またはクエリの理解に不一致がある可能性があるとお考えですか?

「いいね!」 2

さっぱりわかりません。ほとんどの場合、何も検索されないか、タイムアウトで失敗します…しかし、時々正しく検索して、正しいトピックにリンクすることもあります。良いと思いますが、まだ非常に実験的です。

「いいね!」 1

XMLツールは試しましたか?Grokではかなりうまく機能することがわかりました。

「いいね!」 3

ありがとうございます。試してみました。ええ、良さそうですね。問題は主に新しい会話を作成するときに発生しています。英語で「I am searching for…in sitename…」のように始まり、返信が止まってしまいます。時々、英語の「I am searching…」の文の後で、正しいハンガリー語で返信を続け、良い回答を追加することがあります。しかし、会話の中でそのGrokの応答に返信すると、うまく機能します。

「いいね!」 2

これは非常に興味深いですね。「グラウンディング」の例をペルソナのオプションとして許可することもできます。これで完全に解決できるかもしれません。

「いいね!」 2

ビンゴ!でも、特にデータが多い場合、それが物事を遅くすると思いますか?AIクエリや検索結果の応答時間に影響しますか、それともすべて問題ないですか?

「いいね!」 1

大きな問題は「汚染」です。

モデルは形状を学習しますが、ユーザーが言っていないことを誤って考えてしまう可能性もあります。

理想的には、システムメッセージを注意深く作成することで、それが解決できるでしょう。それが私の最初の選択肢です。

システムメッセージ内の例は、モデルにとって単なる例であることがより明確になるため、漏洩を減らすことができます。

私がドムに推奨する最小限のことの1つは、システムメッセージをハンガリー語で書くことです。それは役立つかもしれません。

システムメッセージにXMLツールの例をいくつか与えることも試してみてはどうでしょうか?

「いいね!」 4

これは本当に良さそうですね。共有ありがとうございます : )

試してみましたが、grok-2-1212 では同じ結果になりました。その後 grok-beta に切り替えたところ、完璧に動作しました。しかし、英語のシステムメッセージでも動作します…

「いいね!」 4