カスタムトークナイザーでAIモデルを使用する方法

groq の moonshotai/kimi-k2-instruct モデルを使用しようとしています。moonshotai/Kimi-K2-Instruct · Hugging Face のドキュメントによると、このモデルは OpenAI や Gemini のトークナイザーと互換性がなく、独自のカスタムトークナイザーを使用しているようです。

Discourse でこのモデルにカスタムトークナイザーを使用するように設定することは可能ですか?もし可能なら、その方法は?LLM モデルの設定でカスタムトークナイザーを使用するオプションが見当たりません。

このモデルは GPT-5 よりもはるかに優れているように見えるため、Discourse BOT でこれを使用して、その有効性を確認することに非常に興味があります(推論で GPT-5 を上回り、多言語 MMLU: 89%、HLE 多言語: 85%)。

TL;DR: 最も近いトークナイザーを選択し、最大コンテキストを数千ほど少なく設定して、その差が影響しないようにします。