谢谢,但我知道什么是分词器(tokenizer)。我不知道的是 Discourse 用它来做什么,以及如果我选错了分词器会发生什么?无论如何,我调用大型语言模型(LLM)都不需要分词器。
相关话题
| 话题 | 回复 | 浏览量 | 活动 | |
|---|---|---|---|---|
| Discourse AI - Large Language Model (LLM) settings page | 20 | 2509 | 2025 年11 月 26 日 | |
| AI powered Spam detection | 11 | 914 | 2025 年1 月 11 日 | |
| Discourse AI - Spam detection | 22 | 2479 | 2025 年9 月 25 日 | |
| What's the cheapest/best AI to use for AI Spam? | 6 | 164 | 2025 年3 月 18 日 | |
| Introducing Discourse AI | 26 | 3631 | 2023 年5 月 4 日 |