Для использования определённых функций Discourse AI пользователям необходимо подключить провайдера больших языковых моделей (LLM). Пожалуйста, ознакомьтесь с описанием каждой функции ИИ, чтобы узнать, какие модели LLM с ней совместимы.
Если стоимость является существенным фактором, в Discourse AI есть несколько встроенных инструментов для управления расходами:
- Панель использования ИИ — отслеживание потребления токенов по функциям, моделям и пользователям с оценкой затрат
- Квоты использования — установка лимитов по токенам или количеству запросов для каждой модели и группы в настраиваемые временные интервалы (ежечасно, ежедневно, еженедельно)
- Выделение кредитов — установка общих бюджетов кредитов для каждой модели с мягкими и жёсткими лимитами
- Бюджеты со стороны провайдера — установка лимитов использования непосредственно у провайдера в качестве дополнительной меры безопасности
- Ограничения для групп — предоставление доступа к функциям ИИ только выбранным пользователям и группам
При расчёте стоимости использования LLM необходимо учитывать несколько переменных факторов.
Упрощённый взгляд на процесс выглядит так…
Важно понять что такое токены и как их считать
- Модель LLM и её тарифы — определение конкретной модели LLM, которую вы планируете использовать, и поиск актуальной информации о ценах на входные и выходные токены
- Входные токены — средняя длина ваших входных запросов в токенах
- Выходные токены — ответы модели в токенах
Теперь рассмотрим пример использования AI Bot прямо здесь, на Meta.
При проведении этого расчёта было сделано множество упрощений, касающихся использования токенов, числа пользователей AI Bot и среднего количества запросов. Эти цифры следует рассматривать только как общие рекомендации, особенно учитывая, что мы активно экспериментируем с AI Bot.
-
Используйте встроенную панель использования ИИ, чтобы просмотреть фактическое потребление токенов запросов и ответов, разбитое по функциям, моделям и пользователям.
-
В среднем количество выходных токенов в 3–5 раз превышает количество входных токенов [1](GPT-3.5 and GPT-4 API response time measurements - FYI - API - OpenAI Developer Community).
-
Предположим, что среднее количество входных токенов на один запрос пользователя составляет 85, что эквивалентно менее чем одному абзацу [2].
-
Предположим, что среднее количество выходных токенов составляет 85 × 4 = 340 токенов, что примерно равно трём абзацам.
-
Используя GPT-5.4 mini от OpenAI, стоимость входных токенов составит $0,75 за 1 млн токенов = $0,00000075 за токен × 85 токенов = $0,000064 за вход.
-
Для выходных токенов стоимость составит $4,50 за 1 млн токенов = $0,0000045 за токен × 340 токенов = $0,00153 за выход.
-
Общая стоимость одного запроса: $0,000064 + $0,00153 = $0,0016.
-
В феврале 2024 года около 600 пользователей использовали AI Bot, делая в среднем 10 запросов в месяц. Предположим, что эти показатели соответствуют вашей сообществу.
-
Это означает, что затраты на AI Bot в феврале составят $0,0016 × 600 пользователей × 10 запросов = $9,56.
-
Если экстраполировать эти данные на год, то годовые расходы на запуск AI Bot составят $9,56 × 12 = $115 при использовании GPT-5.4 mini в качестве выбранной модели LLM.
Для ещё более низких затрат рассмотрите бюджетные модели, такие как GPT-5.4 nano ($0,20/$1,25 за 1 млн токенов), Gemini 2.5 Flash ($0,075/$0,30 за 1 млн токенов) или Claude Haiku 4.5, которые могут снизить расходы на 75–95% по сравнению с приведённым примером. Всегда проверяйте актуальные тарифы у вашего провайдера, так как цены продолжают снижаться.
Оценка на основе данных сообщества OpenAI и нашего собственного соотношения выходных и входных токенов ↩︎
Анализируя среднее потребление входных токенов пользователями, я обнаружил значения от 20 до более 100. Я хотел отразить, что большинство запросов ближе к 100, и исхожу из предположения, что такие запросы представляют собой хорошо сформулированные предложения с множеством вопросов, адресованных боту ↩︎