Настройка квот использования LLM в Discourse AI

:bookmark: В этом руководстве объясняется, как настроить и управлять квотами использования для больших языковых моделей (LLM) в Discourse AI.

:person_raising_hand: Требуемый уровень пользователя: Администратор

Краткое содержание

Квоты использования LLM позволяют администраторам контролировать и отслеживать потребление ресурсов ИИ, устанавливая ограничения на использование токенов и количество взаимодействий для различных групп пользователей. Это помогает поддерживать экономическую эффективность, обеспечивая при этом справедливый доступ к функциям ИИ во всем вашем сообществе.

Настройка

Доступ к настройкам квот

  1. Перейдите в панель администратора вашего сайта.
  2. Откройте раздел Администрирование > Плагины > Discourse AI > LLM.
  3. Выберите модель LLM, которую вы хотите настроить.

Настройка квот

Для каждой группы пользователей вы можете настроить:

  • Максимальное использование токенов
  • Максимальное количество взаимодействий с ИИ (или оба параметра)
  • Длительность периода сброса

Для каждой квоты должно быть установлено хотя бы одно из значений: максимальное количество токенов или максимальное число использований.

:notepad_spiral: Примечание: Группе “все” нельзя назначить квоту. Вы должны использовать конкретные группы (например, группы уровня доверия или пользовательские группы).

Варианты длительности

Выберите из предустановленных периодов сброса:

  • 1 час
  • 6 часов
  • 24 часа
  • 7 дней
  • Пользовательская длительность (указывается в часах)

Мониторинг использования

Просмотр статистики

Администраторы могут отслеживать потребление токенов и использование ресурсов по адресу: https://SITENAME/admin/plugins/discourse-ai/ai-usage

  1. Перейдите в раздел Администрирование > Плагины > Discourse AI.
  2. Выберите вкладку “Использование”.
  3. Отфильтруйте данные по диапазону дат, группе пользователей или конкретным показателям.

Опыт пользователя

Уведомления о квотах

Пользователи получают четкую обратную связь при приближении к лимитам квоты или достижении их:

  • Текущий статус использования
  • Время до следующего сброса квоты

Сообщения об ошибках

При превышении квоты пользователи видят:

  • Четкое уведомление о достижении лимита квоты
  • Оставшееся время до следующего сброса квоты

Рекомендации по использованию

  1. Начинайте с консервативных значений: Начните с более низких квот и корректируйте их в зависимости от реальных паттернов использования.
  2. Распределение по группам: Назначайте разные квоты в зависимости от потребностей и ролей групп пользователей.
  3. Регулярный мониторинг: Анализируйте паттерны использования для оптимизации настроек квот.
  4. Четкая коммуникация: Информируйте пользователей о лимитах квот и периодах их сброса.

Распространенные проблемы и решения

Проблема: Пользователи часто достигают лимитов

Решение: Рассмотрите возможность:

  • Увеличения лимитов квот для конкретных групп
  • Сокращения периода сброса
  • Создания специализированных групп для пользователей с высоким уровнем использования

Проблема: Неиспользуемые квоты

Решение:

  • Уменьшите лимиты для оптимизации распределения ресурсов
  • Проверьте назначения групп, чтобы убедиться, что квоты соответствуют потребностям пользователей

Часто задаваемые вопросы

В: Переносятся ли неиспользованные квоты?
О: Нет, квоты полностью сбрасываются в конце каждого периода.

В: Могут ли разные модели LLM иметь разные квоты?
О: Да, квоты могут быть настроены независимо для каждой модели LLM.

В: Что происходит, если для одной модели LLM установлено несколько квот?
О: Квоты основаны на группах и применяются к каждому пользователю. Чтобы пользователь превысил квоту, он должен превысить лимит во всех группах, к которым он принадлежит. Это означает, что если вы установите для администраторов очень щадящую квоту, а для уровня доверия 1 — более строгую, то к администраторам будет применяться их квота.

В: Что произойдет, если к модели LLM не применена квота?
О: Ничего особенного не произойдет, все использование LLM будет неограниченным.

В: Что делать, если я хочу разные квоты для разных функций?
О: Discourse AI позволяет определять несколько моделей LLM, которые обращаются к одной и той же конечной точке и даже могут использовать одни и те же ключи. Если вы хотите установить одну квоту для AI Helper и другую для AI Agent, определите две модели LLM.

В: Как удалить квоту?
О: Удалите квоту со страницы конфигурации модели LLM. Нет возможности временно “приостановить” или отключить квоту — её необходимо удалить и создать заново.

Дополнительные ресурсы

11 лайков

It seems we can’t completely prohibit a group from using a specific model by setting the quota to 0.

Could you add support for this setting?

Sorry can you expand here. Each feature also is group gated, so you can enable helper only for a subset of users anyway.

I want some premium models to be restricted to specific groups only. It would be great if we could set a model’s quota to 0 to disable access for certain groups.

2 лайка

Yeah, it’s an interesting problem. I’ll have a think about it.

You may want the helper to use GPT4o for “special group 1” and GPT4o mini for the rest of the people.

At the moment, we only allow you to select one model for the AI helper, so we would need a reasonably big change to support this.

@Falco / @Saif / @awesomerobot, something to think about.

5 лайков