Hey, you can set your own Custom LLM using their current endpoint, api_key and tweaking the model with your options and parameters.
The initial list probably needs to be updated and it could be more intuitive for new users but you can do what you want, for sure.
Hmm, I have multiple LLMās configured, trying to get as many of them as possible on 2.5 flash.
I donāt see any way to assign the Helper and AI bot to the Gemini Flash 2.5 LLM. Are you saying I need to go in the edit the assigned LLM (Gemini 1.5 flash) and change the key/endpoints etc to use 2.5 flash?
itās under the personas
Bedankt, ja, ik ben op dat punt gekomen, ik zie dat sommige personen slechts ƩƩn optie hebben, maar vreemd genoeg zijn deze voor alle personaās grijs weergegeven. Ik zie ook geen geconfigureerde tools onder Discourse AI ā Tools.
Is er een handleiding voor hoe dit in te stellen?
Yep, you can start now here:
Bedankt, ja, ik heb die eerder doorgenomen (en erover gepost) en ze opnieuw doorgenomen voor updates. Ik kan niets vinden dat verband houdt met mijn bovenstaande vragen, specifiek:
- Hoe stel ik de AI-bot in om automatisch te reageren op berichten van de OP en alle gebruikers? Zoals ik het begrijp, moet ik de āreadā-tool toevoegen aan de persona-configuratie (ik neem aan de AI Helper Persona), maar er is dan geen tool genaamd āreadā en de optie voor ingeschakelde tools is grijs. Ik kan geen informatie hierover vinden in de bovenstaande links.
- Hoe configureer ik de AI-bot om het Gemini 2.5 Flash-model te gebruiken? Er is geen specifieke optie om een model toe te wijzen aan de AI-bot, zoals dat wel het geval is voor de personaās. Moet ik gewoon het momenteel toegewezen model aan de AI-bot bewerken en het 2.5 Flash laten gebruiken?
Alvast bedankt
Maybe this will help you
Perfect, that was what I needed but Iāll answer my questions above for others reference if theyāre just getting started.
Enable the Automation plugin first and then create an Automation using the AI Triage how to link above from Moin. Note that if youāre using the built in personas like Forum Helper then you CANNOT adjust the Enabled Tools and Forced Tools settings. If you want to customize those settings then you need to create a new/custom persona. As for the tools, read etc, these are built in tools and you donāt need to create any custom tools to access them, however, they will be available only through custom personas (build in personas will have the options greyed out).
I realized the AI Bot and Helper are two special agents which they their own assigned LLM models. If I need to change what LLM they are using I need to go into their assigned LLMās and update the configuration directly in their respective configurations. I cannot create a custom LLM model and then reassign these two agents to use them like one can do with a personas.
7 berichten zijn naar een nieuw onderwerp gesplitst: AI-reacties in forumdiscussies beheren
Een geweldige functie zou zijn om aangepaste styling van het dropdownmenu van de bot mogelijk te maken, zodat providerlogoās en subscripttekst voor modelspecifieke parameters kunnen worden opgenomen. voorbeeld:
ā(logo provider) modelnaam
256k context | 3B parametersā
Hi!
Iām trying out the AI bot on our forum. Is it possible to limit what the AI bot can read? Itās in all groups automatically and it seems I canāt change that. The question arose because thereās a concern that it can read users PMs. Iām not sure if it even can do that. Thanks!
David

