This week, AI discussions spanned search UX improvements, localization quirks, embeddings configuration, and bug fixes post-upgrade. Administrators and developers delved into making AI search results more discoverable, tweaking Gemini embeddings settings, and resolving errors introduced in the 3.6.0 beta. Community members also explored using Discourse for niche groups, tested local LLM integrations, and reported composer glitches with pasted images. Major themes hit #ai-support, ai-search, Bug, Community, and UX.
“We just deployed a big improvement to the underlying tech that powers semantic search…” — Falcoref
“Many users are still wary of AI so they don’t toggle the switch…” — RBoyref
Interesting Topics
Hiding XX results found using AI—enable toggle by default (Supportaiai-search) RBoy kicked off the thread by noting that AI search results were hidden by default. NateDhaliwal pointed to existing docs ref, and Falco explained how it now auto-toggles when native results are missing ref. A temporary theme script to force the toggle was also shared ref.
Falsche Übersetzung, wenn post locale = UI locale (Bugaidynaloccontent-localization) Jakob_Naumann reported that English posts were showing up in German after a default-locale change ref. Falco recommended purging and re-creating the localization cache ref.
Gemini API Embedding Configuration Clarification (Supportai) RBoy asked what sequence length maps to in the embedding settings and how to throttle API backfills to avoid 429 errors ref. Falco confirmed sequence length equals the model’s token capacity (2048) and pointed out the hidden ai_embeddings_backfill_batch_size setting ref.
Exploring Reranking Options for Discourse AI (Supportai)
In a longer-running thread, Falco rolled out a major semantic search improvement ref, expected to reduce reliance on external rerankers. tpetrov queried support for uploaded RAG documents versus forum topics ref, and Falco confirmed the change covers all embedding use cases ref.
Would this work for a community of women over 45+ (Communityai) bessnlj wondered if Discourse with AI-powered search fits a niche dating/coaching site ref. tobiaseigen clarified that meta.discourse.org is for Discourse hosts but encouraged spinning up a trial for custom use ref and pointed to existing communities for inspiration ref.
Local Ollama is not working with the Plugin (Supportai) Tikkel faced an “Internal Server Error” when Discourse called the Ollama service, despite successful cURL tests ref. Falco asked for container logs ref, and Tikkel confirmed that adjusting DISCOURSE_ALLOWED_INTERNAL_HOSTS syntax to use pipes solved it ref.
Gemini Embeddings Issue After Discourse Update to 3.6.0 Beta 2 (Supportai)
Upgrading to 3.6.0.beta2 broke embedding tests for RBoy, who spotted that Gemini’s old embedding-001 model was retired ref. He fixed it by switching to gemini-embedding-001 in the plugin settings ref.
Embedding error with 3.6.0 beta 2 (Bugai)
A related bug, reported by RBoy, showed “invalid input syntax for type halfvec: “[NULL]”” when querying embeddings post-upgrade ref. This points to null-vector handling issues in the new release.
After sending the image, add this to the beginning of the message: [object InputEvent] (Bugai) kuaza discovered that copy-pasting images into the composer prepends an [object InputEvent] string ref. Uploading via the file selector avoids the glitch, leading to further UX tweaks.
How to solve discourse ai: No endpoints found that support tool use (Supportai) whitewaterdeu saw a 404 “No endpoints found that support tool use” error testing OpenRouter’s qwen3-8b model ref. Disabling native tool integration resolved the issue ref.
Wöchentliche Zusammenfassung der KI-Aktivitäten: 20.10.2025 → 27.10.2025
Übersicht
Die #KI-Diskussionen der Woche auf Meta umfassten API-Fehlerbehebung, Content-Lokalisierung, Benutzerfeedback zu Übersetzungen und Plugin-Fehlerbehebungen.
In der Kategorie Support leitete Enit eine eingehende Untersuchung ein, indem er auf einen 400 Bad Request Using API-Fehler stieß, als er versuchte, ein Thema über die REST-API zu erstellen. supermathie wies auf die Discourse REST API documentation hin und bat um Authentifizierungsdetails ref. Moin bat dann um Log-Auszüge ref und klärte, ob es sich hierbei um ein reines API-Problem oder um eine Verbindung zum KI-Plugin handelte ref. Schließlich wurde das Rätsel gelöst, als die richtigen Logs unter /logs auftauchten ref.
Im Bereich #Site Management sah die Diskussion Content Localization - Manual and Automatic with Discourse AI cmdntd vor, den URL-Parameter tl für alle Benutzer verfügbar zu machen, nicht nur für Gäste ref. Falco stellte klar, dass er derzeit global auf der gesamten Website gilt ref. wenqin testete dann die Funktion und schlug eine Option „Standard (keine Übersetzung)“ für mehrsprachige Lerner vor ref, und Moin half bei der Suche nach dem Schalter zur Anzeige des Originalinhalts ref. Wenqin bestätigte, dass die Lösung perfekt funktionierte ref.
Community-Feedback in #CommunitysMultilingual user feedback on Automatic Translations wurde fortgesetzt, wobei FINDarkside nach sprachspezifischen Übersetzungseinstellungen rief. Eine #Support-Anfrage mit dem Titel 我已关闭Discobot,但它仍然运行 stellte sich als KI-Suchergebnisse heraus, die NateDhaliwal klärte, dass sie in den Benutzereinstellungen umgeschaltet werden können ref.
400 Bad Request Using API (Supportrest-apiai): Enits API-Aufruf gab 400 Bad Request zurück, was supermathie und Moin durch Authentifizierungsprüfungen, Log-Diagnosen und Klärungen des Plugin-Kontexts führte.
我已关闭Discobot,但它仍然运行 (Supportai): Ein falsch identifiziertes Discobot-Problem wurde gelöst, als NateDhaliwal erklärte, dass es sich um die KI-Suchergebnisse-Funktion handelt, die in den Einstellungen umgeschaltet werden kann.
Discourse AI - Sentiment (#Site Management aiai-sentimentcontent): keegan erkundigte sich nach der Anpassung des Sentiment-Schwellenwerts, nur um zu erfahren, dass er im Code fest codiert ist.
Embedding error with 3.6.0 beta 2 (Bugai): sam und RBoy meldeten Spitzen bei der Ratenbegrenzung und Einbettungsfehler; Falco deaktivierte ProblemChecks und gab einen Patch heraus ref.
Aktivität
Enit: leitete die eingehende API-Untersuchung mit fünf Beiträgen – Erstmeldung ref, Klärung des Plugin-Kontexts ref, Log-Details ref, Lösungsbestätigung ref und breitere KI-Speicherdiskussion ref.
supermathie: lieferte Anleitungen zur API-Dokumentation ref.
Moin: prüfte Logs ref, klärte den Plugin-Umfang ref, leitete den Log-Zugriff ref und half bei Lokalisierungs-Schaltern ref.
NateDhaliwal: übersetzte Einblicke in die Sprachunterstützung ref und Hilfe bei den Einstellungen für KI-Entdeckungen ref.
wenqin: testete lokalisierte Ansichten ref und lobte die UX des Schalters ref.
Falco: erklärte das globale Locale-Verhalten ref und behob den Einbettungsfehler ref.
FINDarkside: leistete kritische Rückmeldungen zu benutzergesteuerten Übersetzungen ref.
Jagster: hob Einschränkungen bei der Sprachunterstützung hervor ref.
keegan: fragte nach Sentiment-Schwellenwerten ref.
DevTeVe: optimierte den Übersetzungsprozess durch Deaktivierung des Streamings ref.
Wöchentliche Zusammenfassung der KI-Aktivitäten: 27.10.2025 - 03.11.2025
Überblick
Diese Woche gab es auf meta.discourse.org lebhafte Diskussionen in den Bereichen ai, content-localization, Feature und Support. Von mehrsprachigen Übersetzungspräferenzen und Bedenken hinsichtlich nicht offengelegter automatischer Übersetzung bis hin zu versteckten Konfigurationseinstellungen und Funktionswünschen für KI-gestützte Formatierung tauchte die Community tief in die Frage ein, wie Discourse AI flexibler und transparenter sein kann. Die Mitwirkenden befassten sich auch mit LLM-Fehlern, debattierten Anforderungen an strukturierte Ausgaben, suchten nach Kostenschätzungen für KI-Funktionen und untersuchten Token-Limits für Embeddings. Insgesamt lag der Fokus weiterhin auf der Verbesserung der Benutzerkontrolle, der Erhöhung der Zuverlässigkeit und der Erweiterung der Anbieterunterstützung.
Hochgradig intrusive und nicht offengelegte automatische Übersetzung (translationcontent-localizationUX)
\u003ca class="mention" href="/u/Ethaphu"\u003eEthaphu\u003c/a\u003e wies darauf hin, dass jeder Beitrag im Roblox Devforum automatisch übersetzt wurde, ohne klare Hinweise in Hochgradig intrusive und nicht offengelegte automatische Übersetzung. \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e erklärte die Übersetzungsindikatoren in Beitrag 3, \u003ca class="mention" href="/u/tobiaseigen"\u003etobiaseigen\u003c/a\u003e stimmte zu, dass die Kennzeichnung überarbeitet werden muss, in Beitrag 4, und \u003ca class="mention" href="/u/nat"\u003enat\u003c/a\u003e untersuchte die Self-Hosting-Limits von Roblox in Beitrag 5.
Wie konfiguriere ich die KI-Übersetzung von Ai translation backfill hourly rate? (aiSupport)
\u003ca class="mention" href="/u/whitewaterdeu"\u003ewhitewaterdeu\u003c/a\u003e hatte Probleme mit fehlenden Einstellungen in Wie konfiguriere ich die KI-Übersetzung von Ai translation backfill hourly rate, \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e teilte die Anleitung in Beitrag 2, die Lösung wurde von \u003ca class="mention" href="/u/Moin"\u003eMoin\u003c/a\u003e in Beitrag 4 als versteckte Einstellung enthüllt, und \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e bemerkte, dass sie nun in Beitrag 6 sichtbar gemacht werden kann.
Schaltfläche zum Formatieren von Beitragsinhalten mit KI (aiFeature)
\u003ca class="mention" href="/u/hameedacpa"\u003ehameedacpa\u003c/a\u003e forderte eine KI-Formatierungsschaltfläche in Schaltfläche zum Formatieren von Beitragsinhalten mit KI. \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e verwies auf den bestehenden Discourse AI Helper und demonstrierte später einen benutzerdefinierten Prompt in Beitrag 6.
Ein Fehler ist aufgetreten: Standard-LLM-Modell ist erforderlich, bevor Chat aktiviert wird (aiSupport)
\u003ca class="mention" href="/u/viswanatha"\u003eviswanatha\u003c/a\u003e stieß auf einen Reset-Fehler in Ein Fehler ist aufgetreten: Standard-LLM…, und \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e verlinkte auf den bestehenden Thread in Beitrag 2, bevor er behoben wurde.
Ich denke, die discourse-ai API benötigt eine Rückschrittfunktion (aiDev)
\u003ca class="mention" href="/u/MoRanYue"\u003eMoRanYue\u003c/a\u003e schlug vor, die strukturierte Ausgabe zugunsten einer breiteren Anbieterunterstützung fallen zu lassen, in Ich denke, die discourse-ai API benötigt eine Rückschrittfunktion. \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e erklärte, warum strukturierte Ausgabe wichtig ist, in Beitrag 2, und MoRanYue bot XML-ähnliche Trennzeichen als Alternative in Beitrag 3 an.
Untersuchung von Reranking-Optionen für Discourse AI (aiSupport)
\u003ca class="mention" href="/u/tpetrov"\u003etpetrov\u003c/a\u003e testete neue Embeddings in Untersuchung von Reranking-Optionen für Discourse AI, wobei \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e die Modellverfügbarkeit in Beitrag 15 nachverfolgte.
Warnung vor Embedding input must have less than 8192 tokens mit discourse ai (aiSupport)
\u003ca class="mention" href="/u/whitewaterdeu"\u003ewhitewaterdeu\u003c/a\u003e stieß auf Token-Limits in Warnung vor Embedding…, \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e erklärte die Anbieterregeln in Beitrag 2, und die Diskussion wurde in Beitrag 6 fortgesetzt.
Unterstützung für KI-Bot zur Konfiguration für ein Support-Community-Forum… (aiSupport)
\u003ca class="mention" href="/u/viswanatha"\u003eviswanatha\u003c/a\u003e teilte LLM- und Persona-Setups in Unterstützung für KI-Bot zur Konfiguration…, \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e schlug Tool-gestützte Suchen in Beitrag 2 vor, und Modell-Empfehlungen folgten in Beitrag 4.
Schätzung der Kosten für die Aktivierung von Discourse AI für verwandte Inhalte und Suche (aiSupport)
\u003ca class="mention" href="/u/SubStrider"\u003eSubStrider\u003c/a\u003e fragte nach Kosten-Benchmarks in Schätzung der Kosten für die Aktivierung von Discourse AI…, \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e klärte Suche vs. LLM in Beitrag 2 auf, und Falco skizzierte Self-Hosting-Optionen in Beitrag 3.
\u003ca class="mention" href="/u/Moin"\u003eMoin\u003c/a\u003e brachte bestehende Lösungen ans Licht und beantwortete Supportanfragen: Verweis auf mehrsprachige Präferenzen in Automatische Übersetzungen und Enthüllung versteckter Einstellungen in Ai translation backfill hourly rate.
\u003ca class="mention" href="/u/MoRanYue"\u003eMoRanYue\u003c/a\u003e drängte auf API-Flexibilität in API-Rückschritt-Diskussion und schlug Parsing-Alternativen in Beitrag 3 vor.
\u003ca class="mention" href="/u/MiikkaLaitila"\u003eMiikkaLaitila\u003c/a\u003e hob mehrsprachige Bedürfnisse in Feedback zu automatischen Übersetzungen hervor.
\u003ca class="mention" href="/u/nat"\u003enat\u003c/a\u003e untersuchte externe Implementierungen in UX für automatische Übersetzungen.
Over the past week, the community dove into several translation and rate-limit challenges, as well as fresh plugin releases and AI helper configuration issues. Key themes included:
AI Persona Stability: Reports of the AI bot entering infinite loops and spamming highlighted the need to calibrate LLM temperature parameters (AI bot infinite loop and spamming).
Plugin Spotlight: The new llms.txt generator plugin promises to make forum content discoverable by LLMs (Discourse llms.txt Generator Plugin).
Rate Limits & Budget Errors: Discussions surfaced around Gemini Pro’s thinking budget constraints and cost-input minimums, uncovering unexpected validation errors in both free and paid tiers (Gemini Pro thinking budget error, AI model cost input restriction).
Below are the 10 most interesting topics from the week, followed by a breakdown of who said what.
AI bot infinite loop and spamming (Supportai-bot) wisewords reported that after creating a new persona the AI began delaying responses and posting repetitive spam in AI bugging out, having a mental breakdown, and Falco explained it was due to the LLM hitting an infinite generation loop at certain temperature settings in post 2.
Staff override for translation max age (Featuretranslationaicontent-localization) jrgong requested the ability for staff to bypass the AI translation backfill max age days setting when manually translating older posts in post 1, and Falco tested and confirmed the manual translation button already overrides this backfill restriction in post 3.
Resetting Proofreader settings (Supportai-helper) bksubhuti sought guidance on restoring missing Proofreader options in the AI helper menu in post 1, and Moin and OP resolved it by rebuilding after correcting trust level configurations in post 4.
Missing language switcher after auto-translation (Supportaicontent-localization)
After successfully backfilling translations, EasyChen could not see the language switcher on translated posts in post 1, with nat guiding them through enabling the site setting and checking post locale detection in post 2 and post 7.
LLM and Discourse AI settings hidden (Supportai) Nima1 reported missing LLM tabs in the AI plugin on a Persian-locale site in post 1, and nat clarified that the “Discourse AI enabled” setting must be saved first to reveal the rest in post 2.
Default LLM model dropdown empty (Supportai) undasein was unable to select a default model due to an empty dropdown in post 1, and NateDhaliwal pointed them to configure LLMs under “Plugins > AI > LLMs” in post 2.
Gemini Pro thinking budget error (Bugai) RBoy encountered a “Budget 0 is invalid” error when setting a zero or negative budget for the gemini-pro-latest model in post 1, and the team acknowledged they will investigate in post 2.
AI model cost input restriction (Bugai) RBoy noted that the cost fields for AI model input and output prevent values below 0.1 in Can’t enter AI model cost of less than 0.1, overriding entries like 0.075 back to zero.
Wöchentliche KI-Aktivitätszusammenfassung (17.11.2025 bis 24.11.2025)
Überblick
In der letzten Woche verzeichnete der Bereich ai und ai-bot auf meta.discourse.org36 neue Beiträge in 5 neuen Themen, in denen Integrationsfehler, Spam-Filterung, Plugin-Flexibilität und Inhaltsformatierung behandelt wurden. Zu den Höhepunkten gehören:
Ein kritischer 400-Fehler in Google gemini-3-api helper API response error, gemeldet von \u003ca class="mention" href="/u/honeymoose"\u003ehoneymoose\u003c/a\u003e und schnell behoben von \u003ca class="mention" href="/u/sam"\u003esam\u003c/a\u003e.
Bereitstellung und Anpassung der Spam-Erkennungs-Persona in Frustrations on AI spam detector, gelöst mit Einblicken von \u003ca class="mention" href="/u/nat"\u003enat\u003c/a\u003e, \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e und \u003ca class="mention" href="/u/lilydjwg"\u003elilydjwg\u003c/a\u003e.
Untersuchung von anbieterunabhängigen und selbst gehosteten Modellen in Inquiry About AI Plugin Options, geleitet von \u003ca class="mention" href="/u/beitmenotyou"\u003ebeitmenotyou\u003c/a\u003e.
Ein Disclosure-Bug, der versteckte Tags in Zusammenfassungen in AI Summary leaking hidden tags aufdeckte, hervorgehoben von \u003ca class="mention" href="/u/tvavrda"\u003etvavrda\u003c/a\u003e.
Klärung der Modellnutzungsaufschlüsselung in Usage not showing LLM models dank Feedback von \u003ca class="mention" href="/u/RBoy"\u003eRBoy\u003c/a\u003e.
Die Top-Mitwirkenden dieser Woche waren \u003ca class="mention" href="/u/sam"\u003esam\u003c/a\u003e, \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e, \u003ca class="mention" href="/u/lilydjwg"\u003elilydjwg\u003c/a\u003e und \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e.
Interessante Themen
Google gemini-3-api helper API response errorBugaiai-bot
\u003ca class="mention" href="/u/honeymoose"\u003ehoneymoose\u003c/a\u003e entdeckte einen fehlenden thought_signature-Fehler in Geminis Helper-Aufrufen; \u003ca class="mention" href="/u/sam"\u003esam\u003c/a\u003e implementierte innerhalb weniger Tage eine Korrektur.
Frustrations on AI spam detectorSupportaispam
\u003ca class="mention" href="/u/lilydjwg"\u003elilydjwg\u003c/a\u003e kämpfte mit Persona-Prompts und Tokenizern; \u003ca class="mention" href="/u/nat"\u003enat\u003c/a\u003e lieferte ein funktionierendes Setup und die endgültige Lösung.
Inquiry About AI Plugin OptionsSupportai
\u003ca class="mention" href="/u/beitmenotyou"\u003ebeitmenotyou\u003c/a\u003e fragte nach der Verwendung lokaler LLMs (z. B. Ollama), wobei \u003ca class="mention" href="/u/Falco"\u003eFalco\u003c/a\u003e und \u003ca class="mention" href="/u/sam"\u003esam\u003c/a\u003e das anbieterunabhängige Design des Plugins und Tipps für kostenlose Modelle zeigten.
AI Summary leaking hidden tagsBugai
\u003ca class="mention" href="/u/tvavrda"\u003etvavrda\u003c/a\u003e bemerkte, dass KI-generierte Zusammenfassungen private Tags preisgaben; das Problem wurde zur schnellen Behebung triagiert.
Usage not showing LLM modelsBugai
\u003ca class="mention" href="/u/RBoy"\u003eRBoy\u003c/a\u003e meldete, dass die Registerkarte „Nutzung“ rohe Modell-IDs anstelle der konfigurierten LLM-Namen auflistet; \u003ca class="mention" href="/u/sam"\u003esam\u003c/a\u003e bestätigte die Anfrage nach klareren Aufschlüsselungen.
Button to format post content using AIFeatureai
\u003ca class="mention" href="/u/jrgong"\u003ejrgong\u003c/a\u003e und Community-Mitglieder brachten Ideen für benutzerdefinierte Composer-Personas und Formatierungsvorlagen vor.
Gemini Flash 2.5 Image - now on DiscourseAnnouncementsai
\u003ca class="mention" href="/u/sam"\u003esam\u003c/a\u003e stellte Nano Banana 3 Bildunterstützung vor; \u003ca class="mention" href="/u/NateDhaliwal"\u003eNateDhaliwal\u003c/a\u003e lobte die Qualitätsverbesserungen.
Discourse llms.txt Generator PluginPluginai
\u003ca class="mention" href="/u/Ivan_Rapekas"\u003eIvan_Rapekas\u003c/a\u003e teilte erste Tests des llms.txt-Generators und bat um Mindmap-Formatierung.
PDF support in Discourse AI#Site Management how-toai
\u003ca class="mention" href="/u/kuaza"\u003ekuaza\u003c/a\u003e fragte nach dem Einbetten und Verarbeiten von PDFs und untersuchte, welche Modelle Anhänge am besten verarbeiten.
Discourse AI – Large Language Model (LLM) settings page#Site Management how-toai
\u003ca class="mention" href="/u/beitmenotyou"\u003ebeitmenotyou\u003c/a\u003e nahm die fehlenden LLM-Registerkarten erneut auf und bat um Klärung der Konfigurationsoberfläche.
Discourse explained what happens when you Run Out of AI credits (#Hosted_Customersexplanationai), detailing daily credit allotments, plan upgrade paths, and how to connect your own LLM to avoid service interruptions.
iamcapote proposed AI supporting Micro-Features (Featureai), advocating for per-persona auto-greetings, internal system notes, and richer AI menu metadata (display names, tooltips, docs links) to make each persona self-explanatory.
派蒙pm from the Chinese community shared screenshots and 502 errors in 有关ai的问题 (Supportai), asking for help troubleshooting AI connectivity, and offering to provide logs or configs for deeper analysis.