Discourse AI

2 post sono stati divisi in un nuovo argomento: Is it possible to enable only one AI persona?

RAILS_ENV=production bundle exec rake assets:precompile la versione self-hosted di Discourse non funziona con l’ultimo plugin discourse-AI a causa di errori di compilazione SCSS. @use “lib/viewport” dovrebbe essere la prima riga di discourse-ai.css. puoi per favore controllare?

Lo stai eseguendo su una versione precedente di Discourse o è sulla main?

Dopo aver installato il plugin Discourse AI sulla versione stabile di Discourse (3.4.6), ho capito che Discourse indica che #bdef136 (commit datato 4 febbraio 2025) è l’ultimo commit e che il plugin attualmente installato è l’ultimo.

Tuttavia, quando ho ricontrollato perché c’era un problema in cui i campi chiave richiesti per l’integrazione AWS Bedrock non venivano visualizzati, ho scoperto che era indietro di almeno 300 commit e, quando sono andato effettivamente nel repository discourse-ai e ho controllato il branch principale, il divario era ampio. Questo sintomo si verifica anche in altre istanze di Discourse che gestisco e non riesco a capire qual è il problema.

Non è ancora passata una settimana da quando ho installato il plugin discourse-ai sulla mia istanza esistente, ma il commit della versione effettivamente installata risale a più di 4-5 mesi fa, e sono curioso di sapere perché viene mostrato come l’ultimo e come risolvere il problema in modo che il plugin possa essere sostituito con l’ultimo commit.

I plugin sono bloccati dopo una release stabile. Ciò significa che non riceverai automaticamente aggiornamenti più recenti dei plugin che potrebbero dipendere da modifiche nel core di Discourse che non fanno ancora parte della release stabile.
Se un aggiornamento di un plugin utilizza codice che esiste solo nell’ultimo branch “tests-passed”, potrebbe causare problemi sulla versione stabile perché quel codice semplicemente non è presente.

Ad esempio, il plugin AI ha iniziato a utilizzare la libreria js-diff, che è stata aggiunta al core di Discourse solo dopo la release stabile di febbraio. Quindi, l’ultima versione del plugin AI non funzionerà con quella versione stabile.

3 Mi Piace

Oh, capisco! Quindi il comando git clone nel file app.yml aggiunge più funzionalità rispetto a quanto menzionato in quel file! Ora ha senso. :open_mouth:

Ora, quando attivo il plugin AI e aggiungo un nuovo LLM nel plugin, oltre a poter selezionare AWS Bedrock, perché i campi di immissione dell’ID della chiave di accesso AWS Bedrock e della regione AWS Bedrock non compaiono quando seleziono Bedrock come provider, a differenza di quanto menzionato in questo documento: Configuring Amazon Bedrock services

Sto usando la versione 3.4.5 di Discourse e la versione del plugin AI è 0.0.1
e bdef136.

Non supportiamo Discourse AI su Discourse stabile, si prega di utilizzare il nostro canale di rilascio predefinito per la migliore esperienza.

4 Mi Piace

:partying_face: Questo plugin è ora incluso nel core di Discourse come parte di Bundling more popular plugins with Discourse core. Se stai auto-ospitando e utilizzi il plugin, devi rimuoverlo dal tuo app.yml prima del tuo prossimo aggiornamento.

4 Mi Piace

Sto cercando di configurare questo plugin con Azure. Ci connettiamo a OpenAI tramite il nostro gateway che utilizza Azure. Stavo provando a impostare utilizzando la configurazione manuale LLM
Elaborazione tramite DiscourseAi::Admin::AiLlmsController#test come JSON
Parametri: {“ai_llm”=>{“max_prompt_tokens”=>“2000”, “api_key”=>“[FILTERED]”, “tokenizer”=>“DiscourseAi::Tokenizer::OpenAiTokenizer”, “url”=>“<OUR_URL>”, “display_name”=>“test-ai-gateway”, “name”=>“gpt-4_0613-pgo-amrs”, “provider”=>“azure”, “enabled_chat_bot”=>“true”, “vision_enabled”=>“false”}}

Questo non sembra funzionare. Qualcuno può fornire il modo corretto per impostarlo?

La mia domanda:
Quando uso un modello AI per la traduzione di testi completi, trovo i risultati mediocri. Voglio passare a un altro modello AI per ritradurre il contenuto. Come posso ritradurre post già tradotti utilizzando il nuovo modello?

Inoltre, esiste un modo efficiente per contare rapidamente il numero di post già tradotti?

Al momento, dovrai utilizzare la console Rails o PostgreSQL per eliminare le traduzioni esistenti.

È nella nostra roadmap aggiungere una pagina di stato con il progresso per lingua nel backlog di traduzione.

Mi dispiace, non riesco a trovare la tabella specifica da eliminare. Puoi dirmi il nome della tabella e dove si trova la roadmap del progresso della traduzione?

Ciao, ci sarà un aggiornamento riguardo a GPT 5?

1 Mi Piace

Ciao, non c’è alcun annuncio ufficiale del Discourse Team che dica che GPT-5 è stato aggiornato o che esista affatto; ma se lo desideri davvero, aspetta semplicemente che venga rilasciato, così potrai controllarlo.

Atterrerà a breve:

Nota su GPT-5, lo sto usando tutto il giorno, è buono, ma è un modello di ragionamento quindi è lento.

Sentiti libero di giocare con lo sforzo di ragionamento, al livello basso è una velocità accettabile, ma molto più lenta di 4.1

2 Mi Piace

Ho scaricato l’ultimo aggiornamento e sembra che OpenAI abbia apportato alcune modifiche all’API

 Tentativo di contattare il modello ha restituito questo errore: { “error”: { “message”: “Parametro non supportato: ‘reasoning_effort’. Nell'API Responses, questo parametro è stato spostato in ‘reasoning.effort’. Riprova con il nuovo parametro. Vedi la documentazione dell'API per maggiori informazioni: https://platform.openai.com/docs/api-reference/responses/create.”, “type”: “invalid_request_error”, “param”: null, “code”: “unsupported_parameter” } }

Ho impostato l’URL su https://api.openai.com/v1/responses qui.

1 Mi Piace

Funziona tramite l’API di completamento. Seguirò con una volpe per l’API delle risposte.

2 Mi Piace

FYI GPT-5 con Risposte è incredibilmente lento, tutti lo segnalano.

3 Mi Piace

Ho inviato una correzione per questo un paio d’ore fa, prova.

1 Mi Piace

Funziona a meraviglia capo :heart_eyes::ok_hand:t2:

1 Mi Piace