Qual è il modo migliore per creare una pipeline che pubblichi dati estratti nelle categorie di Discourse con temi personalizzati a schede?

Vogliamo costruire una pipeline automatizzata che possa aggiornare il tema personalizzato di Discourse che abbiamo creato, il quale ha diverse schede per diversi tipi di contenuti estratti:

  1. Estrae contenuti dalle fonti (feed RSS, siti web, ecc.)
  2. Struttura i dati con metadati: titolo, fonte, tipo (notizie/conferenze), URL, data
  3. Utilizza l’API di Discourse per:
  • Creare un argomento nella categoria corretta e aggiornare il contenuto all’interno di schede specifiche del tema personalizzato.
  • Aggiungere tag pertinenti (per farlo apparire nella scheda corretta)

Quali sono i modi migliori per archiviare i dati estratti e renderli:

  1. Database locale o CMS esterno per archiviare e pianificare i contenuti o
  2. File YAML/JSON (Fonte statica)
1 Mi Piace

Forse dai un’occhiata a RSS Polling

Grazie pfaffman per i suggerimenti sui plugin. Tuttavia, non abbiamo dati di feed RSS, memorizziamo dati analizzati in un database autonomo… possiamo usare questo plugin per connetterci al database autonomo e recuperare i dati necessari e renderizzare il contenuto?

Era un esempio. Potresti trasformare i tuoi dati sottoposti a escape in un feed RSS o modificare il plugin per leggere qualsiasi formato tu voglia inserire.

Quello che probabilmente farei è scrivere lo scraper in Ruby e integrarlo in un plugin.

O forse Use the Discourse API ruby gem e metterlo in un’azione di Github e farlo inviare i dati. Ho intenzione di farlo per un cliente che è ospitato e non può usare un plugin personalizzato.

Grazie Jay. Lo sviluppo dello scraper è già stato completato con Python… ora stiamo valutando come eseguire il rendering di questi dati estratti che sono memorizzati in MongoDB.