Vogliamo costruire una pipeline automatizzata che possa aggiornare il tema personalizzato di Discourse che abbiamo creato, il quale ha diverse schede per diversi tipi di contenuti estratti:
Estrae contenuti dalle fonti (feed RSS, siti web, ecc.)
Struttura i dati con metadati: titolo, fonte, tipo (notizie/conferenze), URL, data
Utilizza l’API di Discourse per:
Creare un argomento nella categoria corretta e aggiornare il contenuto all’interno di schede specifiche del tema personalizzato.
Aggiungere tag pertinenti (per farlo apparire nella scheda corretta)
Quali sono i modi migliori per archiviare i dati estratti e renderli:
Database locale o CMS esterno per archiviare e pianificare i contenuti o
Grazie pfaffman per i suggerimenti sui plugin. Tuttavia, non abbiamo dati di feed RSS, memorizziamo dati analizzati in un database autonomo… possiamo usare questo plugin per connetterci al database autonomo e recuperare i dati necessari e renderizzare il contenuto?
Era un esempio. Potresti trasformare i tuoi dati sottoposti a escape in un feed RSS o modificare il plugin per leggere qualsiasi formato tu voglia inserire.
Quello che probabilmente farei è scrivere lo scraper in Ruby e integrarlo in un plugin.
O forse Use the Discourse API ruby gem e metterlo in un’azione di Github e farlo inviare i dati. Ho intenzione di farlo per un cliente che è ospitato e non può usare un plugin personalizzato.
Grazie Jay. Lo sviluppo dello scraper è già stato completato con Python… ora stiamo valutando come eseguire il rendering di questi dati estratti che sono memorizzati in MongoDB.