Mi stavo chiedendo se un approccio molto simile a Discourse AI - Web Artifacts consentirebbe di utilizzare contenuti H5P in Discourse.
Gli artefatti AI sono limitati nelle dimensioni. Suppongo che archiviare contenuti più grandi nel database debba essere evitato?
Mi piacerebbe imparare come archiviare contenuti più grandi e come potrebbe avvenire una comunicazione limitata tra contenuti ricchi e Discourse.
Compiti da risolvere
- Servire contenuti H5P da Discourse
- Archiviare i risultati all’interno di Discourse
- Analizzare i risultati da Discourse
- Integrare i risultati con i Badge
Servire contenuti H5P da Discourse
I contenuti H5P vengono caricati come un file zip strutturato specifico. Questo archivio deve essere decompresso e spostato in posizioni da cui può essere servito.
I dati di configurazione all’interno sono solitamente piuttosto piccoli e potrebbero essere archiviati nel database, come in AI Web Artifacts (AIWA). Le librerie e i media inclusi potrebbero diventare piuttosto grandi e dovrebbero essere archiviati come altri caricamenti (come file o tramite CDN).
AIWA serve i contenuti all’interno di un iframe, che fornisce un ambiente sandbox. Poiché qualsiasi codice all’interno di H5P non dovrebbe essere considerato attendibile, questa sembra la strada da percorrere anche per H5P.
Un’alternativa potrebbe essere quella di incorporare H5P da infrastrutture esterne tramite oneboxing.
Archiviare i risultati all’interno di Discourse
H5P utilizza un’API REST (xAPI) per archiviare i risultati. Per l’integrazione con l’interfaccia utente di Discourse, il messaggistica cross-document potrebbe essere interessante.