Je me demandais si une approche très similaire à Discourse AI - Web Artifacts permettrait d’utiliser du contenu H5P dans Discourse.
Les artefacts IA sont limités en taille. Je suppose qu’il faut éviter de stocker du contenu plus volumineux dans la base de données ?
J’aimerais en savoir plus sur la manière de stocker du contenu plus volumineux et sur la manière dont une communication limitée entre le contenu riche et Discourse pourrait avoir lieu.
Tâches à résoudre
- Servir le contenu H5P depuis Discourse
- Stocker les réalisations dans Discourse
- Analyser les réalisations depuis Discourse
- Intégrer les réalisations avec les Badges
Servir le contenu H5P depuis Discourse
Le contenu H5P est téléchargé sous forme de fichier zip structuré spécifique. Cette archive doit être décompressée et déplacée vers des emplacements à partir desquels elle peut être servie.
Les données de configuration internes sont généralement assez petites et pourraient être stockées dans la base de données, comme pour les artefacts Web IA (AIWA). Les bibliothèques et les médias inclus peuvent devenir assez volumineux et devraient être stockés comme d’autres téléchargements (sous forme de fichiers ou via CDN).
L’AIWA sert le contenu à l’intérieur d’un iframe, qui fournit un environnement sandbox. Étant donné que tout code à l’intérieur de H5P ne doit pas être fiable, cela semble être la voie à suivre pour H5P également.
Une alternative pourrait être d’intégrer H5P à partir d’une infrastructure étrangère via oneboxing.
Stocker les réalisations dans Discourse
H5P utilise une API REST (xAPI) pour stocker les réalisations. Pour l’intégration avec l’interface utilisateur de Discourse, la messagerie inter-documents pourrait être intéressante.