أتساءل عما إذا كان نهج مشابه جدًا لـ Discourse AI - Web Artifacts سيمكن من استخدام محتوى H5P في discourse.
القطع الأثرية للذكاء الاصطناعي محدودة الحجم. أفترض أنه يجب تجنب تخزين المحتوى الأكبر داخل قاعدة البيانات؟
أود أن أتعلم عن كيفية تخزين المحتوى الأكبر وكيف يمكن أن يتم اتصال محدود بين المحتوى الغني و discourse.
المهام المطلوب حلها
- تقديم محتوى H5P من discourse
- تخزين الإنجازات داخل discourse
- تحليل الإنجازات من discourse
- دمج الإنجازات مع الشارات
تقديم محتوى H5P من discourse
يتم تحميل محتوى H5P كملف مضغوط منظم محدد. يجب فك ضغط هذا الأرشيف ونقله إلى مواقع يمكن تقديمه منها.
عادة ما تكون بيانات التكوين بالداخل صغيرة جدًا ويمكن تخزينها في قاعدة البيانات، كما هو الحال في AI Web Artifacts (AIWA). قد تصبح المكتبات والوسائط المضمنة كبيرة جدًا ويجب تخزينها كتحميلات أخرى (كملفات أو عبر CDN).
يقدم AIWA المحتوى داخل iframe، والذي يوفر بيئة معزولة. نظرًا لأنه لا ينبغي الوثوق بأي كود داخل H5P، يبدو هذا هو الطريق الصحيح لـ H5P أيضًا.
قد يكون البديل هو تضمين H5P من بنية تحتية خارجية عبر oneboxing.
تخزين الإنجازات داخل discourse
يستخدم H5P واجهة برمجة تطبيقات REST (xAPI) لتخزين الإنجازات. للتكامل مع واجهة مستخدم Discourse، قد يكون التواصل بين المستندات مثيرًا للاهتمام.