Je souhaite utiliser Discourse AI. J’ai quelques questions à ce sujet.
Quelles données sont utilisées par Discourse AI (ainsi que par tout LLM comme OpenAI ou Google LLM) ? Inclut-elle des données sensibles ?
Une partie de ces données est-elle utilisée pour entraîner le LLM ?
“Discourse AI”, le plugin, est indépendant du fournisseur de modèle d’IA. Pour chaque fonctionnalité, vous pouvez choisir le fournisseur qui correspond le mieux à vos besoins, que ce soit en termes de confidentialité, de fonctionnalités, de tarification, etc.
Si vous utilisez, disons, AWS comme fournisseur d’IA, alors vous êtes soumis aux conditions d’utilisation d’AWS Bedrock concernant l’utilisation des données pour la formation, etc.
Connais-tu le fonctionnement de Google Gemini LLM ? Je suis principalement intéressé par les fonctionnalités de résumé, d’analyse de sentiment et de chatbot.
C’est quelque chose que vous devriez demander à Google.
Nous avons des dizaines de fonctionnalités dans Discourse AI, et elles enverront des données à votre fournisseur LLM préféré. Par exemple, la fonctionnalité de résumé enverra les publications du sujet et demandera un résumé. Si vos publications contiennent des données sensibles, celles-ci seront envoyées.
Nous enregistrons tout ce qui est envoyé à la base de données, vous pouvez donc l’auditer à tout moment.
Et si vous avez des exigences plus strictes en matière de localisation des données, vous pouvez héberger un LLM sur vos propres serveurs pour garder les données sous votre contrôle.