Aide avec Discourse AI

Je souhaite utiliser Discourse AI. J’ai quelques questions à ce sujet.
Quelles données sont utilisées par Discourse AI (ainsi que par tout LLM comme OpenAI ou Google LLM) ? Inclut-elle des données sensibles ?

Une partie de ces données est-elle utilisée pour entraîner le LLM ?

Merci pour votre aide !

“Discourse AI”, le plugin, est indépendant du fournisseur de modèle d’IA. Pour chaque fonctionnalité, vous pouvez choisir le fournisseur qui correspond le mieux à vos besoins, que ce soit en termes de confidentialité, de fonctionnalités, de tarification, etc.

Si vous utilisez, disons, AWS comme fournisseur d’IA, alors vous êtes soumis aux conditions d’utilisation d’AWS Bedrock concernant l’utilisation des données pour la formation, etc.

4 « J'aime »

Merci, Falco.

Connais-tu le fonctionnement de Google Gemini LLM ? Je suis principalement intéressé par les fonctionnalités de résumé, d’analyse de sentiment et de chatbot.

1 « J'aime »

Cela fonctionne bien avec Gemini. Nous avons des clients qui l’utilisent.

1 « J'aime »

Oh super !

Connaîtrais-tu cela ?

Quelles données sont utilisées par Google Gemini LLM ? Inclut-elles des données sensibles ?

Certaines de ces données sont-elles utilisées pour entraîner le LLM ?

C’est quelque chose que vous devriez demander à Google.

Nous avons des dizaines de fonctionnalités dans Discourse AI, et elles enverront des données à votre fournisseur LLM préféré. Par exemple, la fonctionnalité de résumé enverra les publications du sujet et demandera un résumé. Si vos publications contiennent des données sensibles, celles-ci seront envoyées.

Nous enregistrons tout ce qui est envoyé à la base de données, vous pouvez donc l’auditer à tout moment.

Et si vous avez des exigences plus strictes en matière de localisation des données, vous pouvez héberger un LLM sur vos propres serveurs pour garder les données sous votre contrôle.

3 « J'aime »