Ayuda con Discourse AI

Quiero usar Discourse AI. Tengo algunas preguntas al respecto.
¿Qué datos se están utilizando con Discourse AI (y cualquier LLM como OpenAI o Google LLM)? ¿Incluye datos sensibles?

¿Se está usando alguno de estos datos para entrenar el LLM?

¡Gracias por la ayuda!

“Discourse AI”, el complemento, es independiente del proveedor del modelo de IA. Para cada función, puedes elegir el proveedor que mejor se adapte a tus necesidades, ya sea en cuanto a privacidad, conjunto de funciones, precios, etc.

Si estás usando, por ejemplo, AWS como proveedor de IA, entonces estás sujeto a los términos de servicio de AWS Bedrock en relación con los datos utilizados para entrenamiento, etc.

4 Me gusta

Gracias, Falco.

¿Sabes cómo funciona con Google Gemini LLM? Estoy más interesado en las funciones de resumir, sentimientos y chatbot.

1 me gusta

Funciona bien con Gemini. Tenemos clientes que lo utilizan.

1 me gusta

¡Qué bien!

¿Sabes algo sobre esto?

¿Qué datos está utilizando Google Gemini LLM? ¿Incluye datos sensibles?

¿Se está usando alguno de estos datos para entrenar el LLM?

Esto es algo que tendrías que preguntarle a Google.

Tenemos docenas de funciones en Discourse AI, y enviarán datos a tu proveedor de LLM preferido. Por ejemplo, la función de resumen enviará las publicaciones del tema y pedirá un resumen. Si tus publicaciones contienen datos sensibles, eso se enviará.

Registramos todo lo que se envía a la base de datos, por lo que puedes auditarlo en cualquier momento.

Y si tienes requisitos más estrictos de localización de datos, puedes ejecutar un LLM en tus propios servidores para mantener los datos bajo tu control.

3 Me gusta