Ajuda com Discourse AI

Eu quero usar Discourse AI. Tenho algumas perguntas a respeito disso.
Que dados estão sendo utilizados pelo Discourse AI (e qualquer LLM como OpenAI ou Google LLM)? Eles incluem algum dado sensível?

Algum desses dados está sendo usado para treinar o LLM?

Obrigado pela ajuda!

“Discourse AI”, o plugin, é agnóstico em relação ao provedor de modelos de IA. Para cada recurso, você pode escolher o provedor que melhor atenda às suas necessidades, seja privacidade, conjunto de recursos, preços, etc.

Se você estiver usando, por exemplo, AWS como provedor de IA, então estará sujeito aos termos de serviço da AWS Bedrock relacionados ao uso de dados para treinamento, etc.

4 curtidas

Obrigado, Falco.

Você sabe como funciona o Google Gemini LLM? Estou mais interessado nos recursos de resumir, análise de sentimento e chatbot.

1 curtida

Funciona bem com o Gemini. Temos clientes usando.

1 curtida

Ótimo!

Você sabe sobre isso?

Que dados estão sendo utilizados pelo Google Gemini LLM? Inclui alguma dado sensível?

Alguma dessas informações está sendo usada para treinar o LLM?

Isso é algo que você precisaria perguntar ao Google.

Temos dezenas de recursos no Discourse AI, e eles enviarão dados para o seu provedor de LLM preferido. Por exemplo, o recurso de resumo enviará as postagens do tópico e solicitará um resumo. Se suas postagens contiverem dados sensíveis, isso será enviado.

Registramos tudo o que é enviado para o banco de dados, para que você possa auditá-lo a qualquer momento.

E se você tiver requisitos de localidade de dados mais rigorosos, pode executar um LLM em seus próprios servidores para manter os dados sob seu controle.

3 curtidas