Hilfe mit Discourse AI

Ich möchte Discourse AI verwenden. Ich habe einige Fragen dazu.
Welche Daten werden von Discourse AI (und jedem LLM wie OpenAI oder Google LLM) genutzt? Sind darin sensible Daten enthalten?

Werden irgendwelche dieser Daten verwendet, um das LLM zu trainieren?

Vielen Dank für die Hilfe!

„Discourse AI“, das Plugin, ist unabh��ngig vom Anbieter des KI-Modells. Für jede Funktion können Sie den Anbieter wählen, der am besten zu Ihren Bedürfnissen passt, sei es Datenschutz, Funktionsumfang, Preisgestaltung usw.

Wenn Sie beispielsweise AWS als KI-Anbieter verwenden, unterliegen Sie den AWS Bedrock Nutzungsbedingungen hinsichtlich der Verwendung der Daten für Trainingszwecke usw.

4 „Gefällt mir“

Danke, Falco.

Weißt du, wie Google Gemini LLM funktioniert? Ich bin am meisten an den Funktionen Zusammenfassung, Stimmungserkennung und Chatbot interessiert.

1 „Gefällt mir“

Es funktioniert gut mit Gemini. Wir haben Kunden, die es nutzen.

1 „Gefällt mir“

Oh großartig!

Würdest du etwas darüber wissen?

Welche Daten werden von Google Gemini LLM verwendet? Enthalten sie sensible Daten?

Wird irgendeines dieser Daten verwendet, um das LLM zu trainieren?

Das müsstest du Google fragen.

Wir haben Dutzende von Funktionen in Discourse AI, und sie senden Daten an deinen bevorzugten LLM-Anbieter. Die Funktion „Zusammenfassen“ sendet beispielsweise die Beiträge des Themas und bittet um eine Zusammenfassung. Wenn deine Beiträge sensible Daten enthalten, werden diese gesendet.

Wir protokollieren alles, was an die Datenbank gesendet wird, sodass du es jederzeit überprüfen kannst.

Und wenn du strengere Anforderungen an die Datenlokalität hast, kannst du ein LLM auf deinen eigenen Servern ausführen, um die Daten unter deiner Kontrolle zu behalten.

3 „Gefällt mir“