Je veux installer Discourse AI sur Discourse

  1. Je souhaite installer Discourse AI sur Discourse. Laquelle des trois méthodes suivantes dois-je utiliser pour l’installer ?
    1-1. ajouter l’adresse du .git de Discourse AI à « nono » comme indiqué dans les instructions d’installation du plugin
    1-2. Discourse AI - Self-Hosted Guide Entrez les trois lignes de commandes « Docker » indiquées à cette adresse pour l’installer.
    *Dois-je entrer la commande dans le répertoire racine ?
    1-3. Dois-je faire les deux, 1-1. et 1-2. ?
  2. Quelles sont les spécifications minimales pour exécuter Discourse AI ?

Si je veux utiliser Toxic, NSFW et Sensitivity dans mon Discourse auto-hébergé, est-ce suffisant d’ajouter simplement ce lien GitHub - discourse/discourse-ai ?

Ou dois-je les installer avec les commandes Docker spécifiées dans le lien ci-dessous ?

Vous avez également besoin d’un LLM qui soit différent de ceux basés sur OpenAI et beaucoup plus cher. Ce plugin n’est qu’une sorte d’interface, rien de plus.

1 « J'aime »

Merci pour votre réponse, pourriez-vous s’il vous plaît élaborer un peu plus ?

Comme votre lien l’indique, le plugin AI just ne fait rien en soi. Il ne fournit que des paramètres. Vous avez besoin d’une IA aussi, auto-hébergée ou d’OpenAI.

Les modèles d’OpenAI ne fournissent pas les services que vous souhaitez, vous devez donc vous tourner vers l’auto-hébergement. Cela nécessite des compétences techniques, mais comme vous avez besoin d’un VPS assez grand, cela coûtera très cher.

Donc pour l’utiliser, je dois installer la commande ‘Docker’ du guide auto-hébergé dans le deuxième lien, pas seulement le plugin ? (Je suis auto-hébergé)

Quelque chose comme ça, mais beaucoup plus.

Si je vous comprends bien, cela signifie que vous avez besoin de plus que de simples plugins et de « Docker » ?

Oui, il vous faut de la vraie IA.

1 « J'aime »

En cas de doute, essayez d’abord tout en obtenant d’abord une clé d’OpenAI, puis abordez plus tard la tâche plus complexe de déploiement d’un moteur LLM local :

https://platform.openai.com/docs/overview

1 « J'aime »
  1. Si j’ai bien compris, pour pouvoir utiliser certaines API en auto-hébergement, il faut les installer à l’aide de commandes Docker, est-ce exact ?
    Par exemple, s’il s’agit d’une IA toxique, je devrais installer « docker run -it --rm --name detoxify -e BIND_HOST=0.0.0.0 -p6666:80 Package detoxify · GitHub ».
    1-1. Dans ce cas, est-il acceptable de laisser les valeurs des points de terminaison telles quelles ?
  2. « docker run -it --rm --name detoxify -e BIND_HOST=0.0.0.0 -p6666:80 Package detoxify · GitHub » Cette commande doit-elle être exécutée depuis le répertoire discourse ? Ou doit-elle être exécutée depuis le répertoire racine ?

Vous construisez uniquement une passerelle. Vous devez avoir l’IA elle-même quelque part. Et pour obtenir ce que vous voulez, vous voudrez probablement en héberger une vous-même. Et comme la demande est très élevée, vous allez lancer un VPS séparé et y installer cette IA.

Donc, si vous avez fait cela, vous devrez bien régler cette commande docker et vous serez prêt à partir.

Mais l’IA ne fait pas partie de docker ou de Discourse.

Peut-être devriez-vous faire ce que Robert a proposé et commencer par OpenAI. Et après cela, passer à autre chose à un moment donné.

Au fait, ces fonctionnalités que vous recherchez ne sont pas aussi fiables que vous pourriez le penser. Et coûtent au moins 60 USD par mois, peut-être que 300 USD est plus proche de la réalité.

2 « J'aime »

Merci pour votre réponse

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.