- Je souhaite installer Discourse AI sur Discourse. Laquelle des trois méthodes suivantes dois-je utiliser pour l’installer ?
1-1. ajouter l’adresse du.gitde Discourse AI à « nono » comme indiqué dans les instructions d’installation du plugin
1-2. Discourse AI - Self-Hosted Guide Entrez les trois lignes de commandes « Docker » indiquées à cette adresse pour l’installer.
*Dois-je entrer la commande dans le répertoire racine ?
1-3. Dois-je faire les deux, 1-1. et 1-2. ? - Quelles sont les spécifications minimales pour exécuter Discourse AI ?
Si je veux utiliser Toxic, NSFW et Sensitivity dans mon Discourse auto-hébergé, est-ce suffisant d’ajouter simplement ce lien GitHub - discourse/discourse-ai ?
Ou dois-je les installer avec les commandes Docker spécifiées dans le lien ci-dessous ?
Vous avez également besoin d’un LLM qui soit différent de ceux basés sur OpenAI et beaucoup plus cher. Ce plugin n’est qu’une sorte d’interface, rien de plus.
Merci pour votre réponse, pourriez-vous s’il vous plaît élaborer un peu plus ?
Comme votre lien l’indique, le plugin AI just ne fait rien en soi. Il ne fournit que des paramètres. Vous avez besoin d’une IA aussi, auto-hébergée ou d’OpenAI.
Les modèles d’OpenAI ne fournissent pas les services que vous souhaitez, vous devez donc vous tourner vers l’auto-hébergement. Cela nécessite des compétences techniques, mais comme vous avez besoin d’un VPS assez grand, cela coûtera très cher.
Donc pour l’utiliser, je dois installer la commande ‘Docker’ du guide auto-hébergé dans le deuxième lien, pas seulement le plugin ? (Je suis auto-hébergé)
Quelque chose comme ça, mais beaucoup plus.
Si je vous comprends bien, cela signifie que vous avez besoin de plus que de simples plugins et de « Docker » ?
Oui, il vous faut de la vraie IA.
En cas de doute, essayez d’abord tout en obtenant d’abord une clé d’OpenAI, puis abordez plus tard la tâche plus complexe de déploiement d’un moteur LLM local :
- Si j’ai bien compris, pour pouvoir utiliser certaines API en auto-hébergement, il faut les installer à l’aide de commandes Docker, est-ce exact ?
Par exemple, s’il s’agit d’une IA toxique, je devrais installer « docker run -it --rm --name detoxify -e BIND_HOST=0.0.0.0 -p6666:80 Package detoxify · GitHub ».
1-1. Dans ce cas, est-il acceptable de laisser les valeurs des points de terminaison telles quelles ? - « docker run -it --rm --name detoxify -e BIND_HOST=0.0.0.0 -p6666:80 Package detoxify · GitHub » Cette commande doit-elle être exécutée depuis le répertoire discourse ? Ou doit-elle être exécutée depuis le répertoire racine ?
Vous construisez uniquement une passerelle. Vous devez avoir l’IA elle-même quelque part. Et pour obtenir ce que vous voulez, vous voudrez probablement en héberger une vous-même. Et comme la demande est très élevée, vous allez lancer un VPS séparé et y installer cette IA.
Donc, si vous avez fait cela, vous devrez bien régler cette commande docker et vous serez prêt à partir.
Mais l’IA ne fait pas partie de docker ou de Discourse.
Peut-être devriez-vous faire ce que Robert a proposé et commencer par OpenAI. Et après cela, passer à autre chose à un moment donné.
Au fait, ces fonctionnalités que vous recherchez ne sont pas aussi fiables que vous pourriez le penser. Et coûtent au moins 60 USD par mois, peut-être que 300 USD est plus proche de la réalité.
Merci pour votre réponse
This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.