Qu'est-ce qui vous empêche d'essayer Discourse AI ?

Puisque cela refait surface :

  1. Je l’utilise, mais je surveille les coûts de près. Ma plus grande préoccupation est l’utilisation incontrôlée des jetons, du moins jusqu’à ce que je puisse exécuter les choses assez longtemps pour avoir une idée de mon utilisation moyenne de jetons. La possibilité de fixer des limites de coûts est bonne, mais je ne me sentirai pas personnellement à l’aise tant que je ne saurai pas quelle est l’utilisation moyenne de la communauté, et cela prend du temps.

  2. Les problèmes de confiance des utilisateurs sont énormes. Peu importe les messages que je prépare ou ce que je dis en tant qu’administrateur du site, il y a une perception inébranlable que les LLM utilisent le contenu généré par les utilisateurs pour l’entraînement et que toute utilisation par le système Discourse signifie “vendre” des données utilisateur sans “permission”. C’est un problème qui, selon mon expérience, est systémique chez de nombreux commentateurs et impossible à éradiquer, car les gens “savent” ce que les entreprises d’IA “font réellement”. Permettre le triage basé sur l’IA sur un forum et dire que vous le faites signifie potentiellement faire face à un déluge de plaintes du type “JE NE CONSENS PAS À CE QUE VOUS ENVOYIEZ MES DONNÉES À UNE SOCIÉTÉ DE TECHBRO IA POUR QU’ILS GAGNENT DE L’ARGENT AVEC MES MOTS !”. Tout le monde ne s’inquiète pas de ce genre de choses, mais ceux qui s’en inquiètent sont furieux tout en étant totalement désintéressés par la discussion. Je n’ai pas de bonne réponse ici.

  3. Je suis quelque peu mal à l’aise à placer l’état de la détection de spam de mon forum sur la façon dont une douzaine de modèles de différentes entreprises se sentent à un moment donné. Soyons honnêtes ici : la détection de spam par IA, le triage par IA et toutes les autres fonctionnalités d’IA consistent essentiellement à dire “Hé, faisons-en le problème de l’IA” et à essayer ensuite de codifier ce que nous voulons qu’elle fasse via l’ingénierie de prompt. Cela fonctionne, mais le processus est agaçamment non déterministe. Vous devez essentiellement espérer que les choses continuent de fonctionner comme elles fonctionnent. Je n’aime pas ça. Je n’aime pas ça du tout, et cela me rend anxieux. J’aime que mes outils soient correctement déterministes. Les LLM sont le polaire opposé de déterministe, et nous dépendons d’une partie de la fonctionnalité du forum de ce qu’OpenAI et al décident de nous lancer.

Cela dit, j’utilise à la fois l’anti-spam par IA et le triage de forum par IA. C’est utile. Mais j’essaie de rester conscient du fait que ces solutions doivent être continuellement surveillées pour leur efficacité.

2 « J'aime »