Como isso surgiu novamente:
-
Estou usando, mas estou vigiando os custos como um falcão. Minha maior preocupação é o uso descontrolado de tokens, pelo menos até que eu possa executar as coisas por tempo suficiente para ter uma noção de qual deveria ser meu uso médio de tokens. A capacidade de definir limites de custo é boa, mas não me sentirei pessoalmente confortável até que eu saiba qual é o uso normal da comunidade, e isso leva tempo.
-
Questões de confiança do usuário são enormes. Não importa qual mensagem eu prepare ou o que eu diga como administrador do site — há uma percepção inabalável de que LLMs usam conteúdo gerado pelo usuário para treinamento e que qualquer uso pelo sistema Discourse significa “vender” dados do usuário sem “permissão”. Este é um problema que, na minha experiência, é sistêmico entre muitos comentaristas e é impossível de abalar, porque as pessoas “sabem” o que as empresas de IA estão “realmente fazendo”. Habilitar a triagem baseada em IA em um fórum e dizer que você está fazendo isso significa potencialmente enfrentar um dilúvio de reclamações do tipo “EU NÃO CONSINTO QUE VOCÊ ENVIE MEUS DADOS PARA ALGUMA EMPRESA DE TECNOLOGIA DE IA PARA QUE ELES GANHEM DINHEIRO COM MINHAS PALAVRAS!”. Nem todo mundo se preocupa com esse tipo de coisa, mas as pessoas que se preocupam estão furiosas e, ao mesmo tempo, totalmente desinteressadas em discussão. Não tenho uma boa resposta aqui.
-
Sinto-me um tanto desconfortável em colocar o estado da detecção de spam do meu fórum em como uma dúzia de empresas diferentes se sentem em qualquer momento específico. Vamos ser honestos aqui: detecção de spam por IA, triagem por IA e todos os outros recursos de IA são basicamente nós dizendo “Ei, vamos apenas tornar isso um problema da IA” e, em seguida, tentando codificar o que queremos que ela faça por meio de engenharia de prompt. Funciona, mas o processo é irritantemente não determinístico. Você basicamente tem que torcer para que as coisas continuem funcionando como estão funcionando. Eu não gosto disso. Eu não gosto disso nem um pouco, e isso me causa ansiedade. Gosto que minhas ferramentas sejam adequadamente determinísticas. LLMs são o oposto polar de determinísticos, e estamos confiando parte da funcionalidade do fórum em qualquer coisa que a OpenAI et al decidam nos enviar.
Dito isso, estou usando tanto o antispam de IA quanto a triagem de fórum de IA. É útil. Mas tento permanecer ciente do fato de que essas soluções devem ser continuamente monitoradas quanto à eficácia.