¿Cómo prevenir que el contenido de la comunidad se utilice para entrenar LLMs como ChatGPT?

OK, estamos pensando lo mismo.

Veo dos respuestas que realmente me asustaron y no quiero pagar, pero tarde o temprano podría ser obligatorio para el que trabaja.

(No di mi número de tarjeta de crédito y siempre uso todo temporalmente, al menos para mantenerme un poco fuera del radar)

Pero la gente está pagando y saltó a 4 y 10 veces, luego a 100 veces, 24 dólares al día. Trabajo directamente en mercados y eso es surrealista.



Normalmente no uso este dispositivo para buscar en la web (elijo captchas para un par de grandes empresas) porque me siento más seguro y privado navegando en Linux. Sospecho que alguien podría pensar de manera similar y respeto si ese no es tu caso.

El código abierto también está controlado de alguna manera, podría sonar un poco neurótico o algo así, pero prefiero las conversaciones humanas en nuestra comunidad y estamos discutiendo límites y tal vez usando los métodos para bloquear algo que nadie sabe dónde puede detenerse.

La alucinación fue inyectada, la gente se está clonando a sí misma. Eso podría romper la información y propagar mucho control en una unión.

Quizás estamos en un buen momento para discutir sobre límites, valores, privacidad. No censurar, presentar quejas o evitar una buena discusión.

Si estamos de acuerdo en este tema, debería compartir mis puntos e investigar a fondo mis puntos no sólidos pero reales.

¿Es posible una IA sin OpenAI (no abierta) y una mejor herramienta para las comunidades?

Por favor, muévelo si consideras que es OP, o fusiona si quieres.