¿Soporte del proveedor de DeepSeek? ¿Qué hacer cuando el proveedor del modelo no está en la lista "Provider"?

¡Hola! Me alegra ayudar :slight_smile:

A día de hoy, estos son los costes de menor a mayor, por 1 millón de tokens:
Gemini 1.5 Flash
Entrada: $0.075
Salida: $0.30

Claude 3.5 Haiku
Entrada: $0.80
Salida: $4.00

Claude 3.5 Sonnet
Entrada: $3.00
Salida: $15.00

GPT-4o
Entrada: $2.50
Salida: $10.00

DeepSeek-R1
Entrada: $0.55
Salida: $2.19

Los precios de los tokens aquí no tienen en cuenta el caché de prompts, que puede reducir drásticamente los costes. Además, la comunidad de IA parece informar consistentemente que Claude 3.5 Sonnet produce código de forma más consistente que los modelos de OpenAI, aunque creo que a menudo van y vienen en su calidad.

No obstante, DeepSeek-R1 es el claro ganador aquí, ya que no solo ofrece la mejor relación calidad-precio, sino la mejor en general. La tabla de clasificación de Chatbot Arena también lo respalda, ya que se clasifica por encima de o1:

Ayer DeepSeek sufrió un fuerte ciberataque, lo que probablemente provocó que su API no funcionara, pero lo he probado de nuevo y ahora funciona. He abierto un tema sobre ese problema también

En cuanto a la privacidad, DeepSeek indica claramente en su política que los datos se almacenan en China (lo que incumple completamente la ley de la UE, por ejemplo), y no es ningún secreto que el PCCh tiene acceso a todos los datos de las empresas en China. Pero si todos son datos públicos, ¿a quién le importa realmente, ya que tu sitio podría ser rastreado/minado teóricamente de todos modos?

Afortunadamente, este modelo es de código abierto y los proveedores de LLM son conscientes de ello. Por ejemplo, fireworks.ai ya ofrece este modelo, aunque creo que están especulando con el precio, a $8.00 de entrada / $8.00 de salida. Por lo tanto, la API de DeepSeek es ciertamente económica.


En mi comunidad, utilizo GPT-4o-mini con RAG (se le obliga a leer un tema relevante antes de responder para proporcionar una respuesta más factual/útil) y una ingeniería de prompts estricta. Aún no me ha fallado y es muy barato a $0.15 de entrada / $0.60 de salida. Sin embargo, no me fiaría mucho de él para codificar; eso sin duda se lo dejo a o1-mini o DeepSeek-R1. Normalmente, entre 1/3 y 1/2 de todos los tokens utilizados en mi comunidad se almacenan en caché (lo que se puede ver en /admin/plugins/discourse-ai/ai-usage), lo que reduce aún más mis costes, ya que los tokens en caché son un 50% más baratos.

Por lo tanto, si mi comunidad utiliza 2 millones de tokens de entrada y 100.000 tokens de salida cada día, mis costes aproximados son:
Coste diario de entrada: ~$0.22
Coste diario de salida: ~$0.06
…multiplicado por 30 días = ~$6.60 de entrada y ~$1.8 de salida = $8.40 al mes.

Eso ni siquiera es dinero para un almuerzo.

4 Me gusta