インターンが、Discourse AI プラグインに接続された API エンドポイントを使用して、OpenAI を介して DigitalOcean に Discourse サイトをデプロイしました。サイトは正常に動作しています。インターンは HuggingFace TGI を検討することを提案しました。HuggingFace に関して、インターンが正しい方向に向かっているかどうかを確認するために、戦略的なガイダンスを提供したいと考えています。彼らはコスト削減のためにセルフホスト型の HuggingFace TGI を提案していると思われます。しかし、ホスティングの GPU コストを見ると、高価に思えます。
インターンに具体的なサービスとコストを提案するように依頼することもできますが、戦略的なガイダンスを提供したいと考えています。代替案として、インターンは OpenAI、Anthropic、Gemini のテストを続けることができます。
インターンにどのようなタスクを割り当てるべきか、アドバイスはありますか?
基本的な考え方は、Discourse の本番環境に Discourse AI を実装し、その後、顧客(コミュニティに資金を提供している人)に AI の維持と新機能のプロモーションのために追加のサービス料金を支払うように依頼することです。
インターンのタスク割り当てに関しては、Hugging Face Inference API を調べることもできます。これは OpenAI API を使用するよりも安いですか?
TGI をホストするために、Google Cloud、AWS、Azure の特定のサービスを使用している人はいますか?
例えば、AWS では g4dn.xlarge または g5.xlarge を検討すべきでしょうか?
GCP では、T4 GPU が推奨されるパスですか?
コストの計算方法について、何かアドバイスはありますか?