关于使用外部资源,您也可以选择在本地运行您的人工智能语言模型(LLM):
但是您为某个项目做过这件事吗?
这需要您拥有或租赁特别令人印象深刻的硬件!
尝试自己运行一些小型语言模型(您可能会考虑托管的),看看您有多么印象深刻:
您的体验可能会有所不同,但依我之见,您至少需要托管一个拥有 700 亿参数的模型,这在本地托管的成本会相当高。
供参考,GPT 3.5 据说是一个拥有 1750 亿参数的模型,而 GPT 4 拥有近 2 万亿参数(他们是这么说的):
我编写了这个插件:
它有一个人工智能标记功能。根据我的经验,您需要 GPT 4 Turbo 才能使其正常工作(而且它确实效果很好!)。
如果您打算本地托管像这些一样强大的模型,您将需要非常雄厚的财力。
这就是为什么使用外部人工智能语言模型 API 仍然是一个有吸引力的、按需付费的选项,特别是因为您只需为实际使用的调用付费,而不是为昂贵且有闲置时间的基础设施付费。
当然,如果隐私是主要且足够重要的考虑因素,这可能会改变计算方式。
5 个赞