我可能——将会——想要这项服务,但我想到的论坛还处于早期阶段,还没有足够的数据来消化。
既然您在玩弄这项技术,您能告诉我们标签在训练人工智能方面扮演什么角色吗?我花费了大量精力来聚类我一个论坛的语料库,以生成可以用来分类和标记主题的标签。虽然分类效果很好,但由于涉及的术语数量庞大,实现标签存在问题。没有实际的方法可以展示所有这些术语。
我认为人工智能可以使用这些术语来改进其自身的结果。
我可能——将会——想要这项服务,但我想到的论坛还处于早期阶段,还没有足够的数据来消化。
既然您在玩弄这项技术,您能告诉我们标签在训练人工智能方面扮演什么角色吗?我花费了大量精力来聚类我一个论坛的语料库,以生成可以用来分类和标记主题的标签。虽然分类效果很好,但由于涉及的术语数量庞大,实现标签存在问题。没有实际的方法可以展示所有这些术语。
我认为人工智能可以使用这些术语来改进其自身的结果。
Discourse 目前没有任何模型训练。目前任何模块使用的所有模型都已训练完毕。
标签可能有助于为诸如标签建议和相关主题等功能提供提示的上下文,但目前两者均未使用。
嘿 @nodomain,
Discourse AI 现在会将嵌入式数据存储在我们用于所有其他数据的同一个数据库实例中。这样可以大大简化安装和维护,并且在您更新时,我们会自动从旧数据库导入嵌入式数据。之后,您就可以停用旧数据库了。
啊,这解释了我现在设置中遇到的问题:
I, [2023-07-18T09:29:11.218667 #1] INFO -- : > cd /var/www/discourse & su discourse -c 'bundle exec rake db:migrate'
------------------------------DISCOURSE AI ERROR----------------------------------
Discourse AI 需要 PostgreSQL 数据库上的 pgvector 扩展。
在标准安装上运行 `./launcher rebuild app` 来修复它。
或者,您可以删除 Discourse AI 来重建。
------------------------------DISCOURSE AI ERROR----------------------------------
我的数据库是 RDS Aurora serverless v2,因此无法使用 pgvector 扩展。有没有办法配置旧的行为?
自我回答:一种可行的方法可能是迁移到“非无服务器”的 Aurora 服务:What’s New at AWS – Cloud Innovation & News
尽管如此,我仍然对我的问题的答案感兴趣。
您是在将 serverless 用于主要的 Discourse 数据库还是仅用于嵌入数据库?Discourse AI 现在将嵌入存储在主数据库中,并要求在那里启用 pgvector 扩展。它在 RDS PostgreSQL 13.11 及更高版本上可用。我们在生产环境不使用 Aurora,只使用 RDS PostgreSQL,因此我只能向您推荐这个。
对我来说没问题,谢谢。
是的,主数据库现在是无服务器的。
那么 Amazon RDS PostgreSQL 是 Docker 发行版中提供的版本吗?
RDS 是来自 AWS 的 SaaS,无法打包到 Docker 镜像中。
Discourse AI 可与我们打包在 Docker 镜像中的 PostgreSQL 版本、Amazon RDS 或任何安装了该扩展的 PostgreSQL 实例配合使用。
您好 ![]()
我可以使用 Meta 的开源“Llama 2”来为我的用户推荐帖子吗?
有人有过使用此类工具的经验吗?
谢谢 ![]()
您是指推荐“相关主题”吗?如果是这样,目前还不行。还没有基于 Llama 2 的嵌入模型。
值得一提的是,我们提供的模型(一个开源模型和一个来自 OpenAI API 的模型)都非常出色,足以支持相关主题功能。
谢谢你的解释!
是否有 Docker 镜像的 git 仓库?
目前还没有,因为这需要我维护两个独立的仓库,一个用于应用程序代码,另一个用于构建镜像和推送到内部仓库的内部工具,而且我实在抽不出时间来正确设置它。
不过,API 代码在容器镜像中是可见的,即使这不是最好的查看方式,但至少所有代码都在那里。
有人能分享一下拥有普通访客的论坛的确切最低和推荐服务器要求吗?老实说,我想试试,但由于没有明确的服务器要求,我不知道从哪里开始。
您只需要尝试您认为合理的东西。16GB内存听起来是最低要求。
对于您的普通用户,我猜您会使用标准服务器。![]()
在我的论坛上,每天有 200-250 名在线用户,平均创建 300 篇帖子。所以不能算太多,我说的是标准。我明白你的意思,但我计划租用一台新服务器,因为我现在使用的云服务器不允许进行太多升级。感谢你的回答 ![]()
这很难回答。
例如,如果您只想使用嵌入,那么一个 $6 的 Droplet 在 CPU 上运行就足够了,并且可以访问“相似主题”功能。
现在,如果您想要 AIHelper 和 AIBot,您可以:
按次付费给 OpenAI,费用取决于您的使用量。
在您自己的服务器上运行开源 LLM 以保护隐私。像 Llama2-70B-Chat 这样的模型每月需要 10k ~ 25k 的服务器成本。
在按小时付费的服务中运行开源 LLM。您可以在 HuggingFace endpoints 上以每小时 6.50 美元的价格运行 Llama2 的量化版本,并且在没有请求 15 分钟后会自动休眠。
ML/Ops 领域发展迅速,GPU 极度稀缺,新模型每天都在发布。很难预测,我们都在进行实验。
感谢您详细的解释。那么,我将在每个步骤尝试使用一个插件。我想我会根据情况详细学习 ![]()
帖子已拆分为新主题:在 DigitalOcean 上实施 Discourse AI