OpenAI 论坛正因用户不正确格式化代码的数量而苦苦挣扎。一位社区的常客在休息室提出了这个问题。
已经有可能发布人工智能解释、更改时间、校对……当然,这些都不会在已发布的文本上完全正确地发生,但仍然可以。这只是同一原理的修改 ![]()
一个插件,允许一个组在选定区域前后添加三个勾号。
我自己会尝试一下,但它是托管的。
嗯……无法安装插件。
我们可以创建一个自动化工具来完成这项工作
比如,如果你有 8/10 的置信度认为源代码需要格式化,就直接进行格式化
还有一个主题组件,可以要求人们格式化代码,我们可以安装它
我们有很多人似乎是编程新手,其中一些人付出了很大的努力。
有时是一些小事,比如用户忘记(或不知道如何)设置语言
<hello>
<hello>
有时他们粘贴的代码包含反引号,结果没有正确转义,所以我想他们就放弃了(我现在找不到我想到的例子)
在这些情况下,这可能不是非常有帮助,IMO 新用户上手应该尽可能容易(它可能已经够让人不知所措了)
给高级用户一个按钮的想法是为了控制推理成本/使用更强大的模型,如果这是一个问题或担忧的话。
总之,感谢您的考虑!
我们可以很容易地做的一件有趣的事情是允许某些群组访问帖子上的某些“AI 助手”功能。
然后,我们可以在此处添加一个“AI 助手”任务,并将其解锁给您论坛上的 TL3 用户。
这可以很好地工作,但缺点是它必须生成大量 token,因此可能会非常慢。
理想情况下,我们需要教助手使用“diffs”进行交易,这样在源代码量很大的情况下,它可以生成显著更少的 token。
嗯。OpenAI 有一个“预测输出”功能,我认为它非常适合此用例:
(我怀疑他们的 Canvas 工具就是这样工作的)
我承认这目前可能有点特定于 OpenAI,但毫无疑问其他人也会效仿。
并非如此,我已对其进行测试,结果发现它价格昂贵且远非完美:
我认为基于“差异”的方法最有希望成功。
类似这样的东西可能有效(JSON 输出查找标记) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta
这太不幸了。我看到您已与 OpenAI 分享了您的反馈
。这确实看起来像是一个不成熟的功能,还没有达到宣传的效果(咳嗽)。
我们可以通过用户画像分类和自定义工具来实现类似的功能
用户画像分类(gpt 4o mini)→ 自定义工具 → LLM 进行修复(gpt 4o)→ API 提交编辑
然而,挑战在于我们有多大程度上可以放心地让 LLM 在零幻觉的情况下应用编辑?
一种可能性是让 LLM 修复调用返回 2 个行号(代码开始和结束的位置),然后利用这些信息添加反引号,这样破坏的风险就会小得多。
我会再仔细考虑一下,但我确实认为这里有一些可行的方案。
