Conversation
|
这样如何? |
缺少对多模态输入的支持 |
计划应该是在调用时传入 ImageComponent,所以应该提前处理过了 |
|
一张图片调用了两次api的问题复现了 |
|
现在数据库里存的是图片url,处理完放缓存里面,如果处理失败或者获取不到缓存下次会重复处理。后续看看咋改 |
|
某处可能重复将收到的消息添加到数据库 |
|
|
LLM返回的nextTriggerCount不在配置的范围内时,不再选取配置的最大值或最小值了,且缺省值被设为了2,应为配置的最大值与最小值之间的随机数 |
|
config.Settings.SelfReport 没有作用 |
|
LLM返回的AT不是真AT了 |
考虑使用数据库获取id,而不是构造GroupMemberList |
|
如果AT对象没有进入过数据库,则无法获取到id |
|
LLM 似乎对 XML 格式生成的错误率更低? |
来自LangChain的文档
说明还是因不同的模型而异 而绝大部分模型都支持原生JSON输出,应该是对json有专门的优化 |
|
为什么这个配置项选择OpenAI的时候,UID配置项也会显示出来啊 |
|
图片带了重复的 |
|
另外,重复调用图片描述api的问题仍然存在(仅限第一张图片): |
|
所有的prompt都应该是可自定义的 |
之前不是吗🤔 |
|
之前也不是 |
|
记忆那部分不需要自定义,否则可能会破坏返回格式;而且用户估计也不知道怎么编写 其他的也是 |
|
需要。 |
|
@HydroGest 你的意见如何? |
|
提供一个合理的默认值。普通用户不用关心这个也没有关系,Pro用户则可以edit at their own risk |
我赞同👍 |
Changelog
h.parse()解析消息元素这是它的各参数释义:
其中, 包含
from_guild参数的消息来自群聊,包含from_private参数的消息来自私聊。待实现的功能
这位群友怎么老是慢半拍防提示词注入TODO
允许 LLM 一次返回多个回复,减少 API 调用次数