我需要从我本地的接近上百篇 pdf 文献中整理一下 文献综述,用 kimi 不太行,coze 能整理,但是让他提供来自哪一篇文献实现不了。不知道各位大佬有没有遇到过这样的工具呀
5 个赞
帮顶
上百篇还是自己用大脑处理吧,没有能容纳这么多token的模型。或者也可以换个思路,一次只整理几篇,然后全部整理完之后用Excel汇总,再把汇总的内容丢给gpt或者kimi处理
1 个赞
思路:模型分开总结pdf,将总结完的各个pdf的内容丢进去跑出文献综述。
1 个赞
scholarai试试
嗯嗯
有道理可以试试
嗯嗯,有没有推荐的总结文章的指令呀
谢谢 我去看看
同求,期待
帮忙顶一下
知网好像本身就有
你这数量有点多,用讯飞星火新出的个人空间试试
搞过类似的,本质上应该算RAG其实,langchain做的,当时是全部文本化,然后切片,我是论段切,但是你段太长的话最好再优化一下,包括也做了一些trick,从结构化数据里提关键词啥的,找个embedding模型,所有的文本片段去嵌入掉,用的时候给llm一个初始的问题啥的,让他生成关键词/句,用他retriever去查就行,就是数据库性能优化问题大,你如果是一次性可以不做那么多工程化的东西,手动再优化一下关键词句,召回可能比较菜,但是准确还是可以的,完事儿了你搜出来的结构化数据直接丢给llm就可以,他都懂基本上,包括你说哪一篇文献也是可以实现的,db塞切片的时候顺手把文章来源塞进去就行,给llm一个prompt让他记得引用就好
4 个赞
建议用claude3 opus辅助你的综述论文写作,用过claude3 opus写作的都说好。
1 个赞
嗯呢 谢谢
谢谢大佬热心回复
这个好难上呀 ![]()
