Skip to content

hflyzju/NLP-PaperWeekly-Summary

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 

Repository files navigation

微信公众号:NLP PaperWeekly

知乎:HxShine

CSDN:HxShine

类别 文章 日期
RAG UC Berkeley |RAFT: 对不相关的RAG检索结果进行建模 2024
RAG 百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路 2024
RAG kaggle大模型竞赛优胜方案总结与思考 2023
RAG LLM4CS:一种利用LLM提升多轮会话检索的效果的方案 2024
COT GOOGLE | COT(chain of thought)开山之作,利用思维链提升复杂问题推理能力 2023
COT Google | HtT: 大模型通过学习推理规则改善幻觉现象 2023
推理能力优化 Self-Consistency: Google超简单方法改善大模型推理能力 2023
ICL GOOGLE:只有大模型才能理解你举的例子(In-context learning)是什么 2023
ICL ACL2023 : 预训练模型能否对新注入的知识进行推理 2023
ICL ACL2023 | Self-Adaptive ICL: 完蛋!我被高质量示例包围了! 2024
LLM技术报告 Gemini技术报告解读 2023
LLM技术报告 LLama1技术报告解读 2023
LLM技术报告 Meta开源之光LLama2是如何追上ChatGPT的? 2023
模型蒸馏 ACL2023 |小模型也能一步步“思考” 2023
SFT数据构建 ACL2023 | 大模型如何快速构建指令遵循数据集?Self-Instruct:只需175条种子数据追上InstructGPT 2023
SFT数据构建 指令回译:如何从大量无标签文档挖掘高质量大模型训练数据? 2023
SFT微调 清华p-tuning解决GPT系列模型fine-tuning效果比BERT差问题 2023
SFT微调 chatglm微调神器P-Tuning v2论文学习 2023
SFT微调 微软 LoRA: 使用万分之一的参数微调你的GPT3模型 2023
SFT微调 ACL2022 | 大模型微调哪家好?小孩子才做选择,成年人当然是全都要 2023
SFT微调 QLoRA | 48G内存训练24小时,微调650亿参数模型(4-bit)达到chatgpt99.3%的效果 2023
LLM落地方案 ChatLaw:北大凭什么以13B的基座模型击败恐怖如斯的GPT4? 2023
Reward Model训练 OpenAI | Let’s Verify Step by Step详细解读 2023
Agent TOT(Tree of Thought) | 让GPT-4像人类一样思考 2023
Agent ReAct:首次结合Thought和Action提升大模型解决问题的能力 2023
Agent 多agent思想显著提升小模型工具调用能力 2024
Agent数据构建 ACL2023 | WebCPM:清华发布中文LFQA 数据集,探索搜索引擎和PLM大模型结合新范式 2023
多轮对话 LLM4CS:一种利用LLM提升多轮会话检索的效果的方案 2024
LLM数据合成 EMNLP 2023|利用LLM合成数据训练模型有哪些坑? 2024
LLM数据合成 PromptMix: 一种有效的混合数据增强策略将LLM能力迁移到小模型 2023
数据工程 符尧:仅靠数据工程我能将LLM的上下文检索能力拓展到128K 2024
数据工程 符尧:别卷大模型训练了,来卷数据吧!【干货十足】 2023
提示词压缩 LLMLingua|您有一份prompt压缩20倍的方案请查收 2023
提示词压缩 Microsoft | GPT-4 API太贵了,微软提出省钱大法 2023
Sora Latte,开源版视频Diffusion Transformer 2024
Sora 结合OpenAI Sora技术报告来看其能力和技术点 2024
LLM知识抽取 复旦发布InstructUIE提升大模型信息抽取能力 2023
NER EMNLP 2023 TadNER: few-shot Named Entity Recognition 2023
embedding模型 Microsoft | 利用LLM本身训练SoTA embedding模型 2023
LLM知识注入 emnlp 2022:如何将本地图谱知识引入到任务型对话系统中 2023
LLM+小模型融合 把local小模型当作大语言模型的插件? 2023

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published