宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
欢迎订阅
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
分类
标签
归档
上网导航
1
2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破
2
强化学习详解第三部分:蒙特卡洛与时间差分学习,从经验中学习
3
万字解析非结构化文档中的隐藏价值:多模态检索增强生成(RAG)的前景
4
2W8000字深度剖析25种RAG变体
5
深度解析创新RAG:PIKE-RAG与DeepRAG,RAG技术的创新变革
登录
柏企
吹灭读书灯,一身都是月
累计撰写
101
篇文章
累计创建
16
个分类
累计收获
168
个点赞
导航
宇宙
生活
随笔
大模型
RAG
强化学习
Agent
LLM架构
论文
论文速递
机器学习
多模态
基础模型
理论基础
欢迎订阅
开源
大模型
强化学习
Agent
LLM架构
论文
机器学习
多模态
基础模型
分类
标签
归档
上网导航
目录
分类
大模型
特定领域嵌入模型微调指南
特定领域嵌入模型微调:从理论到实践 在这篇文章中,我们将深入探讨针对特定领域(如医学、法律或金融)微调嵌入模型的过程。我们会专门为目标领域生成数据集,并利用它来训练模型,使其更好地理解所选领域内微妙的语言模式和概念。最终,你将拥有一个针对特定领域优化的更强大的嵌入模型,从而在 NLP 任务中实现更准
2025-04-09 17:26
17
0
1
27.7℃
LLM架构
利用 vLLM 手撸一个多模态RAG系统
利用 vLLM 实现多模态RAG 系统 本文将深入探讨如何使用 vLLM 构建多模态信息检索与生成(Multimodal RAG)系统,以实现对包含文本、图像和表格的文档的有效处理和智能问答。 如果您想了解更多关于自然语言处理或其他技术领域的信息,请关注我们的公众号 柏企阅文。 一、多模态 RAG
2025-04-09 17:22
13
0
1
27.3℃
LLM架构
如何在企业中实现知识图谱和大模型 (LLM)互通
知识图谱(KG)与大型语言模型(LLM):企业数据赋能的强强联合 数据如同企业的生命线,而如何高效地利用数据则成为了企业发展的关键。大型语言模型(LLM)和知识图谱(KG)作为两种强大的数据处理工具,正逐渐改变着企业的运营模式。今天,我们就来深入探讨一下它们在企业中的应用以及如何协同工作,为企业带来
2025-04-09 17:17
8
0
1
26.8℃
LLM架构
使用 Docling、Groq、Ollama 和 GLIDER 评估构建高级 RAG 管道
2025-04-09 17:00
7
0
1
26.7℃
RAG
探秘 GraphRAG:知识图谱赋能的检索增强生成技术新突破
2025-04-09 16:48
17
0
1
27.7℃
RAG
探索 AI 智能体工作流设计模式
《探索 AI 智能体工作流设计模式》 欢迎关注公众号 柏企阅文 由大语言模型(LLM)驱动的智能体是利用 LLM 进行问题推理、制定可行计划并使用一组工具执行这些计划的系统。简单来说,这些智能体融合了高级推理能力、记忆力和任务执行能力。 基于 LLM 的 AI 智能体工作流设计模式自 2022 年末
2025-04-09 13:19
23
0
4
34.3℃
Agent
AI Agent 架构新变革:Plan-and-Execute 引领智能新潮流
AI Agent 架构新变革:Plan-and-Execute 引领智能新潮流 AI Agent 的发展一直备受瞩目。今天,我们就来深入探讨一种全新的架构——Plan-and-Execute,它正悄然改变着 AI Agent 解决复杂任务的方式。 传统 ReAct 架构的困境 曾经,ReAct(推理
2025-04-09 13:09
7
0
0
24.7℃
Agent
RAG完整指南
解锁 RAG 技术:企业数据与大模型的完美融合之道 为什么需要 RAG? 我们可以使用像 ChatGPT 这样的大语言模型(LLM)来创建星座运势等内容,或者应用于工作等更实际的场景。然而,问题在于企业通常拥有大量的文档、规则、条例等信息,而 ChatGPT 对此一无所知。 此时有两种选择:一是用企
2025-04-09 13:03
10
0
0
25.0℃
RAG
探索大型语言模型新架构:从 MoE 到 MoA
探索大型语言模型新架构:从 MoE 到 MoA 当前,商业科技公司纷纷投身于一场激烈的竞赛,不断扩大语言模型的规模,并为其注入海量的高质量数据,试图逐步提升模型的准确性。然而,这种看似顺理成章的发展路径逐渐暴露出诸多内在局限。一方面,高质量数据的获取并非易事;另一方面,计算能力的瓶颈以及在普通用户硬
2025-04-09 12:58
15
0
3
31.5℃
LLM架构
专家混合(MoE)大语言模型:免费的嵌入模型新宠
专家混合(MoE)大语言模型:免费的嵌入模型新宠 今天,我们深入探讨一种备受瞩目的架构——专家混合(Mixture-of-Experts,MoE)大语言模型,它在嵌入模型领域展现出了独特的魅力。 一、MoE 架构揭秘 (一)MoE 是什么? MoE 是一种包含多个被称为“专家”子网的架构,每个子网专
2025-04-09 12:51
13
0
2
29.3℃
LLM架构
上一页
下一页
1
2
3
4
5
6
7
8
弹