置顶

全网最全的神经网络数学原理(代码和公式)直观解释 全网最全

2025-04-13

置顶

深度剖析L1与L2正则化:机器学习的关键策略

2025-04-03

置顶

深度解析创新RAG:PIKE-RAG与DeepRAG,RAG技术的创新变革

2025-04-03

置顶

2W8000字读懂GPT全家桶:从GPT-1到O1的技术演进与突破

2025-03-25

强化学习详解第八部分 RLAIF 如何实现人工智能反馈的规模化飞跃

超越人类极限的规模对齐 在我们之前的文章中,我们探讨了人类反馈强化学习(RLHF)是如何通过使用人类评估来教导模型我们的偏好,从而彻底改变了人工智能对齐的方式。 但 RLHF 存在一个令人困扰的局限性,你可能已经猜到了:“人类”。 别误会我的意思 —— 人类反馈是无价的。 但它也很昂贵、缓慢,并且在

强化学习详解第七部分 RLHF:解码 AI 与人类偏好对齐的奥秘

|文末点击阅读原文查看网页版| 更多专栏文章点击查看: LLM 架构专栏

牛津大学提出 NoProp : 不再需要反向传播来训练神经网络

深入研究 “NoProp” 算法,无需前向传递和反向传播来训练神经网络,并从头开始学习编码。 论文 NoProp: Training Neural Networks without Back-propagation or Forward-propagation 您不再需要反向传播来训练神经网络 反向

清华大学| 强化学习是否激励LLM中超越基本模型的推理能力?

|文末点击阅读原文查看网页版| 更多专栏文章点击查看: LLM 架构专栏

论文速递 基于聚类的迭代数据混合引导:优化数据混合以预训练大语言模型(LLM)的框架

论文:https://arxiv.org/abs/2504.13161 数据集: https://huggingface.co/datasets/nvidia/ClimbLab https://huggingface.co/datasets/nvidia/ClimbMix 识别最佳预训练数据混合仍然

强化学习详解第六部分 高级策略优化:深度强化学习的演变

高级策略优化:深度强化学习的演变 在我们迄今为止探索强化学习的旅程中,我们见证了深度神经网络如何彻底改变了在复杂环境中可能实现的事情。但就像所有的进化飞跃一样,深度Q网络(DQN)及其直接衍生算法仅仅是更深刻变革的开端。 本文聚焦高级策略优化,深度解析 TRPO、PPO 等经典算法如何解决传统强化学