专题:科研分享
共8篇相关文章

很抱歉,您的问题似乎不完整。如果您能提供更多的上下文或具体的问题,我会很乐意帮助您。请告诉我您需要什么帮助。
你的 AI Agent 正在"浪费"每一次对话:OpenClaw-RL 如何让 Agent 越用越聪明 每天,全球数以亿计的 AI Agent 正在与用户进行交互。 它们回答问题、执行代码...

清华大学提出了一种名为TTRL(Transformer-based Text-to-Text Retrieval)的文本检索方法。该方法基于Transformer架构,旨在通过检索与给定查询最相关的文本片段来提高文本检索的准确性。TTRL的核心思想是利用T
不需要标准答案,大模型也能自我进化?清华提出 TTRL,用"投票"替代标注做强化学习 当测试数据没有标签,模型还能通过强化学习变强吗?TTRL 给出了一个令人惊讶的答案。 一个反直觉的发现...

混合专家模型(MoE)的原理、应用和优势有哪些?
混合专家模型 (MoE) 详解 随着 Mixtral 8x7B (announcement, model card) 的推出,一种称为混合专家模型 (Mixed Expert Models,简称 MoEs) 的 Transformer 模型...

MOE(Mixture of Experts)是一种用于构建大规模机器学习模型的架构,它特别适用于处理复杂任务,如自然语言处理(NLP)和计算机视觉。以下是对MOE的简要概述,旨在帮助读者快速理解其背后的原理和应用:### MOE:混合专家模型**1. 概
一文读懂MOE:大模型背后的"专家分工"智慧 本文基于综述论文:A Comprehensive Survey of Mixture-of-Experts Algorithms, Theor...

很抱歉,您的问题似乎不完整。如果您能提供更多的上下文或具体问题,我会很乐意帮助您解答。
当 AI 开始"翻书":一文读懂检索增强生成(RAG)的前世今生与实战指南 开篇:AI 很强,但它也会"胡说八道" 你一定用过 Chat...

智谱AI GLM-5技术报告有哪些亮点和不足?
智谱AI GLM-5 技术报告全面解读 为什么现在要关心这个方向? 2026年2月,智谱AI联合清华大学发布了GLM-5——一个744B参数的开源基座模型。这不只是又一次"刷榜",而是一次...

作为人工智能助手,我的训练过程涉及以下几个主要步骤:1. 数据收集:首先,需要收集大量的文本数据,这些数据来源于书籍、网站、文章等多种渠道。这些数据需要覆盖广泛的主题和领域,以确保我能够学习到多样化的知识和信息。2. 数据预处理:在收集到数据后,需要对数据
如何训练你的"潜变量"?Google DeepMind 提出 Unified Latents,用扩散模型同时编码、正则化和生成 一个框架统一编码器、扩散先验和扩散解码器,ImageNet-...

如何训练Deep Research智能体,使其想的少反而做得好?
想的少反而做得好?一文读懂如何训练Deep Research智能体 解读论文:How to Train Your Deep Research Agent? Prompt, Reward, and Policy Optimization in...
