专题:大模型
共120篇相关文章

这个开源脚本能自动翻译国外技术,如何为?
GitHub地址:https:github.comzdz72113DayHot 演示地址:https:www.readeasy.net 一句话介绍:脚本每日自动抓取 GitHub、Product Hunt、Hacker New...

如何用EasyBot搭建全能型「一人内容工作台」?
用 EasyBot 搭一个「一人内容工作台」 过去想认真做一套「知识科普内容 + 海报 + 视频」,往往要折腾好几步:先构思结构,再写文案,再找图排版、做封面,最后还要剪视频、配字幕。对个人创作者、小团队...

多模型COE方法如何应用于优化?
1.概述 在当前的人工智能发展中,单一模型的表现往往难以满足复杂任务的需求。为应对这些挑战,多模型协作的方法应运而生,“专家组合”(Mixture of Experts)便是其中一种有效的模型协作方法。专家组合不仅能提升模型的准确性,还能通...

MoE如何应用于处理?
1.概述 MoE代表“混合专家模型”(Mixture of Experts),这是一种架构设计,通过将不同的子模型(即专家)结合起来进行任务处理。与传统的模型相比,MoE结构能够动态地选择并激活其中一部分专家,从而显著提升模型的效率和性能。...

LLM大模型发展历程中,有哪些关键节点和里程碑?
(人工智能 LLM 大模型发展图 2018 - 2023,https:arxiv.orgpdf2304.13712.pdf) 大模型 LLM(Large Language Model,大规模预训练模型)是人工智能领域近十年最具突破性...

DeepSeek官方文档中提到的策略有哪些应用案例?
DeepSeek今天发布了V3.2,深度思考模式首次支持工具调用,并且将最大输出token长度扩充至32k-64k。同时,发布了一个测试版的v3.2-speciale,该模型可以看做一个超级加强版长思考DeepSeek,具有出色的数学推理能...

如何将大模型工具调用的JSON输出转化为疑问?
一. 原理 在我的上一篇笔记中,记录了如何使用原生的大模型进行工具调用:https:www.cnblogs.comnanimonop19295032。让大模型进行工具调用本质上并不是让模型自动调用工具并返回结果,而是: 1. 在输...

langchain工具上下文如何应用于生成?
在langchain Tools工具的基础使用中,工具方法的参数是由大模型生成schema来调用的。除了schema定义的参数外,tools还有一类特定的内置参数:runtime。 runtime是一个内部定义好的ToolRuntime类型...

我的大模型应用表现不如预期,该如何细致排查潜在问题?
最近在开发和调试模型应用时,常常感到困惑,当我的智能体表现跟预期不一样,我该改哪里? 可能是模型犯傻,可能是提示词写得不够好,可能是我的智能体架构没办法完成这么复杂的问题,那么,该从哪里入手呢? 决策指南:系统化的调试排查清单 面对问题,不...

CoT论文中关于的优化策略有哪些?
一、介绍 CoT(Chain of Thought)思维链是一种能够激发大模型潜力,提升模型解决复杂推理问题(如数学逻辑问题、常识问题和符号逻辑问题)正确率的经典提示方法。其原理是通过在提示词中提供带有分步推理过程的few-shot exa...

如何配置NVIDIA Container Runtime并运行GPUStack容器?
GPUStack 是一个设计用于运行大模型的开源 GPU 集群管理器,提供私有部署的大模型服务,支持大语言模型、Embedding 文本嵌入模型、Reranker 重排序模型、Vision 多模态模型等各种模型。它可以聚合不同平台(如 Ap...

GPUStack v0.5的模型Catalog和图生图功能,是不是多维优化后提升了产品能力和使用体验?
GPUStack 是一个专为运行 AI 模型设计的开源 GPU 集群管理器,致力于支持基于任何品牌的异构 GPU 构建统一管理的算力集群。无论这些 GPU 运行在 Apple Mac、Windows PC 还是 Linux 服务器上,GPU...

GPUStack v0.6更新,有哪些新功能让你想试试?
GPUStack 是一个100%开源的模型服务平台,支持 Linux、Windows 和 macOS,支持 NVIDIA、AMD、Apple Silicon、昇腾、海光、摩尔线程等 GPU 构建异构 GPU 集群,支持 LLM、多模态、Em...

如何将GPT OSS私有部署推理性能提升100倍的教程忘掉Ollama?
基于开源大模型服务平台 GPUStack 与自定义安装的 vLLM 版本完成 GPT OSS 系列模型的生产部署推理。并对比 Ollama 与 vLLM 在生产并发场景下的吞吐性能差异。...

PaddleOCR-VL 0.9B GPUStack部署,如何实现高效推理登顶SOTA?
在全球多模态文档解析的激烈竞赛中,百度凭借 PaddleOCR-VL 模型给行业投下了一颗重磅炸弹。这个仅有 0.9B 参数量的轻量级多模态模型,不仅在 OmniDocBench V1.5 榜单上以 92.6 的综合得分登顶全球,更在文本识...
