专题:大模型
共120篇相关文章

Spring AI Alibaba Advisor如何实现拦截?
SpringAI利用面向切面的思想提供Advisors API,它提供了灵活而强大的方法来拦截、修改和增强Spring应用程序中的AI驱动交互。 引用: org.springframework.ai:spring-...

AI作为工具、认知与产业融合,其核心问题如何再思考?
AI核心问题讨论:工具、认知与产业的再思考 前两天与朋友老王和老张聊天,一起讨论了关于AI目前发展的问题。其中主要讨论了3个问题,现在总结如下。 核心讨论 AI到底是什么? AI能否理解人类? AI是否真正创造了产业价值? 一、AI的本质:...

如何深入开发LLM大模型中的AI-Agent智能体应用?
LLM大模型和Agent应用开发相关文章合集: https:github.comjiujuanllm-agent-notebook 一、什么是AI Agent应用 AI Agent(人工智能代理或智能体)应用是当前人(2026)工智...

LLM大模型技术中哪些关键概念不可或缺?
LLM大模型和Agent应用开发相关文章合集: https:github.comjiujuanllm-agent-notebook 大语言模型(Large Language Model,简称LLM)是人工智能领域最重要的技术突破之一...

如何私有部署Gemma 4并实现文本图像视频音频处理及调用相关工具?
随着多模态和智能体能力逐渐成为大模型的标配,如何在本地环境中高效部署正在成为越来越多开发者关注的重点。近期,Gemma 4 正式发布,模型能力对标 Qwen 3.5,在推理能力、多模态支持以及工具调用等方面都有明显提升。 以下为 Gemma...

vLLM新参数performance-mode提升效果如何?Qwen3.5实测!
本文基于 Qwen3.5 在 H100H200 上的实测,分析 vLLM performance-mode 的实际作用。结果表明,它并非独立提速手段,而是结合量化、cache 等优化,用于收敛低延迟或高吞吐目标,主要价值在于缩小调优范围。...

很抱歉,您提供的信息不完整,我无法直接给出答案。请您提供更具体的问题或信息,这样我才能更好地帮助您。
背景 作为模型外面的那层运行框架,Harness 的优化至关重要,但与现有各种文本优化的方法不同,Harness 是一个复杂的带状态的外层程序 最近虽然涌现了一些“文本优化器”(如 OPRO, TextGrad, GEPA 等),试图利用...

很抱歉,您提供的信息不完整,我无法直接给出答案。请您提供更具体的问题或信息,我将尽力帮助您。
背景 Agent 系统的性能越来越依赖 Harness,但这些逻辑通常藏在代码里、框架默认设置里,或者特定运行时的各种约定里。结果就是很难把一个 Harness 移植到另一个系统、拿来比较,或者系统性地研究改进 作者提出把 Harness...

Claude Code 51万行源码设计实现如何深度解析?
最近发生了一件非常大的事情,全球最强的AI编程工具Claude Code,因为Anthropic的一个低级失误——打包npm包的时候忘了删source map文件——51万行源代码,全部暴露在互联网上。 几个小时之...

vLLM Ascend 是不是昇腾上最优的 EmbeddingReranker 推理方案?
在昇腾(Ascend)生态中,vLLM 等推理引擎在生成类任务中表现出色,已被广泛采用。而在 Embedding 与 Reranker 等检索相关场景下,mis-tei 作为专用推理组件,同样提供了高效且更贴合场景的能力。 mis-tei...

如何在大模型Linux服务器上部署大型模型?
一、离线手动安装Ollama(Linux) 步骤 1:去有网的电脑 下载 Ollama Linux 二进制包 打开网址(任意电脑浏览器):https:ollama.cominstalllinuxollama-linux-amd64...

如何搭建大模型项目以适应需求?
一.本地ollama 方式接入 1.环境 JDK 17 spring boot 3.4.0 2.引入依赖 <dependency> <groupId>c...

如何全面掌握LLM大模型技术的基础知识?
一、前言 当我们谈论人工智能时,大语言模型(Large Language Model,简称 LLM)无疑是当前最重要的技术之一。从 ChatGPT 到 DeepSeek,从 MiniMax 到通义千问,这些能够与人类进行流畅对话的大模型系统...

Kubernetes底层原理与扩展机制,深度剖析有哪些细节?
AI 算力基础设施深度系列(二):Kubernetes 深水区——底层原理与扩展机制全剖析 本文是《AI 算力基础设施深度系列》第 2 篇,共 6 篇。 系列目录:① 容器与 K8S 基础 → ② K8S 底层原理 → ③ GPU 与异构算...

使用hf-mirror下载数据集时,如何设置参数--repo-type为dataset?
在国内下载huggingface可以使用hf-mirror加速下载,一般的使用方法可以参见: https:hf-mirror.com 上的介绍。 我在使用hf-mirror下载时,参照网站第一种方法,指定仓库名称和本地下载地址下载时,...
