专题:ollama
共9篇相关文章

如何搭建Dify Ollama模型?本地环境实战攻略分享!
一、环境准备 1、硬件要求 硬件类型 最低要求 推荐配置 备注 操作系统 Windows 10 64 位(版本 ≥ 2004) Windows 11 64 位 Windows 11 64 位 必须支持 Hyper-V 或 WSL2 CPU...

如何部署OpenCLaw轻量级应用服务器并本地化Ollama大模型?
本篇内容依赖阿里云的轻量应用服务器搭建openclaw+本地部署ollama模型,实现个人Agent自由。免费给阿里云打个小广告,《不用写代码,分钟级部署OpenClaw》,其实主要还是考虑最近爆出的多起隐私安全问题,因此...

Linux服务器如何离线安装Ollama?
一、前言 公司服务器在线安装ollama总是超时连接不上,想着本质就是个安装包,离线安装也可以。固有了这样的一篇博客记录一下。 二、流程 1、查看服务器cpu架构 执行指令 lscpu # x86_64 CPU选择下载ollama-linu...

如何用Hugging Face下载模型,离线用Ollama加载?
记录一下两个网站,后续补充细节内容: https:blog.csdn.netmingzai624articledetails140881097 https:blog.csdn.netyyh2508298730articl...

如何基于AnythingLLM和Ollama构建本地知识库问答系统?
基于 AnythingLLM 及 Ollama 构建本地知识库 RAG Ollama AnythingLLM 1. 什么是 RAG RAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的...

Ollama穿上GPT外衣,会是怎样的呢?以下是一个示例:Ollama披上GPT外套,效果如何?
上一篇我们介绍了如何在本地部署 ollama 运行 llama3 大模型。过程是相当简单的。但是现在给大模型交流只能在命令行窗口进行。这样的话就只能你自己玩了。独乐乐不如众乐乐嘛。我们接下来说一下如何部署 open-webui 给 olla...

用FastAPI接ollama大模型,asyncio难题让我崩溃了吗?
很多人在用FastAPI调用外部API时会遇到阻塞、超时甚至崩溃。本文从asyncio原理讲起,通过FastAPI+httpx异步调用本地ollama模型,带你一步步搭建一个对话窗口,并分享我踩过的坑和解决方案。...

如何用FastAPI和ollama diffusers打造让AI绘画更听话的本地文生图接口?
本文手把手教你用FastAPI搭建文生图服务,结合ollama本地优化提示词,diffusers调用dreamshaper8-lcm模型生成图片,并配置CORS让局域网设备都能访问。全是实战经验,帮你少踩坑。...

如何避免坑点,让FastAPI流式输出像AI边想边说般流畅?
很多AI应用因为响应太慢被用户吐槽,其实用FastAPI实现流式输出就能让文字逐字出现,体验如真人打字。本文从原理到实战,带你用StreamingResponse和生成器快速打造“打字机”效果,并分享了CORS、超时、异常处理等四个容易翻车...
