如何利用大模型构建企业AI业务,实现高效转型?

摘要:Hello, 大家好,我是程序员海军, 全栈开发 |AI爱好者 | 独立开发。 记录第一次在公司内部分享AI+业务 落
Hello, 大家好,我是程序员海军,全栈开发|AI爱好者|独立开发。 记录第一次在公司内部分享AI+业务 落地实践。 如今,AI时代带来的无限可能性,很多业务都值得从做一遍。 最近,老大参加了行业的AI 大会,回来之后将这项任务交给了我。由于我经常研究各种AI 玩法以及AI圈动态,对这块还是有点研究的。 于是,我调研了一天,用最快的时间验证我的思路是否可行跑通,我采用了我最熟悉最快的技术栈, Express + Langchain + Mysql 去将 业务 + AI大模型 结合 开发落地 MVP, LangChain 对于我是陌生的。于是开始学习了3天,建立了对它大概的认知,并开始搭建项目,以及微调提示词等,并开发了 业务的MCP Server 来扩展大模型的能力,以便它能了解公司业务并将业务数据 语义化后返回给客户,最终,从调研+学习大模型开发+实战用时一周,最终结果符合老大的预期效果。 于是就有了这个次的内部分享会,给团队 讲解 LLM 以及 如何将业务 + LLM 结合。 根据团队技术储备情况以及其它因素,我采用的方案是:非本地部署方案,这样节省了很多成本。 提示词工程 + RAG + 大模型语义化 下面主要讲了需要的AI 技术储备,可以让团队快速建立AI方面的技术认知,以及如何将业务+AI LLM 结合起来的思路,更多细节没有在本文里面去表现。有什么问题咨询或交流,可以加我微信(备注来意)。 实现效果 新建表 查询操作 写入操作,后台增删改操作 记录AI & 用户之间信息 后期也可以训练 提高精准度 MCP协议 它是由Anthropic在2024年11月提出,目标是让大模型和外部工具、数据的交互变得标准化、简单化。 MCP让大模型的交互规则更统一,也方便了模型之间的调用和协作。 没有MCP 协议之前: 规则各异:每个模型调用的接口各异,需要为不同的模型编写对应的调用规则。 多模型协作困难:不同模型之间几乎没办法“串联”工作。 有了MCP 协议之后: 统一接口: 开发者不用为每个大模型写适配器,只需要遵循MCP 协议写一次,就能适配所有支持MCP的模型。 跨模型调用: 每个模型之间可互通调用。 工具调用更加灵活 模型上下文协议(Model Context Protocol, MCP)是一种专为机器学习模型服务设计的通信协议, <font style="color:rgb(214, 51, 132);">MCP</font> 通过定义统一的接口,使 <font style="color:rgb(214, 51, 132);">AI</font> 应用能够安全、灵活地访问和操作本地及远程数据资源,提升模型的功能性和可扩展性。 MCP本身并不处理复杂的逻辑;它只是协调AI模型与工具之间的数据和指令流动,MCP简化了AI模型与你的数据、工具和服务的交互方式。 MCP核心功能 上下文管理: MCP 协议旨在标准化和优化模型上下文的管理和传递,从而提高模型的性能和应用范围。 外部数据集成: 使 LLMs 能够安全地访问和操作本地及远程数据,为 LLMs 应用提供连接万物的接口。 工具调用: MCP 协议能够为 LLMs 提供执行具体操作的能力,例如调用 API、访问数据库等。 MCP 架构 ** MCP 遵循客户端-服务器架构,包含以下核心组件:** MCP 主机(MCP Hosts): 提供了连接大模型的能力,例如当前的 豆包,元宝,DeepSeek。 MCP 客户端(MCP Clients): 客户端可通过 调用MCP Server 来扩展其功能 MCP 服务器(MCP Servers): 提供数据、工具和服务的外部系统来扩展大模型的功能,可以根据自己的业务搭建使用。 当下主流MCP以及 应用 自动建模 实现方式:使用开源项目 blender-mcp(GitHub 地址:https://github.com/ahujasid/blender-mcp),包含服务器端与 Blender 插件. Supabase MCP - 数据与数据库集成 通过MCP将Supabase数据库连接到Cursor,自动化创建管理数据库。 Figma MCP - Figma 设计稿转换为代码 MCP Server @modelcontextprotocol/sdk 提供了核心的四个概念:Server、Resources、Tools 和 Prompts。
阅读全文