前端AI试水报告,有哪些可以优化?

摘要:前端使用AI试水报告 背景 听朋友说目前工作有相当部分前端代码是使用AI完成的,主要工具有:Trae、Qoder。 常用AI名词解释 专用词语 名词 通俗解释 LLM(大语言模型) 一个巨大的“文字接龙”机器——根据上文猜下一个字应该是什么
前端使用AI试水报告 背景 听朋友说目前工作有相当部分前端代码是使用AI完成的,主要工具有:Trae、Qoder。 常用AI名词解释 专用词语 名词 通俗解释 LLM(大语言模型) 一个巨大的“文字接龙”机器——根据上文猜下一个字应该是什么。因为参数够多、数据够大,突然变聪明了,所以叫“大”模型。 Prompt(提示词) 给LLM的指令/问题 Context(上下文) 背景信息,与Prompt区分。你给AI的背景资料。比如“根据这份文档回答”,文档内容就是上下文。 Memory(记忆) 将之前对话信息作为上下文,实现追问能力 Agent(智能体) 一个“跑腿的”程序。大模型自己不能上网、不能读本地文件,Agent替它干这些活。你感觉在和AI聊天,其实中间有个Agent在帮你查资料、运行代码。 RAG(检索增强生成) 让AI去你本地找资料。比如问“上个月的销售数据”,它会先去数据库或文档里搜,再回答。 Web Search(联网搜索) 让AI去网上搜信息。 Function Calling(函数调用) 一种约定,让AI知道它可以调用哪些外部功能(如查天气、发邮件)。这样AI就能在需要时自动调用工具。 MCP(模型上下文协议) 为了让Agent能方便地调用各种工具,大家统一了一个接口标准。就像所有电器都用统一的三孔插座,MCP就是那个“插座协议”。 Skill(技能) 把一组指令、规则、示例打包成一个文件夹,AI加载后就会按这个套路干活。相当于给AI配了一本“工作手册”。 一句话串起来: LLM负责思考,Agent负责行动,MCP让行动有标准接口,Skill是给Agent的操作手册。 从LLM到Agent,再到MCP 为了更深入地理解AI开发,我们需要厘清几个关键名词。这些词经常被混用,但理解它们的区别对高效使用AI至关重要。 LLM (大语言模型) 本质:一个巨大的“文字接龙”机器。它的核心能力是根据上文,预测下一个最可能出现的字/词。 为什么叫“大”:当模型参数量、训练数据量突破某个临界点后,它开始展现出令人惊喜的“智能”涌现,为了与之前的小规模“智障”模型区分,人们称其为“大”模型。 Prompt (提示词) & Context (上下文) 为了让LLM做有用的事,我们把它变成“一问一答”的形式。每次问的问题就是Prompt。 如果问题需要背景信息,比如“根据这份财报,分析公司业绩”,财报内容就是Context(上下文)。 Memory (记忆) 我们想让AI能“连续对话”。所以,每次对话会把之前的信息都作为新对话的上下文。这个“对话历史”就是Memory。通过它,我们才实现了多轮追问。 Agent (智能体) & RAG (检索增强生成) LLM不能上网,也不能访问你的本地文件。所以,我们写了一个程序,替它去“上网搜索”或“读取文件”,然后把结果交给LLM处理。这个能替LLM执行动作的程序就叫Agent。 让AI搜索“本地信息”的过程,叫RAG;搜索“联网信息”就叫Web Search。 MCP (模型上下文协议) 为了让Agent能灵活地调用各种外部工具(搜索、文件读写、执行脚本等),我们需要一个统一的“接头暗号”。这个标准化的协议就是 MCP。它让工具和Agent之间的通信变得像插拔USB一样方便。
阅读全文