网站首页 全球最实用的IT互联网站!

人工智能P2P分享Wind搜索发布信息网站地图标签大全

当前位置:诺佳网 > 人工智能 > 人形机器人 >

对于正在迷茫择业、想转行提升,或是刚入门的

时间:2026-03-14 11:11

人气:

作者:admin

标签:

导读:对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?答案只有一个:人工智能(尤其是大模型...

本文深入探讨了如何开发高质量的Agent Tools,强调其作为连接大语言模型与现实世界的关键作用。文章提出了工具开发的五大关键要素:类型安全与自动化、LLM友好接口设计、OpenAPI规范集成、自我修复能力构建以及Human-in-the-Loop安全防护。此外,还介绍了如何解决工具开发中的碎片化、复杂化和黑盒化问题,通过火山引擎AgentKit提供的解决方案,实现存量应用智能化、工具治理和身份管理。最后,通过零售和金融科技行业的案例,展示了AgentKit在实际应用中的价值,强调了工具化智能对于企业数字化转型的重要性。

一、如何做好 Tools 的开发:

在了解如何做好 Tools,先要明确为什么做好 Agent Tools 的开发对构建 Agent 至关重要。 Tools 是连接大语言模型(LLM)与现实世界的“感官”与“肢体”。单纯的 LLM 虽有强大的逻辑能力,但却是一个处于真空状态的“大脑”,只有配备了精良的工具,它才能进化为真正的主动智能体。合格的Agent Tool 应该是一个**“可理解、安全且具备容错能力”**的交互接口。

经过实践,我们尝试从 Agent 工具调用的生命周期的 5 个阶段归纳总结了设计 Tools 应该考虑的关键要素及方法:

  1. 类型安全与自动化:充分利用 Python 类型系统和 Pydantic,自动处理 schema 生成和数据验证,防止模型“瞎猜”。
  • 使用 Pydantic BaseModel:利用 Pydantic 进行复杂参数验证,自动处理 Schema 生成和数据验证。
  • 限制枚举值:通过 Literal 等方式限制可选参数,减少模型出错概率。
  • 设置默认值:清晰的默认值非常关键,能减轻模型负担并防止响应过大。
defsearch_products(
query: str = Field(
description="用户的自然语言搜索意图。例如: '适合跑步的防水鞋'"
),
category: Literal["electronics", "clothing", "food"] = Field(
description="产品类别。如果用户提到'手机'/'电脑'用electronics"
),
price_max: Optional[int] = Field(
None,
description="最高价格(人民币)。只有当用户明确提到预算时才填写"
),
sort_by: Literal["relevance", "price_asc", "rating"] = Field(
default="relevance",
description="排序方式。默认按相关性,除非用户说'便宜的'/'评分高的'"
)
):
  1. LLM 友好的接口设计:LLM 无法像传统程序那样通过技术文档理解接口,它依赖于自然语言描述来决定如何使用工具。
  • 自然语言优先:使用自然语言描述签名、参数和错误信息,避免使用晦涩的技术术语。
  • 花费 50% 的时间去打磨 Docstring,善于用ExamplesSample Case 引导模型准确传参。
  • 遵守实现“单一责任”原则,不要给模型一个过于复杂的组合接口,而是拆解成参数清晰、职责明确的小型工具,让 Agent 的决策链路更加稳定
defget_user_preferences(user_id: str) -> dict:
"""
获取用户偏好设置
常见后续操作:
- 如果需要推荐商品 → 使用 recommend_products(preferences)
- 如果需要发送通知 → 检查 preferences['notification_enabled']
"""
return user_service.get_preferences(user_id)
  1. 使用 OpenAPI 规范集成外部 API 转化为 Tools:推荐使用OpenAPIToolset 工具集,它可以利用 OperationParser 自动从 OpenAPI spec 生成 function declaration、参数 schema 和请求构建逻辑,实现标准化的快速创建。
openapi_toolset = OpenAPIToolset(
spec_str=openapi_spec_yaml,
spec_str_type="yaml",
auth_scheme=oauth2_scheme,
auth_credential=oauth2_credential,
)
  1. 构建自我修复能力,而不是直接终止:工具不应在遇到错误时直接抛出异常导致流程终止,而应引导 Agent 调整策略。
  • 结构化错误返回包含 error 信息和 recovery_suggestion(修复建议)。
  • 配合 ReflectAndRetryToolPlugin 等插件拦截错误,提供结构化反思指导,让 Agent 从失败中学习并自动重试。
defdelete_file(file_id: str) -> Union[ToolSuccess, ToolError]:
"""删除文件"""
try:
result = file_service.delete(file_id)
return ToolSuccess(data=result)
except FileNotFoundError:
return ToolError(
error="文件不存在",
recovery_suggestion="使用 list_files() 查看可用文件列表"
)
except PermissionError:
return ToolError(
error="权限不足",
recovery_suggestion="请用户确认是否有删除权限,或尝试 get_file_permissions(file_id)"
)
  1. 加入 Human - in - the - loop(安全防护机制)和关键行为确认。
  • 通过人工确认,将关键行为的决策权和责任交还给用户。
  • 通过 require_confirmation定义工具是否需要开启确认模式。tool_context.tool_confirmation在敏感操作执行前,验证用户是否已经授权了本次行为。
  • 当无法决策或缺少关键信息时,ask_human主动请求用户帮助。
defask_human(question: str) -> str:
"""
当遇到无法自动决策的情况时,询问用户
使用时机:
- 需要用户授权敏感操作
- 多个选择都合理,需要用户偏好
- 缺少关键信息无法继续
"""
returninput(f"???? 需要你的帮助: {question}\n你的回答: ")
  1. 性能优化与上下文管理:为了保证 Agent 的响应速度并防止上下文溢出,需要对结果进行精细控制。提供多个Tools 给模型调用的时候,可以通过实现异步的方案调用,将串行调用转为并行以加速执行。通过 max_query_result_rows 限制返回数量,或仅返回摘要而非全文,避免 LLM Context 溢出
defsearch_knowledge_base(
query: str,
max_results: int = Field(
default=3,  # ???? 默认值很关键
le=5,  # 限制最多5条
description="返回结果数量。默认3条已足够,除非用户要求更多"
)
) -> list[dict]:
"""搜索知识库,返回相关文档片段"""
results = kb.search(query, limit=max_results)
# ???? 关键优化:返回摘要而非全文
return [
{
"id": r.id,
"title": r.title,
"summary": r.content[:200] + "...",  # 只返回前200字
"relevance_score": r.score,
"full_text_available": True  # 提示可以获取全文
}
for r in results
]
defget_document_full_text(doc_id: str) -> str:
"""获取文档完整内容 - 仅在需要详细信息时调用"""
return kb.get_by_id(doc_id).content

二、如何解决 Tools 开发三大痛点:碎片化、复杂化、黑盒化

真正企业在落地 Agent 实践,会面临一个非常现实的问题。面对海量的 API 文档和数以万计的存量应用,Agent Tools 运行会面对工具碎片化、连接复杂化,治理黑盒化的多重难题。火山引擎 AgentKit 打造了全新的 Gateway ,提供从工具鉴权、工具转化、工具调用和管理、丰富工具生态能力。

存量应用智能化 :3分钟打造 LLM 友好的工具

在微服务时代,网关做的是流量代理和负载均衡;在 AI 原生时代,网关需要成为 Agent 与外部世界沟通的“中枢”。它不仅要处理高并发的流量——支撑百万级 QPS,更要解决一个核心问题,如何让 Agent 看懂你的旧接口?

针对企业海量的存量 API 和老旧系统,AgentKit Gateway 提供智能化的“AI 转换器”,大幅降低企业应用 AI 化的门槛,解决“有大模型但无工具可用”的尴尬。Agent 与外部工具交互的标准协议是 MCP。而企业里大量的存量服务是传统的 HTTP API。

AgentKit Gateway 提供了一个自动转换层。相比人工重构,智能转化成本降低 80%。自动生成的 AI 提示词(Prompt Description)被模型正确理解的概率 > 95%。历史 API 转化为 MCP 工具的自动化率达 90%

  • AI 逆向工程生成: 只需上传 Swagger/OpenAPI 文档甚至是一段代码,内置的专用大模型即可自动生成符合 MCP 标准的 Tool Definition,并自动补全缺失的参数描述和用途说明(Description)。
  • 自动化测试脚手架: 生成工具的同时,自动生成测试用例(Test Cases)。通过模拟 Agent 调用,验证工具的可用性和返回格式的规范性。
  • 一键热加载: 转换后的 Skills 可直接推送到 Gateway 生效,无需重写一行业务代码。

海量的 MCP 工具的治理:提供性能优化的 Agent Tools 工具集

Gateway 是 AgentKit 的核心枢纽,集成了流量控制数据三大核心要素,旨在为 Agent 生态提供统一的基础设施支持。

  • **流量中枢:**作为 Gateway 的基础核心能力,它负责流量的统一接管与处理。无论是 Agent 间的交互、Agent 对 MCP(Model Context Protocol)的调用,还是对底层模型服务的访问,均可通过 Gateway 实现统一的流量治理。
  • **控制中枢:**支持通过控制台集中配置 MCP 路由、模型路由及负载均衡策略。同时,集成限流、安全认证等传统服务治理能力,实现对 Agent 相关流量与治理策略的统一管控。
  • **数据中枢:**提供对 Agent 相关元数据的全生命周期管理,涵盖 MCP 元数据、API 元数据及 Skills 元数据等。

AgentKit Gateway 演进自应用层 API Gateway。鉴于 APIG(API 网关)已承接大量迁移至火山引擎的客户业务,并对其服务与接口实施了统一托管与流量代理,Gateway 能够高效地将这些现存服务与 API 转化为 MCP 标准,供 Agent 直接调用,实现传统业务与 AI Agent 的无缝连接。

针对原生 MCP 调用中存在的上下文(Context)冗余、Token 消耗过高及模型幻觉问题,AgentKit Gateway 引入了独有的工具搜索与召回机制。

  • **智能召回:**通过独有的搜索方案,综合提升工具调用的准确率,大幅降低无效 Token 的消耗。
  • **标签筛选:**支持基于场景与分类标签(Tag)的工具筛选能力。用户可按需自定义 MCP 工具组合,通过标签逐级索引 MCP Tool,显著提升调用的效率与准确性。

在一些关键性能指标上:

  • **Token 节省率:**在涉及 50+ 工具调用的复杂负载场景下,MCP 调用 Token 消耗降低 70%。
  • **调用准确率:**基于 Schema 优化技术,复杂工具调用的参数填充准确率提升至 98.5%****。
  • 响应延迟:结合语义缓存技术,常用工具的响应速度提升300%。

开发一个高质量的 MCP Server:让 Agent 更精准地理解并调用工具

当底层的 MCP 工具(Tools)定义清晰后,就需要从更高维度思考:如何将这些独立的工具组合成顺畅的任务流,让 Agent 能够智能、高效地完成复杂工作。这涉及到工具规划(如何设计工具组合)和工具编排(如何动态组织和调用工具)两个核心环节。

核心思想

设计工具时,把模型当成一个聪明的“实习生”。不需要告诉他每个技术细节(最小化接口),但需要把相关的任务打包好(避免零散),并明确告诉他这个任务的目标是什么(任务导向)。在分配工作时,一次只给他当前相关的资料(最小化工具编排 + 渐进式披露),如果流程复杂,就给他一份清晰的操作指南(如 Agent Skill)。

  • 工具定义:“模型友好”

  • 名称用“动词-名词”结构(如 create_order、manage_order),避免技术实现名(如 call_http_endpoint)。

  • 描述既要简洁,又要完整说明用途、输入输出、典型场景和异常处理,不夸大能力。

  • 输入/输出统一用 JSON Schema(或 Pydantic/Zod 等生成),善用类型(string/integer/enum 等)和约束(minimum/maximum/pattern/enum/examples/required),避免巨大的嵌套结构,必要时拆平参数。

  • 工具规划:控制“颗粒度”和“数量”

  • 遵循“最小必要接口”:只暴露完成任务必须的参数和功能,去掉无意义或永远是固定值的参数。

  • 避免拆得过碎:从“用户要完成的任务”出发,把强相关步骤打包成一个任务型工具,而不是几十个原子接口。

  • 以“任务导向”而不是“接口罗列”为中心设计工具集,让模型理解“现在要完成什么事”。

  • 工具编排:“减负 + 渐进披露”

  • 不要一次性把所有 MCP 工具都挂给一个 Agent,而是根据具体场景按需加载一小部分工具集。

  • 可以通过标签或搜索按任务动态选择工具,避免上下文被无关工具描述淹没。

  • 对于复杂流程,用 Agent Skill 写一份“操作说明书”,引导模型按步骤调用多个工具完成任务。

Skills:消除工具碎片化的和技能孤岛,提高企业复用率

我们将“工具”升级为“技能(Skills)”。技术标准上,我们与 Claude Code Skills 保持完全兼容,但在此基础上增加了企业级所需的管理维度。AgentKit 将 Skills 视为企业核心数字资产,提供从开发、测试、发布到下线的全生命周期管理。

维度 传统 Tools 企业级 Skills
定位 离散的功能插件 核心数字资产
管理 手动维护、版本混乱 集中管理、版本回滚、灰度发布
构建 纯代码编写 原子能力编排 + Vibe Coding
价值 单点执行 高复用、高效率、安全隔离

在 Skills 从试验阶段走向生产落地时,核心的问题是如何将内部沉淀的 Skills 统一高效地管理起来,并在执行过程中保证可靠性、成本与安全隔离;AgentKit 通过平台级能力,把这些诉求拆解为“生成—管理—发现与执行”三个环节。

  • Skills 的生成:基于预置的 skill-creator,将团队的 SOP、模板、脚本沉淀为可复用的 Skills 包。
  • Skills 的集中管理:通过 Skills 中心统一完成 Skills 的注册、更新与版本发布,基于 Skills 空间查询与加载 Skills,解决跨团队共享难、版本混乱和权限边界不清的问题。
  • Skills 的发现与执行:Skills Sandbox 通过 Skills 空间按需加载 Skills、与 LLM 交互决策使用的 Skills、在 Sandbox 中隔离执行并将最终生成任务结果。

我们将在后面系列专题中展开 skills 的实战分享。

工具鉴权及身份管理 (Identity & Access):为 Agent 打造的“零信任”安全盾牌

在 Agent 自主执行任务的场景下,风险不再来自 “用户是否登录”,而是来自 Agent 会在无人工逐步确认的情况下,多轮、多步、跨系统调用工具。传统的静态 API Key 或 长期 token 权限极易扩散,且事后很难回答 “是谁授权、以什么身份、做了什么、为什么放行”。AgentKit Identity 面向 Agent 运行时重新定义身份与权限,通过引入 Agent Persona (Agent 工作负载身份)与 Delegation Chain(委托链),并以 Zero Trust(零信任)方式在每一次 tool call 上执行策略判定与审计,确保每一次工具调用都做到可控、可追责、可审计。

亮点能力:

  • **Secretless 的动态临时凭证:**不再把长期秘钥交给 Agent。每次调用工具时,Gateway 联合 Identity 服务会根据调用上下文与策略,即时签发短期凭证,用完即失效,支持快速撤销与最小权限下发,显著降低 “密钥泄露/复用/越权” 等风险概率。
  • **端到端委托链:**将终端用户身份、Agent Persona、会话/任务上下文(如环境、风险等级、工单、审批结果)绑定为可验证的身份链路,在 Agent 调用 Tool/MCP 的过程中安全传递,用于下游精细化授权与审计归因。实现:同一个 DevOps Agent,Alice 可以 delete,Bob 只能 reboot/list – 不靠写死分支,而靠身份链 + 策略绑定 的效果。
  • **存量身份一键迁移:**支持与企业现有身份体系无缝衔接(支持 OIDC/SAML/企业用户池),同时覆盖 2LO/3LO 授权场景,既能满足系统到系统(M2M)的自动化调用,也能满足用户授权参与的外部私域数据访问。
  • **工具调用级细粒度授权:**在传统 RBAC 策略基础上,支持叠加属性(Attribute)条件(如工具类型、操作危险等级、目标资源标签、网络环境、是否二次确认/审批),做到 “对什么人、在什么上下文、允许调用什么工具” 的机制细粒度访问控制,实现业界领先的 ReBAC (Relation-based Access Control)。
  • **审计与可观测:**记录每次 token 签发、策略判定、工具调用、返回结果与关键上下文,便于接入 SIEM/审计系统,支持事后追溯与持续合规运营。

合规与技术参数指标:

  • **合规能力对齐:**提供最小权限、全链路审计、短期凭证与随时撤销机制,支持客户业务对齐 SOC2 Type II, ISO 27001, GDPR 等全球顶级合规要求。
  • **性能指标:**在同 Region / 同 AZ 部署下,身份判定与策略决策链路低至 “毫秒级开销”
  • **风险控制:**支持对高风险工具调用的默认阻断、二次审批/确认、限速与异常检测等安全防护手段

三、火山引擎 AgentKit Tools 实战

理论引领方向,实践验证价值。AgentKit 所倡导的“工具化智能”开发范式,具备高度的行业普适性与解决方案可迁移性。以下深度场景推演与方案设计,均基于AgentKit平台核心能力构建,清晰展示了其为不同领域带来的智能化转型路径与可量化的高阶价值。

案例1:零售行业——构建连锁集团的“全能数字员工”,重塑消费者服务体验

场景深度剖析:

全国性连锁零售集团,因客服问题重复率高、业务系统数据孤岛林立,面临巨大运营压力。具体表现为:超过60%的客服咨询为重复性事务;客服需跨十余个系统查询信息,单次查询耗时长达2分钟;大促期间响应延迟超5分钟,客户满意度骤降。传统规则引擎僵硬且无法理解用户自然语言中的复合意图,维护成本高昂。

AgentKit工具实战方案:

  1. **存量系统“零改造”智能融合:**利用 AgentKit 的 MCP 服务,在不修改任何后端代码的前提下,将分散的CRM、WMS(仓储管理系统)、OMS(订单管理系统)及营销平台的50多个核心接口,自动转化为符合MCP标准的、具有语义描述能力的智能工具。这标志着企业的“数据孤岛”被首次统一为Agent可理解和调用的“能力地图”。
  2. 动态工具组合与意图理解: 构建“智能客服Agent”,它并非简单的问题匹配机器人,而是一个具备工具使用能力的“虚拟专员”。当用户问及复杂问题时,Agent 通过 AgentKit 的 MCPtoolset,自动将意图拆解,并发精准工具搜索、匹配和调用(例如:根据用户提问,“订单a有赠品是什么”,先调用“会员订单查询Tool”定位订单,再调用“实时库存查询Tool”匹配门店,最后调用“促销规则计算Tool”确认赠品资格)。
  3. 安全与成本的双重治理: 引入动态临时令牌机制,每次工具调用均生成短期有效令牌,杜绝了传统API Key长期暴露的风险。同时,通过工具的精确定义和组合调用,避免了将大量原始数据塞入提示词(Prompt),使单次交互的Token消耗降低70%,在大规模并发场景下显著优化了运营成本。

落地价值与行业启示:

  • 效率革命: 客服问题自动解决率大幅度提升,人工坐席得以专注于情感沟通和复杂纠纷处理,价值感提升。
  • **体验重塑:**跨系统查询时间从分钟级降低到秒级,用户获得无缝的即时服务体验。
  • 核心观点: 在零售行业,Agent的价值远不止“自动回复”。其本质是将后端复杂的业务系统网络,通过工具化封装,透明地、智能地映射为前端极简的用户服务界面,实现了服务流程的数字化重构。

案例2:金融科技行业——锻造智能风控的“数字审计官”,实现实时合规与业务敏捷的双重突破

场景深度剖析:

跨境支付金融科技公司,日均处理数百万笔全球交易,业务覆盖数字钱包、跨境汇款、商户收单等多个创新领域,通常面临全球动态合规与海量交易审计的巨大挑战。传统人工审计依赖个人经验在多系统间手动操作,需耗时数天,风险响应滞后且标准不一,同时存在数据安全风险。自研系统与外部方案均难以兼顾敏捷适配与审计可解释性。

AgentKit工具实战方案:

  1. 动态合规规则的“Skill化”敏捷部署: 利用 AgentKit 的**“Skill Studio”**,合规与风控专家无需编写代码,即可将最新监管要求或内部风控策略,快速封装为可执行、可测试的独立Skill(如“跨境大额交易聚类分析Skill”、“可疑地址链上追踪Skill”、“交易对手方风险评分Skill”),根据不同审计场景被灵活组合和动态加载,将监管响应时间从“周级”缩短至“小时级”。
  2. **全链路可解释性与监管级审计溯源:**通过 AgentKit 的全链路监测服务,每一笔被Agent标记为“可疑”的交易,都能生成完整的“决策报告”:包括调用了哪些数据源(工具)、应用了哪些风控规则(Skill)、推理的逻辑链(Reasoning Trace)以及最终判断的依据,极大减轻了合规汇报的压力。
  3. **在敏捷开发中嵌入“隐私优先”的安全范式:**借助AgentKit的 通过引入 Agent Persona (Agent 工作负载身份)与 Delegation Chain(委托链),Agent 对敏感数据的访问权限不再仅基于静态角色,而是动态评估访问的“上下文”——包括审计任务类型、数据敏感级别、操作时间等。这确保了在研发、测试、生产等多环境中,数据安全和合规底线不被打破。

落地价值与行业启示:

  1. **风控效力质变:**通过7x24小时实时流式处理,将风控模式从“事后检查”彻底转变为“事中拦截”,有效缩短可疑交易调查响应时间,有效拦截高风险交易。
  2. **组织能力释放:**自动化使合规审计总工时减少85%,将团队从机械劳动中解放,转而聚焦风险策略优化与新业务合规设计,使合规部门从成本中心转型为业务赋能者。
  • 核心观点:对于金融科技公司而言,Agent工具化的核心价值在于解决“创新速度”与“合规稳健性”之间的根本矛盾,构建一套内生于技术架构、能随业务快速迭代、同时满足最高安全与审计标准的智能风控基础设施。

四、行业展望

以上案例清晰地勾勒出一条路径:无论是零售业的服务重塑还是金融业的风控升维,其共同起点都是将企业固有的、复杂的、数字化的业务能力,通过AgentKit转化为智能体可自如运用的“工具”。这不再是简单的技术集成,而是一次深刻的“业务能力AI化”范式转移。

AgentKit 通过其存量应用无缝转化、skills产品化、企业级治理三位一体的核心能力,正助力各行业领先者将AI的潜力,扎实地转化为可见的业务优势、可控的安全屏障和可持续的竞争力。未来,拥有并善用“智能工具链”的企业,将在智能化浪潮中掌握定义新时代游戏规则的主导权。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
图片
图片
对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

图片

????????扫码免费领取全部内容????????

在这里插入图片描述

最后

1、大模型学习路线

img

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

在这里插入图片描述

4、 AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

5、面试试题/经验

img

【大厂 AI 岗位面经分享(107 道)】

img

【AI 大模型面试真题(102 道)】

img

【LLMs 面试真题(97 道)】

img

6、大模型项目实战&配套源码

img

适用人群

在这里插入图片描述

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • ????????扫码免费领取全部内容????????

    在这里插入图片描述

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

温馨提示:以上内容整理于网络,仅供参考,如果对您有帮助,留下您的阅读感言吧!
相关阅读
本类排行
相关标签
本类推荐

CPU | 内存 | 硬盘 | 显卡 | 显示器 | 主板 | 电源 | 键鼠 | 网站地图

Copyright © 2025-2035 诺佳网 版权所有 备案号:赣ICP备2025066733号
本站资料均来源互联网收集整理,作品版权归作者所有,如果侵犯了您的版权,请跟我们联系。

关注微信