免费发布

报名:DeepSeek技术解密:算法源码、强化学习(RL)及 Agent智能体实战线上高级实训班

Fri, 21 Mar 2025 09:00:00 GMT+08 ~ Sun, 23 Mar 2025 17:30:00 GMT+08
Limited 100
(Xian Shang Huo Dong)
CIIT
Discount
Group buy Purchase 5 or more tickets, reduce ¥500.00 per ticket【收费票】
Group buy Purchase 5 or more tickets, reduce ¥500.00 per ticket【收费票】
Event Price
    Please select the order price

    第三方登录:

    Event DetailsHide...

    关于举办《DeepSeek技术解密:算法源码、强化学习(RL)及 Agent智能体实战》线上高级实训班简章_01.png关于举办《DeepSeek技术解密:算法源码、强化学习(RL)及 Agent智能体实战》线上高级实训班简章_02.png

    DeepSeek技术解密:算法源码、强化学习RL及 Agent智能体实战线上高级实训班简章


    一、实训时间和方式:

    时间:2025年321日至323日(周五、周六、周日共3天)

    方式:腾讯线上直播


    二、实训对象:

    涉及人工智能及大模型技术产业链各厂商、企业级AI解决方案提供商、云计算与大数据平台服务商、电信运营商、广电运营商、云厂商、互联网公司、IT公司、智能交互公司、科研院所与高等院校,央国企各级IT主管、部门负责人及CIO、人工智能技术专家、AI研发工程师AI解决方案工程师、信息系统研发和运维工程师、项目经理、产品经理,来自金融、制造、零售、医疗、教育、能源、交通等行业的AI负责人,负责企业内部AI战略决策、研发、部署及维护的专业技术人员等,包括那些想掌握 DeepSeek AI核心技术、并在企业场景落地的开发者、创业者及所有对 DeepSeek AI有深入兴趣或需求的单位和个人。


    三、实训大纲:

    模块一:解码DeepSeek力量与潜能-智能涌现、强化学习引领AGI新纪元

    模块二:DeepSeek内核与技术-核心架构、优化策略与高效训练全解析

    模块三:DeepSeek-V3源码详解、大模型架构算法优化工程实现全览

    模块四:DeepSeek企业级Prompting Engineering技术内幕及最佳实践

    模块五:DeepSeek微调、量化、蒸馏及Reasoning推理全流程最佳实践

    模块六:模型微调对齐底层内核强化学习PPO/DPO算法、源码和案例详解

    模块七:DeepSeek强化学习GRPO算法自适应优化的核心原理与实践

    模块八:DeepSeek-R1源码的完整复现、源码详解及案例实验全流程

    模块九:DeepSeek企业级Agentic-based应用技术的十大核心技术解析

    模块十:基于DeepSeek构建工业级的Stateful多智能体系统全解析

    模块十一:基于DeepSeek构建大模型智能体Human-in-the-Loop技术详解

    模块十二:DeepSeek智能体幻觉检测与控制技术及可信度优化最佳实践

    模块十三:DeepSeek企业级应用云端与本地化架构方案及实施细节

    模块十四:企业级DeepSeek环境的API与应用开发及多场景应用

    模块十五:企业知识库与向量检索增强系统(RAG)全栈解析

    模块十六:企业级智能体Agent系统架构、开发与多智能体协作

    模块十七:DeepSeek在企业商业情报软件研发领域的落地案例详解

    模块十八:DeepSeek环境下的风险管理与供应商选择策略

    模块十九:DeepSeek引领下的竞争格局、行业影响、未来趋势与战略思考


    四、实训收益:

    1、AI 高阶技术的系统性掌握深入到 DeepSeek AI 的核心算法、源码实现、推理优化、强化学习训练、企业级应用等

    2、算法剖析 直击 DeepSeek AI 核心算法涵盖 DeepSeek-R1-Zero、DeepSeek-R1、DeepSeek-V3 的完整架构,让学员从算法层面完全掌DeepSeek AI 如何实现更强的推理能力、更好的对齐性和更低的计算成本。

    3、源码解密 逐行解析 DeepSeek-V3 核心代码,确保工业级大模型开发能力深度解析 DeepSeek-V3 Transformer 结构优化计算的 MoE 和 MLA 代码训练过程(SFT、强化学习对齐)高效推理优化代码

    4、企业级智能体实战落地让AI从技术研究走向商业应用涵盖真实业务案例领域适配(金融、法律、医疗)让 DeepSeek AI 在垂直行业内表现卓越

    5、工程级训练与微调直接提升AI训练优化能力课程不仅讲述如何使用大模型,更深入讲解如何训练和微调大模型,适合需要深度自定义 LLM 的企业和团队。

    6、高阶实践 + 真实商业案例:不止是概念,而是真正可应用的AI技术课程不仅限于理论,而是结合真实的AI商业化案例涵盖AI产品从概念、实验、优化、训练、部署到商业化的完整路径每个模块配备完整代码和工业级解决方案,确保学员能将所学直接应用于实际工作

    7、互动答疑及考核认证:本期我们特别设置了互动答疑环节,为参会代表提供一个深度交流的平台,参加培训并经过考核合格的学员,我们将颁发高级职业技术水平证书。不仅是对专业技能的认可,也是对职业竞争力的提升,证书将作为您在求职、升职加薪、招投标过程中的有力证明。


    五、实训内容:

    模块一:解码DeepSeek力量与潜能-智能涌现、强化学习引领AGI新纪元

     

    Ø 大模型顿悟时刻:解密DeepSeek-R1-Zero的Aha Moment对模型处理复杂逻辑推理及探索未知领域的重大价值

    Ø 为何说没有借助任何supervised fine-tuning data的纯粹基于强化学习RL的DeepSeek-R1-Zero开启了通往通用人工智能AGI的新纪元?

    Ø “Behaviors such as reflection—where the model revisits and reevaluates its previous steps—and the exploration of alternative approaches to problem-solving arise spontaneously”的对智能涌现Intelligence Emergence 划时代意义解密

    Ø DeepSeek在Needle In A Haystack (NIAH) 测试中杰出表现的为何会能够证明其在如知识问答、长文本分析广泛应用有效性?

    Ø DeepSeek在Pretraining使用14.8T tokens及动态的Activated Params为何能够帮助产生迄今为止最强的open-source model?

    Ø DeepSeek-V3是如何基于DeepSeek R1 进行模型蒸馏来提升Reasoning推理能力的?其Distillation实现为何是有效且高效的?

    Ø DeepSeek的Latent Attention为何更加有效?

    Ø DeepSeek是如何克服经典Mixture-of-Experts (MoE)的弱点的?

    Ø DeepSeek的auxiliary-loss-free strategy为何非常关键?

    Ø DeepSeek的Multi-Token Prediction (MTP)为何在Content Generation上更加高效可靠?

    Ø DeepSeek是如何实现通过有效的Data Engineering来实现diverse and high-quality tokens的?

    Ø DeepSeek是如何使用Supervised Fine-Tuning来挖掘数据潜能的?

    Ø DeepSeek是如何使用Reinforcement Learning来提升模型智能的?

    Ø DeepSeek强化学习GRPO算法是如何做到effective、efficient、economical的模型调优对齐效果的?

    Ø DeepSeek-V3只使用2.788M H800 GPU hours完成整个训练的关键是什么?

    Ø DeepSeek实现训练和微调稳定性背后的Engineering密码是什么?

    Ø DeepSeek是如何实现更大模型但不会导致额外的overhead的?

    Ø DeepSeek在使用PRM/MCTS失败的本质原因解密及改进方案分享

    Ø DeepSeek核心技术发展方向及空间的可能性

    综合案例:基于DeepSeek产品落地场景、工程技术、及最佳实践详解(以讲师作为一家AI公司的最高技术负责人带领7个核心工程师落地DeepSeek技术为例)

    模块二:DeepSeek内核与技术-核心架构、优化策略与高效训练全解析

     

    Ø Multi-head Latent Attention (MLA)深度详解

    Ø DeepSeekMoE深度详解

    Ø Auxiliary-loss-free strategy for load balancing解析

    Ø Multi-token prediction training objective解析

    Ø Context length extension全流程解析

    Ø Rejection Sampling and Supervised Fine-Tuning (SFT)解析

    Ø Knowledge Distillation全生命周期流程解析

    Ø Reasoning Capabilities  Distillation全生命周期流程解析

    Ø Rule-based Rewards vs Reward Models详解

    Ø Group Relative Policy Optimization详解

    Ø Accuracy Reward/Format Reward/Language Consistency Reward奖励模型内幕机制详解

    Ø Self-rewarding and Generative Reward Model详解

    Ø Reinforcement Learning (RL) without any supervised data详解

    Ø Constitutional AI详解

     

    模块三:DeepSeek-V3源码详解、大模型架构算法优化工程实现全览

    Ø 理解文本处理的核心步骤:掌握文本分词、将分词结果转化为 Token ID,以及添加上下文标记和位置编码的流程。

    Ø 字节对编码和滑动窗口采样:学习如何使用 Byte Pair Encoding (BPE) 压缩词表并通过滑动窗口技术采样序列数据。

    Ø 自注意力机制的基本实现:实现不带可训练权重的简单自注意力机制,并计算所有输入 Token 的注意力权重。

    Ø 可训练的自注意力机制:通过逐步计算注意力权重并实现紧凑的 Python 类来设计具有可训练参数的自注意力模块。

    Ø 因果注意力屏蔽未来信息:实现因果注意力掩码并结合 Dropout 方法屏蔽多余权重,避免未来信息泄露。

    Ø 多头注意力机制的扩展:从单头注意力扩展到多头注意力,通过堆叠注意力层和分块权重实现复杂模型结构。

    Ø Sparse Attention机制详解

    Ø 实现 GPT 模型的核心架构:通过编写 Transformer 模块的注意力、线性层和前馈网络,搭建 GPT 的基础模型。

    Ø 模型优化与激活归一化:使用层归一化(Layer Normalization)处理激活值,增强模型训练的稳定性。

    Ø 添加快捷连接:在 Transformer 块中添加跳跃连接(shortcut connections)提高梯度流动性和网络性能。

    Ø 文本生成的实际实现:通过编写 GPT 模型代码,结合推理逻辑,生成符合上下文的自然语言文本输出。

    Ø DeepSeek-V3源码ModelArgs详解

    Ø DeepSeek-V3源码main逐行详解

    Ø DeepSeek-V3源码generate逐行详解

    Ø DeepSeek-V3源码sample逐行详解

    Ø DeepSeek-V3源码MLA逐行详解

    Ø DeepSeek-V3源码MLP逐行详解

    Ø DeepSeek-V3源码Gate逐行详解

    Ø DeepSeek-V3源码 Expert逐行详解

    Ø DeepSeek-V3源码 MoE逐行详解

    Ø DeepSeek-V3源码 Block逐行详解

    Ø DeepSeek-V3源码Transformer逐行详解

    Ø DeepSeek-V3源码ParallelEmbedding详解

    Ø DeepSeek-V3源码linear方法逐行详解

    Ø DeepSeek-V3源码Linear逐行详解

    Ø DeepSeek-V3源码ColumnParallelLinear逐行详解

    Ø DeepSeek-V3源码RowParallelLinear逐行详解

    Ø DeepSeek-V3源码RMSNorm逐行详解

    Ø DeepSeek-V3源码precompute_freqs_cis逐行详解

    Ø DeepSeek-V3源码apply_rotary_emb逐行详解

    Ø DeepSeek-V3源码 act_quant_kernel逐行详解

    Ø DeepSeek-V3源码 act_quant逐行详解

    Ø DeepSeek-V3源码act_quant逐行详解

    Ø DeepSeek-V3源码weight_dequant逐行详解

    Ø DeepSeek-V3源码fp8_gemm_kernel逐行详解

    Ø DeepSeek-V3源码fp8_gemm逐行详解

    Ø DeepSeek-V3源码convert.py逐行详解

    Ø DeepSeek-V3源码fp8_cast_bf16.py

    模块四:DeepSeek企业级Prompting Engineering技术内幕及最佳实践

    Ø In-Context Learning底层原理详解

    Ø Prompting在微调及模型对齐中的重大价值

    Ø LLM Prompting内核:Text, Symbols, Patterns

    Ø 工业级提示工程:思维链(Chain-of-Thought, CoT)

    Ø 工业级提示工程:自治性(Self-Consistency)

    Ø 工业级提示工程:思维树(Tree-of-Thoughts, ToT)

    Ø Program of Thoughts Prompting详解

    Ø Tool-integrated reasoning format prompting详解

    Ø 为何DeepSeek会出现“Few-shot prompting consistently degrades its performance”?

    Ø 高可靠的企业级Prompting七大关键元素

    Ø DeepSeek-R1-Zero中的Prompting核心元素及底层内幕解析

    Ø DeepSeek-R1中的Prompting核心元素及底层内幕解析

    Ø DeepSeek-V3中的Prompting核心元素及底层内幕解析

    Ø Reasoning Data and Non-Reasoning Data Prompting详解

    Ø reward signals and diverse prompt distributions详解

    Ø 主流Evaluation prompts案例详解

    Ø DeepSeek Prompting与Llama Prompting技术深度对比

    Ø 为何Prompting能够贯穿大模型应用三核心State, Time Travel, Human-in-the-Loop每个一个环节?

    综合项目:DeepResearch Navigator是一个多步信息查询助手,通过检索增强生成和并行子查询技术,系统化获取信息,适用于学术研究、企业知识管理和复杂查询任务,显著提升研究效率。

    模块五:DeepSeek微调、量化、蒸馏及Reasoning推理全流程最佳实践

    Ø Continual Pretraining及Supervised Fine-tuning生产落地环境的决策标准是什么?

    Ø Instruction-finetuning及Classification-finetuning

    Ø 微调Selected Layers解析及Last Layers在语义(nuanced linguistic pattern)和模式识别(task-specific feature)内幕及代码解析

    Ø 如何解决GPT-like模型Classification-finetuning的Loss不可导问题?

    Ø 调整模型结构以适配Classification-finetuning原理、流程和代码实现

    Ø Instruction fine-tuning技术解密及Llama 3.1/3.2微调实战

    Ø How to mask out instruction tokens in finetuning?

    Ø 详解Stanford Alpaca: An Instruction-following LLaMA Model

    Ø 详解基于ShareGPT真实人类对话数据集的Vicuna

    Ø Instruction的三大最佳实践及Instruction Template详解

    Ø 面向单任务和多任务的微调技术及案例实战

    Ø 对Finetuned Responses评估三种方式解析及自动化实践

    Ø LLM Quantization数学原理及有效性根本原因解析

    Ø LLM Quantization技术、流程及具体实现

    Ø DeepSeek是如何在算法层面把Quantization引入到Pretraining的?

    Ø DeepSeek落地Pretraining Quantization工程实践

    Ø DeepSeek的Distillation的双重技术: reasoning及data generation

    Ø Distillation全流程技术及最佳实践详解

    Ø 使用DeepSeek-R1通过Distillation是的Llama-3.3具备更加强大的逻辑推理能力全生命周期解析

    Ø Distillation两大阶段:SFT阶段及强化学习阶段

    综合项目:大模型微调实现Function/Tools Calling功能案例

    模块六:模型微调对齐底层内核强化学习PPO/DPO算法、源码和案例详解

    Ø 经典的基于人类反馈的强化学习RLHF全生命周期分析

    Ø Online training和offline training解密

    Ø 基于actor-critic RL algorithm算法范式详解

    Ø Actor Model内幕机制详解

    Ø Value Model内幕机制详解

    Ø Critic Model内幕机制及其问题详解

    Ø 强化学习中的Advantage及 Generalized Advantage Estimation (GAE)详解

    Ø PPO算法设计及实现原理详解

    Ø Reward Model底层数学模型 Bradley–Terry model推导

    Ø Reward Trainer中的Linear Projection模块

    Ø Reward Model构建全生命周期详解

    Ø Reward Model Loss及KL Divergence Loss解密

    Ø PPO算法源码逐行解析

    Ø 数据集Dataset分析:Preference Dataset

    Ø 数据集Dataset分析:Prompt Dataset

    Ø 使用RLHF对齐模型Pipeline分析

    Ø Instruction定义策略

    Ø Reward Model训练

    Ø 什么时候适合使用SFT后的模型作为基础Reward Model?

    Ø Direct Preference Optimization (DPO)原理

    Ø 从RLHF优化目标到DPO优化目标详解

    Ø DPO中的关键算法组件

    Ø DPO数据处理策略详解

    Ø DPO的损失函数和优化策略

    Ø DPO实现流程剖析

    Ø DPO源码实现

    Ø DPO与LoRA案例实现源码解析

    综合项目:使用PPO/DPO等实现垂直医疗/法律/金融等领域适配对齐案例源码逐行解析,实现包括增量预训练、有监督微调、RLHF(奖励建模、强化学习训练)和DPO(直接偏好优化)。提供完整PT+SFT+RLHF全阶段串起来训练的pipeline及基于知识库文件的LLM问答功能

    模块七:DeepSeek强化学习GRPO算法自适应优化的核心原理与实践

    Ø 大模型强化学习中的核心组件Policy Model、Reference Model、Reward Model、Value Model、Advantage Estimation总结

    Ø PPO中的value function实现和工程落地问题剖析

    Ø 为何advantage的计算是RL改进的关键?

    Ø GRPO与SFT模型

    Ø GRPO与Online Sampling详解

    Ø GRPO中的Rule-based和model-based奖励模型详解

    Ø GRPO算法及实现流程详解

    Ø GRPO与chain-of-thought-format instruction tuning data

    Ø 为何GRPO去掉了经典强化学习算法PPO中的Critic Model?

    Ø GRPO“estimating the baseline from group scores”有效性深度分析

    Ø GRPO中动态调整 gradient coefficient具体实现

    Ø Reward Model本质和有效性实现最佳经验分享

    Ø GRPO是如何借助改进KL divergence来有效实现Regulation的?

    Ø GRPO是如何实现 unbiased estimator的?

    Ø GRPO的Reward Model工作全流程详解

    Ø GRPO是如何实现normalized reward的?

    Ø GRPO中需要 process reward model的原因及具体实现详解

    Ø Iterative GRPO replay mechanism原理和实现详解

    Ø 如何动态更新reward model?

    Ø GRPO源码实现逐行解析

    Ø GRPO思考:大模型强化学习有效性的本质原因是什么?

    Ø 强化学习工程落地三大元素Data Source,Algorithm,and Reward Function最佳实践总结

    模块八:DeepSeek-R1源码的完整复现、源码详解及案例实验全流程

    Ø DeepSeek-R1源码复现SFT Dataset详解

    Ø DeepSeek-R1源码复现SFT Tokenizer详解

    Ø DeepSeek-R1源码复现SFT SFTTrainer详解

    Ø DeepSeek-R1源码复现SFT Training loop详解

    Ø DeepSeek-R1源码复现accuracy_reward详解

    Ø DeepSeek-R1源码复现 format_reward详解

    Ø DeepSeek-R1源码复现 reasoning_steps_reward详解

    Ø DeepSeek-R1源码复现get_cosine_scaled_reward详解

    Ø DeepSeek-R1源码复现GRPO SYSTEM_PROMPT详解

    Ø DeepSeek-R1源码复现GRPO GRPOScriptArguments详解

    Ø DeepSeek-R1源码复现GRPO checkpoint详解

    Ø DeepSeek-R1源码复现GRPO dataset详解

    Ø DeepSeek-R1源码复现GRPO reward functions详解

    Ø DeepSeek-R1源码复现GRPO conversation格式化详解

    Ø DeepSeek-R1源码复现GRPO GRPOTrainer详解

    Ø DeepSeek-R1源码复现GRPO Training loop详解

    Ø DeepSeek-R1源码复现Evaluation详解

    Ø DeepSeek-R1源码复现generate方法详解

    Ø DeepSeek-R1源码复现案例动手实验

    模块九:DeepSeek企业级Agentic-based应用技术的十大核心技术解析

    Ø 大模型Agent智能体基础性技术Function Calling详解与实现

    Ø 基于Function Calling的Tool Calling技术详解与实现

    Ø ReAct技术详解、源码实现及其在LangGraph中的实现

    Ø 大模型Agent智能体基于Session的Memory管理技术详解

    Ø 大模型Agent智能体基于User的Memory管理技术详解

    Ø 大模型Agent智能体 self-editing memory技术介绍

    Ø 大模型Agent智能体实现Unified/Unlimited状态管理技术详解

    Ø 大模型Agent智能体并行技术、数据管理技术详解

    Ø 分布式大模型Agent智能体Multi-Agent框架原理与技术介绍

    Ø 大模型Agent智能体Human-in-the-Loop原理与技术介绍

    Ø 综合案例:Voice ReAct Agent是一个基于ReAct风格的智能代理,结合了OpenAI的实时API和 LangChain工具,为用户提供了实时语音交互功能。用户可以轻松定制工具与指令,构建个性化的语音助手,适用于各种交互场景。

    模块十:基于DeepSeek构建工业级的Stateful多智能体系统全解析

    Ø State Management技术详解:短期、中期、长期状态的区分与实现。

    Ø Memory Schema 的持久化设计:用户档案与任务记忆管理。

    Ø LangGraph Store 的记忆存储优化:高效的数据存取策略。

    Ø 多模态数据的状态集成:从结构化数据到非结构化数据。

    Ø Self-editing Memory 实现:记忆实时更新与数据清理机制。

    Ø 多状态切换与调度策略:Task-Oriented 的管理方案。

    Ø 多智能体间的记忆共享:在协作中的关键技术。

    Ø State Reducers 的动态应用:优化状态更新与路由决策。

    Ø RAG(Retrieval-Augmented Generation)与记忆的整合。

    Ø LangGraph Store 长期记忆的优化技术。

    Ø Memory Schema 的设计与扩展:支持复杂场景的持久化记忆。

    Ø 任务记忆与用户档案的同步更新机制。

    Ø 动态记忆管理与数据清理策略。

    Ø 长期记忆的资源分配与检索技术。

    Ø 多模态记忆的存储与应用优化。

    Ø 长期记忆在分布式协作中的应用场景。

    Ø 综合项目:MemoryAI Companion提供长期记忆管理功能,通过Pinecone向量存储实现语义记忆,结合Trustcall库进行记忆更新(支持Patch和Insert模式),适用于个性化聊天机器人和知识管理系统,确保持久的上下文理解,显著提升用户交互体验。

    模块十一:基于DeepSeek构建大模型智能体Human-in-the-Loop技术详解

    Ø Human-in-the-Loop 的核心技术:用户交互与反馈闭环设计。

    Ø 动态断点 (Breakpoints) 技术:优化调试与开发流程。

    Ø Streaming 与异步技术应用:实时用户体验的提升。

    Ø Time Travel 功能设计:状态快照的捕获与回溯。

    Ø 用户反馈与状态更新机制:提高智能体的适应性。

    Ø Map-Reduce 框架在 UX 中的应用:提升任务处理效率。

    Ø 高效界面交互设计中的记忆集成。

    Ø 异步 Streaming Assistant 的开发与案例分析。

    Ø AIMessage 与 HumanMessage 的多场景应用。

    Ø 综合项目:Creative Canvas 是一个通过AI辅助创作和记忆管理的智能协作平台,支持Markdown实时渲染与版本控制,适用于创意写作、代码开发和团队协作,提升创作效率与内容质量。

     

    模块十二:DeepSeek智能体幻觉检测与控制技术及可信度优化最佳实践

    Ø DeepSeek强化学习中out-of-distribution问题解析

    Ø 幻觉识别与分类:利用模式识别技术,识别并分类LLM生成的幻觉信息,确保幻觉问题能被有效检测并评估。

    Ø 幻觉检测工具应用:结合统计分析、数据集分析和现有工具(如机器学习算法),实时检测LLM生成内容中的幻觉现象。

    Ø 知识图谱协同:通过将知识图谱嵌入LLM,利用图谱补充事实性信息,减少幻觉生成,提高生成内容的准确性。

    Ø 对抗性训练与数据清洗:通过对抗性训练来提升LLM对模糊和恶意输入的鲁棒性,并使用数据清洗技术,过滤幻觉可能来源的错误数据。

    Ø 后处理技术:应用文本纠错、语义增强和其他后处理技术,修正LLM生成的内容,确保输出的可靠性和准确性。

    Ø 优化采样策略:在推理阶段使用束搜索(Beam Search)、随机采样和Top-K采样等优化采样策略,减少幻觉的发生几率,提升生成质量。

    Ø 解码优化:通过对比不同解码策略,优化LLM的输出质量,降低推理过程中幻觉的产生。

    Ø 自我反馈与自动化修正机制:构建自动化反馈系统,LLM在生成过程中自动检测并修正幻觉信息,增强自我调节能力。

    Ø 多层面质量评估:使用多种评估方法,分析LLM生成内容的准确性与可靠性,定期优化模型生成质量。

    Ø 系统架构设计与协同:设计协同架构,将LLM与知识图谱有效整合,增强LLM在复杂任务中的事实生成能力,并减少幻觉。

    Ø DeepSeek中的强化学习如何克服数据分布的问题?

    模块十三:DeepSeek企业级应用云端与本地化架构方案及实施细节

    Ø DeepSeek在企业的部署架构与方案

    Ø 云端部署:DeepSeek官方平台API调用第三方MaaS服务

    Ø 本地化部署:算力评估、开源模型部署环境搭建

     

    模块十四:企业级DeepSeek环境的API与应用开发及多场景应用

     

    Ø API详解:讲解各大云厂商和企业内部DeepSeek部署环境的典型API

    Ø DeepSeek企业应用的基本架构

    Ø 企业应用场景探讨:知识管理、智能客服、软件研发、辅助决策等

    模块十五:企业知识库与向量检索增强系统(RAG)全栈解析

    Ø 知识库/向量检索增强技术原理

    Ø 解析RAG中向量空间模型、相似度计算原理;

    Ø 结合实际案例讲解文本切割的原则和技巧应用于上市公司财报分析、售前/售后技术支持等场景。

    Ø 知识库构建中的图表处理和数据清洗

    Ø RAG与知识图谱的结合以及GraphRAG

    模块十六:企业级智能体Agent系统架构、开发与多智能体协作

    Ø 典型智能体架构:介绍基于LLM的智能体系统架构及其组成要素

    Ø 智能体常见的部署方案

    Ø 智能体开发与实施:根据企业需求开发智能体、上线运行和持续优化

    Ø AgenticRAG:结合检索增强生成技术,提高智能问答效果和准确度。

    Ø 多智能体协作:多智能体协作方式和多智能体系统开发框架。

    模块十七:DeepSeek在企业商业情报与软件研发领域的落地案例详解

    Ø DeepSeek 企业落地案例详解(一)情报收集与分析

    Ø 商业情报、公共舆情收集与分析的痛点

    Ø RAG架构及基于DeepSeek V3的多模态情报库与智能问答系统构建

    Ø 智能体架构的Agentic RAG技术及基于DeepSeek R1的情报分析

    Ø DeepSeek 企业落地案例详解(二)企业级软件研发智能助手

    Ø 企业级软件研发的痛点及已有AI Coding工具的不足

    Ø CodeGraphRAG 技术及在企业软件研发智能体中的应用

    Ø 基于 DeepSeek R1 的代码审查助手

    Ø 基于 DeepSeek V3 的 UI 测试助手

    模块十八:DeepSeek环境下的风险管理与供应商选择策略

    Ø 风险管理与供应商选择

    Ø 安全风险和业务风险及应对策略

    Ø 利用开源社区及生态寻找第三方DeepSeek合作伙伴

    模块十九:DeepSeek引领下的竞争格局、行业影响、未来趋势与战略思考

    Ø  美国和其他国家在大模型和AI基础设施方面的投入现状

    Ø 中国各大模型公司、云公司及应用生态的竞争格局和发展趋势

    Ø DeepSeek对美国科技股(如Nvidia)和中美风险投资市场影响

    Ø 开源模式推动行业价格战和技术生态的重构

    Ø 大模型时代是否已开启下半场?

    Ø 出口管制、数据安全、信创方案及对未来技术发展的影响

    Ø 新业务、新岗位、新就业与企业转型

    六、特邀专家:

    王老师:杰出AI工程师、Chief Data Scientist及首席机器学习工程师,拥有丰富的大语言模型(LLM)和智能Agent产品落地经验。专注于对话式AI(Conversational AI)、生成式AI(Generative AI)、大语言模型(LLM)的微调与对齐(Fine-tuning/Alignment)、LLM幻觉检测与控制技术,以及 LLM测试时计算(Test-Time Compute) 等领域。在硅谷任职期间,王老师曾领导多个企业级大模型与Agent产品的架构设计和开发,不仅满足复杂业务需求,还有效最小化LLM的幻觉(Hallucinations)和偏见(Biases)风险,助力企业构建高效可靠的生成式AI解决方案。作为一名解决问题的专家,他擅长克服技术、组织或战略层面的障碍,尤其是在紧迫时间节点和高压环境中交付优质解决方案。自2022年以来,王老师专注于提供以业务驱动为核心、幻觉最小化的生成式AI/LLM解决方案,利用包括GPT、LLama 2/3、Mistral、Claude等主流模型,聚焦于持续预训练(Continual Pretraining)、指令微调(Instruction Fine-tuning)、小型化微调(PEFT)、低秩适配(LoRA)、量化(Quantization)、强化学习(RLHF、PPO、DPO、KTO、ORPO、RLAIF)等技术,以及Responsible AI、Red Teaming Engineering和Agent应用开发(Agentic Application)。此外,王老师曾在职业生涯中领导了 11个大型NLP项目,合作企业包括 ByteDance、Apple、PayPal、Chase Bank、Faethm、LinkedIn 、Tencent和Pearson等。

    李老师:中科院计算所高级工程师,开源项目活跃开发者,20 余年编程与软件开发经验,10余年企业数字化平台研发与产业化工作经历。历任国家重点实验室课题组负责人,上市公司事业群技术总监、首席技术专家。

    李老师项目和授课经验丰富,为多家知名企业和单位提供过服务,包括:中国电信集团、中国移动研究院、国家信息中心、中石化、银联、交通银行、上海期货交易所、Intel亚太研发中心等企业和单位。

    荣获中国软件协会“优秀CTO”等多项荣誉,兼任中国新一代IT产业联盟分委会秘书长、全国高校人工智能与大数据创新联盟专家委员、北京开源创新委员会委员。

     

    七、颁发证书:

    本次培训结束后,将进行专业认证考试,经考核合格可申请以下两类证书

    A类证书:由中国通信工业协会颁发通信和信息技术创新人才培养工程《Agent智能体研发工程师》、《DeepSeek全栈工程师》、《DeepSeek技术与应用工程师高级职业技术水平证书,三个专业任选其一,证书可在官方网站查询,同时可作为聘用、任职、定级、晋升和招投标重要参考依据。

    B类证书:在获得A类证书的基础上,颁发一本高级人工智能应用工程师,证书可在官方网站查询,可作为聘用、任职、定级、晋升和招投标重要参考依据。                                                                                                               

    八、报名材料及费用:

    1、报名材料:报名申请表、2 寸证件照 1 张(请注明姓名及单位)

    2、参会费用:

    A类证书:3980元/人。费用包含(会议费,报名费、学习费、资料费、考核建档及证书费)。

    B类证书:5680元/人。费用包含会议费,报名费、学习费、资料费、考核建档及两本证书费

    3、本次研修讲座由北京智益方信息科技有限公司收取相关费用并开具发票。




    Event Tags

    Perhaps you'd be interested in

    Question

    All Questions

    Haven't posted any questions yet, grab a sofa!

    OrganizersMore

    CIIT

    CIIT

    在2013年为了响应国家中长期人才发展规划纲要,为推进工业化和信息化的深入融合,满足国民经济和社会发展对通信与信息技术创新人才的需要,中国通信工业协会推出了通信和信息技术创新人才培养工程,成立了通信与信息技术创新人才培养工程项目办公室,主要工作是项目推广,人才测评,培训等工作。

    WeChat Scan

    Share to WeChat→