首页
课程中心
专家团队
新闻中心
精彩活动
关于我们

课程中心

大模型综合应用实战

  • 课程时间:10月25日-10月26日
  • 主讲老师:郝老师
  • 公开课费用:6500元/人
  • 课程地点:北京

一、培训目的

本次培训旨在通过理论与实践相结合的方式,使学员全面掌握大型预训练模型的工作原理、优化技巧以及在各种业务场景下的应用策略。培训致力于培养能够独立构建、优化和部署大模型解决方案的专家型人才。

 

二、培训要点

♦ 大模型的理论框架与技术背景。

♦ 高效的数据处理与模型微调技术。

♦ 大模型在自然语言处理、计算机视觉、语音识别等领域的具体应用实例。

♦ 如何评估模型性能并解决常见问题。

♦ 大模型前沿技术。

♦ 最佳实践分享与行业趋势解读。

 

三、证书

课程结束,颁发中科院计算所培训中心“大模型综合应用实战”结业证书。

 

本课程有企业内训形式,授课老师、课程内容、教学方式均依据企业的培训需求灵活设置。

 

本网站内容包括并不限于课程介绍、课程大纲、上课照片、老师介绍等等资料及信息,未经允许不得抄袭和转载。

培训对象

1、有意将AI技术融入业务的企业领导者和技术决策者,意在推动组织的技术革新和智能转型;

2、希望提升技能的软件工程师和数据科学家,寻求提升技能和项目实战经验;

3、对人工智能充满热情的学习者,希望快速学习大模型应用。

本课程分2天时间讲授。

第一讲 人工智能技术发展概览

AI大模型技术发展与演进

人工智能四轮技术特点

AI技术浪潮与企业成就

大模型应用技术总览

提示词(Prompt)工程

AI智能体概览

大模型微调技术路线全览

预训练技术与三种网络架构

 

第二讲 自然语言处理

统计语言模型

  • gram模型

马尔科夫假设

神经网络语言模型

机器学习的分类:监督学习与无监督学习

NNLM模型详解

RNN网络

基于Transformer的大语言模型

Transformer详解

编解码架构与注意力机制

BERT与GPT模型

 

第三讲 大模型微调技术

大模型微调之PEFT

Adapter核心技术

Prefix Tuning核心技术

P-Tuning v1与 v2

大模型微调之LoRA

LoRA 核心技术

LoRA对比Adapter与Soft Prompts

AdaLoRA与QLoRA

大模型高效微调PEFT

PEFT技术分类

大模型微调发展趋势

 

第四讲 大模型开发实战

大模型开发工具库 HF Transformers

Transformers库简介

使用Pipelines快速实践大模型

使用Tokenizer编解码文本

使用Models加载和保存模型

部署自己的开发环境

GPU设备选型与部署

VS Code远程环境搭建

实战Transformers模型微调

数据集处理:填充与截断

训练数据与超参数配置

模型训练评估

实战Transformers 微调distilbert模型

实战Transformers模型量化

模型参数与显存占用计算基础

GPTQ 面向 Transformer 模型量化技术

激活感知权重量化(AWQ)算法

使用 BitsAndBytes (bnb)快速实现参数精度量化

大模型高效微调工具HF PEFT

PEFT 与 Transformers 结合

PEFT 核心类定义与功能说明

LoRA 低秩适配 OPT-6.7B 文本生成任务

LoRA 低秩适配 OpenAI Whisper-Large-V2 语音识别任务

实战QLoRA 微调 ChatGLM3-6B

 

第五讲 LangChain 大模型应用开发框架

大模型应用开发框架 LangChain 简介

LangChain 典型使用场景

LangChain 基础概念与模块化设计

LangChain 核心模块入门与实战

标准化的大模型抽象:Mode I/O

大模型应用的最佳实践:Chains

赋予应用记忆的能力:Memory

框架原生的数据处理流:Data Connection

实战基于LangChain和ChatGLM私有化部署聊天机器人

ChatGLM3-6B 模型私有化部署

LangChain 与 ChatGLM 生态集成

使用 LLMChain 调用私有化 ChatGLM2-6B 模型服务

使用 ConversationChain 实现 ChatGLM2-6B 连续对话

使用 Gradio WebUI 启动聊天机器人

 

第六讲 实战私有化数据微调

实战私有数据微调ChatGLM3

使用 LangChain + GPT-3.5-Turbo 生成训练数据样例

训练数据解析、数据增强和持久化存储

自动化批量生成训练数据集流水线

使用 QLoRA 小样本微调 ChatGLM3

ChatGLM3 微调前后效果对比

大模型训练过程分析与数据优化

ChatGPT大模型训练技术RLHF

万亿级 Token 预训练语言模型

有监督指令微调(SFT)语言模型

使用 RLHF 实现人类价值观对齐(Alignment)

使用SFT微调预训练语言模型

训练奖励模型(Reward Model)

使用 PPO 优化微调语言模型

 

第七讲 大模型前沿技术

混合专家模型(MoEs)技术揭秘

多层次混合与表示学习

稀疏门控MoEs

GShard、GLaM、Switch Transormer

走向万亿模型

大模型分布式训练框架Microsoft DeepSpeed

Zero Redundancy Optimizer (ZeRO) 技术

DeepSpeed 框架和核心技术

分布式模型训练并行化技术对比

DeepSpeed 与 Transformers 集成训练大模型

DeepSpeed ZeRO 配置详解

使用 DeepSpeed 单机多卡、分布式训练

实战 DeepSpeed ZeRO-2 和 ZeRO-3 训练

单机单卡,单机多卡训练

集群训练

流水线并行方式

汇款、微信转帐

汇款信息:

单位名称:北京市海淀区中科院计算所职业技能培训学校

开户行:工行海淀西区支行

账号:0200 0045 1920 0043 667

开户银行代码:1021 0000 0458

 

微信转账:

    步骤一:打开微信,扫描二微码付款时,点击打开微信右下角里的“发现”,在列表界面有一个“扫一扫”选项,点击打开“扫一扫”(如下图):

    步骤二:点击打开“扫一扫”后,会出现一个扫描框,将中科院计算所培训中心二维码/条码放入框内,即可自动扫描,并显示支付信息,输入付款金额。

                                                                                                        

    (中科院计算所培训中心二维码)

 

    步骤三:点击 “添加付款备注”,填写付款人姓名和单位全称,所有信息核对无误后,点击“确认付款”,完成支付。

 

                

 

  • 注意:步骤三是为了尽快确认您的培训费用是否到帐,方便为您查帐,所以一定要把付款人姓名和单位名称填写完整,如果姓名和单位名称超过20个汉字,单位名称可以填写简称。

京公网安备 11010802025851号

 京ICP备14030124号-1  

免费电话

010-82661221

微信咨询

微信客服

在线报名

返回顶部