AI大模型应用企业内部数据-2天

  培训讲师:尹立庆

讲师背景:
尹立庆老师多年从事人工智能、深度学习、大数据、区块链、云计算、物联网研发工作经验,资深软件架构师,数学博士,北航移动云计算硕士,Cloudera大数据认证,项目管理师(PMP)认证,移动云计算专家,主要研究方向包括人工智能、深度学习、机器学 详细>>

尹立庆
    课程咨询电话:

AI大模型应用企业内部数据-2天详细内容

AI大模型应用企业内部数据-2天

AI大模型应用企业内部数据
-15240011430课程简介
大模型的应用场景很广泛,可以用于处理多种类型的对话,包过对话机器人、问答机器人和客服机器人等。它还可以用于各种自然语言处理任务,比如文本摘要、情感分析和信息提取等。例如,在一个问答系统中,大模型可以提供准确的答案,解决用户的疑惑;在一个客服机器人中,他可以帮助用户解决问题,提供更好的服务体验。
大模型是用网络上之前的数据训练的,因此会有信息滞后的局限性。虽然这些模型的通用知识很棒,但是如果能让它们连接到自定义的数据和计算,就会有更多的实用价值,LangChain即可以解决以上的局限性和提供实用价值。LangChain是一个开源的框架,它可以让AI开发人员把大型语言模型(LLM)和企业内部数据结合起来。它提供了Python或JavaScript(TypeScript)的包。
LangChain可以让自己的LLM在回答问题时参考整个数据库。所以可以让自己的大模型访问最新的数据,比如报告、文档和网站信息。
此课程是尹立庆老师多年人工智能工作经验的分享,重点介绍LangChain带来的技术变革与应用落地和未来发展趋势。
-15240011430培训目标

深入讲解AI大模型应用企业内部数据,大模型微调;
LangChain概述;
LangChain环境部署;
LangChain的Pipeline现场实操;
深度解读LangChain带来的技术变革与行业应用落地;
深度解读业界最新的LangChain技术;
深度解读LangChain的原理、技术特性;
深度解读glm2_6b大模型;
深度剖析LangChain的价值、应用场景;
课程重点探讨LangChain的未来发展趋势;
介绍LangChain实施落地技术;
-15240011430培训对象

本课程适合于对ChatGPT、LangChain感兴趣的人员;
本课程适合于架构师、技术经理、高级工程师;
适合于企业科技研发人员和人工智能科学家;
-15240011430培训方式

以课堂讲解、演示、案例分析为主,内容偏实用,结合讲解与演示方式,循序渐进,辅以互动研讨、现场答疑、学以致用。
-15240011430课程安排

课程时间:2天
课程内容:
时间
内容
备注
第1天
AI大模型应用企业内部数据大模型微调(深入讲解AI大模型应用企业内部数据)(120分钟)
AI大模型应用企业内部数据
大模型微调
大模型微调的概念和意义
预训练模型的优势和应用场景
大模型微调基本原理
大模型微调方法
数据加载、模型训练、调参等常见操作的优化和加速方法
使用可视化工具进行模型训练过程的分析和调试
大模型微调的基本流程和关键步骤
常用的深度学习框架和工具
TensorFlow、PyTorch等常见深度学习框架
Parameter-Efficient Fine-Tuning (PEFT)
预训练阶段
目标任务准备
构建微调任务
PEFT微调
常用的PEFT方法
Adapter Tuning
Prefix Tuning
Prompt Tuning
P-Tuning
LoRA
案例剖析:应用大模型微调技术解决实际问题
大模型微调技术与实践(大模型微调技术与实践)(90分钟)
大模型微调技术与实践
常见的大模型微调技术
知识蒸馏
迁移学习
领域适应
案例大模型微调的实践
文本分类
图像识别
自然语言处理
探讨大模型微调过程中可能遇到的问题和解决方案
选择合适的预训练模型并进行微调
如何评估微调效果和改进方案
实际应用案例分享与讨论
LangChain概述(LangChain概述)(30分钟)
LangChain概述
LangChain介绍
LangChain的重要概念
Components
Prompts
Chains
Agents
大模型微调
LangChain工作原理(LangChain工作原理)(30分钟)
LangChain工作原理
LangChain如何与OpenAI的LLM合作
LoRA模型(LoRA模型)(90分钟)
LoRA模型
LangChain如何与OpenAI的LLM合作
LoRA模型概述
绘画模型
LoRA 原论文
LoRA模型的核心思想
数学原理
LoRA模型训练
低秩适应训练方法
LoRA 库的GitHub存储库
时间
内容
备注
第2天
深度解读glm2_6b大模型(深度解读glm2_6b大模型)(90分钟)
深度解读glm2_6b大模型
glm2_6b大模型的原理
GPT(Generative Pre-trained Transformer)架构
glm2_6b大模型数据集
glm2_6b大模型的部署
准备环境
安装依赖库
下载模型权重
加载模型
部署API或服务
调优和监控
glm2_6b大模型的训练
glm2_6b大模型的应用
自然语言处理
文本生成
机器翻译
问答系统
LangChain环境部署(LangChain环境部署)(90分钟)
LangChain环境部署
安装依赖包
配置环境
获取pinecone环境和KPI_KEY
获取OPENAI_KPI_KEY
LangChain的Pipeline现场实操(LangChain的Pipeline现场实操)(90分钟)
LangChain的Pipeline现场实操
Pipeline执行流程
大模型包装器
LangChain应用实战(LangChain应用实战)(90分钟)
模型(LLM包装器)
提示Prompts
Prompts模板
链Chains
嵌入和向量存储Embeddings and VectorStores
代理Agents
示例代码

 

尹立庆老师的其它课程

人工智能大模型应用案例实战-15240011430课程简介大模型也称为大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。这些模型通常基于深度学习架构,如Transformer等,这有助于它们在各种NLP任务上取得令人惊叹的表现。目前的大语言模型(如GPT和BERT)采用与小模型类似的Transformer架

 讲师:尹立庆详情


COPYRIGT @ 2001-2018 HTTP://WWW.QG68.CN INC. ALL RIGHTS RESERVED. 管理资源网 版权所有