- 学习中
- 已学完
- 未学习
- 即将上线
大模型开发编程基础
35课时47小时44分
| D1 Python入门 免费 | D2 变量和简单数据类型 免费 | D3 语句 免费 |
| D4 列表与元组 免费 | D5 字符串 免费 | D6 字典与集合 免费 |
| D7 函数 | D8 类与对象 | D9 封装 |
| D10 继承 | D11 多态 | D12 程序结构 |
| D13 异常 | D14 函数的重写与重载 | D15 迭代器与生成器 |
| D16 函数式编程 | D17 文件IO |
| D1 线性代数 | D2 Numpy库的介绍 |
| D1 Matplotlib基础 | D2 基本使用 | D3 绘制图形 |
| D4 Pandas基础 | D5 Series & DataFrame | D6 数据清洗与绘图 |
| D1 数据结构与算法基础 | D2 线性结构 | D3 树型结构 |
| D4 排序算法 | D5 查找算法 |
| D1 Git教程导学 | D2 Git教程练习 | D3 GitHub操作 |
| D4 Pycharm集成Git、GitHub和码云 |
| D1 人工智能环境介绍-学习环境介绍 |
大模型开发算法开发核心课程
67课时48小时40分
| D1 为什么要学微积分、导数的含义、斜率的极值和极小值 | D2 常见的导数、不可微函数、导数的性质、切平面和偏导数、梯度 |
| D1 机器学习介绍与定义 | D2 KNN决策边界 | D3 距离计算方式 |
| D4 使用数学方法实现KNN | D5 前向传播与损失函数 | D6 反向传播的学习率与梯度下降 |
| D7 自求导的方法实现线性回归算法 | D8 深度学习框架PyTorch的tensor(1) | D9 深度学习框架PyTorch的tensor(2) |
| D10 基于PyTorch框架的线性回归原理 | D11 PyTorch技巧与模型查看 | D12 基于TensorFlow框架的线性回归 |
| D13 TensorFlow技巧与模型查看 | D14 基于PaddlePaddle框架的线性回归 | D15 PaddlePaddle技巧与模型查看 |
| D16 【项目】基于PyTorch的房价预测 | D17 【作业】基于PyTorch的鲍鱼年龄判定 | D18 【作业】基于sklearn共享单车租赁预测 |
| D1 概率与事件 | D2 生日问题与概率的反直觉、条件概率 | D3 贝叶斯与朴素贝叶斯 |
| D4 随机变量与离散分布 | D5 连续概率分布与数学概念 | D6 贝叶斯分类案例 |
| D7 贝叶斯多分类案例 |
| D1 曲线拟合与非线性化、阶跃函数 | D2 sigmoid、tanh、ReLU、Softmax激活函数 | D3 leaky ReLU、PReLU、ELU激活函数 |
| D4 极大似然估计与交叉熵损失函数 | D5 逻辑回归与二分类问题 | D6 逻辑回归项目实现与练习 |
| D1 全连接与链式求导法则 | D2 Softmax与交叉熵 | D3 优化器和优化方法 |
| D4 神经网络的可解释性与欠拟合 | D5 神经网络的过拟合 | D6 神经网络的正则化 |
| D7 神经网络的过拟合解决方案 | D8 深度学习回顾与任务 | D9 深度学习基础 |
| D10 知识回顾 |
| D1 【项目】基于DNN的风电功率预测 | D2 DNN的时序预测与缺陷 | D3 RNN为什么能做时序预测? |
| D4 【项目】基于RNN的风电功率预测 | D5 RNN的梯度消失和梯度爆炸 | D6 Word Embeddging词嵌入 |
| D7 Word2Vec | D8 Word2Vec优化 | D9 LSTM:长-短期记忆网络 |
| D10 BiLSTM | D11 门控循环单元 |
| D1 Encoder-Decoder | D2 注意力机制引入 | D3 注意力机制 |
| D4 soft-attention | D5 绝对位置编码 | D6 Layer-Normaliaztion |
| D7 Attention中的mask | D8 Transformer | D9 【代码】手写Transformer网络 |
| D10 【项目】从零开始手写GPT |
| D1 认识模拟声音与数字声音 | D2 声音时域与频域转换 | D3 声音的mel特征提取 |
大模型实战进阶实战
93课时19小时34分
| D1 Linux系统介绍 | D2 Windows环境-wsl2环境安装 | D3 Linux服务器连接 |
| D4 Ubuntu基本命令 |
| D1 常见大模型介绍 | D2 大模型与人工智能关系 | D3 大模型的基础原理 |
| D4 大语言模型的“前世今生”与发展 | D5 LLM预测过程与提示工程 | D6 如何高效地使用Prompt |
| D1 大模型的部署与应用基础章节介绍 试听 | D2 RESTfuI风格api 试听 | D3 使用api接口调用大模型 试听 |
| D4 大模型相关库与概念 试听 | D5 Windows本地部署与GPU并行-Qwen2.5 试听 | D6 Windows本地部署-Chatglm3-6B |
| D7 ollama本地运行大模型 | D8 autodl的GPU部署大模型 | D9 Windows环境-wsl2环境安装 |
| D10 Ubuntu下CUDA和cuDNN安装-wsl | D11 Windows环境-wsl的docker部署 | D12 Ubuntu下CUDA和cuDNN安装-Docker |
| D13 vllm进行推理加速优化 | D14 多轮对话机器人实现 | D15 入门FastAPI |
| D16 基于fastapi构建对话机器人 | D17 对话机器人WEBUI-Streamlit | D18 对话机器人WEBUI-gradio |
| D19 temperature和top_p参数常见设置 |
| D1 Langchain部署本地大模型 | D2 Langchain-Prompt提示词 | D3 Langchain-输出解析器 |
| D4 Langchain-chain链 | D5 Langchain-memory记忆 | D6 【项目】LangChain-代理实现天气预报 |
| D7 RAG的介绍 | D8 RAG的文本加载 | D9 RAG的文本分割 |
| D1 项目背景介绍 | D2 环境搭建介绍 | D3 核心功能梳理与作业布置 |
| D4 Agent部分实现 | D5 工具部分实现 | D6 知识库部分实现 |
| D7 webui部分实现 |
| D1 大模型训练阶段介绍 | D2 如何进行分布式训练 | D3 数据并行DP |
| D4 分布式数据并行DDP | D5 Accelerate | D6 Deepspeed |
| D7 混合精度训练 | D8 GPT的训练与优化训练 |
| D1 大模型微调的意义 | D2 什么是参数高效微调 | D3 Bitfit-tuning实操 |
| D4 Prompt-tuning实操 | D5 P-tuning实操 | D6 Prefix-tuning实操 |
| D7 LORA实操 | D8 LLaMA-Factory微调角色扮演大模型 | D9 LLaMA-Factory微调文旅多模态大模型 |
| D10 什么是量化Quantization | D11 GPTQ量化的原理与优势 | D12 AWQ量化的原理与优势 |
| D1 RK3588部署deepseek对话大模型 | D2 RK3588部署Qwen多模态大模型 |
| D1 函数的基本概念与使用 | D2 类的基本概念与使用 | D3 模块与包 |
| D4 异常处理机制 | D5 迭代器与生成器 | D6 正则表达式 |
| D7 装饰器 | D8 文件操作 | D9 多进程 |
| D10 多线程 | D11 协程 | D12 网络的基础知识 |
| D13 网络编程 |