(1)AI概述与数学基础:了解人工智能的发展历程、核心概念及其相互关系(人工智能、机器学习、深度学习、生成式AI)。学习三大学术流派的主要思想(符号主义、行为主义、连接主义)。回顾AI所需的数学基础,包括线性代数(向量、矩阵、特征分解)、概率论(条件概率、贝叶斯定理、常见分布)、微积分(导数、偏导数、梯度下降)和最优化方法的核心概念。
(2)机器学习基础:掌握机器学习的主要类型:监督学习(有标签数据)、无监督学习(无标签数据)、强化学习(奖励机制)。理解机器学习系统的建构建准则和模型评估方法(准确率、精确率、召回率、F1分数、ROC-AUC)。学习数据准备、清洗、预处理的基本概念和常用方法。
(3)监督学习算法:深入理解经典监督学习算法的原理与实现。掌握线性回归与逻辑回归(最小二乘法、梯度下降、Sigmoid函数)。理解决策树(信息增益、基尼系数、剪枝策略)和集成学习方法(随机森林、梯度提升决策树GBDT、XGBoost、LightGBM)。掌握支持向量机(SVM)的核心思想(最大间隔、核技巧)和朴素贝叶斯的原理(贝叶斯定理、条件独立性假设)。
(4)无监督学习算法:深入理解无监督学习的核心算法。掌握K-Means聚类的原理(K值选择、距离计算、收敛条件)。学习层次聚类(凝聚式、分裂式)和DBSCAN密度聚类的工作原理。掌握主成分分析(PCA)降维技术的核心思想。了解高斯混合模型(GMM)和期望最大化(EM)算法的原理。
(5)神经网络基础:理解神经元模型、激活函数(Sigmoid、Tanh、ReLU、Leaky ReLU、Softmax)的作用与选择。掌握多层感知器(MLP)的网络结构、前向传播与反向传播算法。学习BP神经网络的原理与实现。掌握损失函数(MSE、交叉熵)、优化器(SGD、Adam、RMSprop)的配置方法。
(6)深度学习框架与开发环境:掌握PyTorch/TensorFlow等主流深度学习框架的安装与配置。学习GPU加速原理与CUDA环境配置。了解国产化深度学习框架(PaddlePaddle、MindSpore)的基本特点。实现深度学习开发环境的搭建与验证。
(7)卷积神经网络(CNN):深入理解卷积运算的数学原理,掌握卷积层(卷积核、步长、填充、输入输出通道)、池化层(最大池化、平均池化)的作用。学习经典CNN架构(LeNet、AlexNet、VGGNet、ResNet、DenseNet)的演进与特点。掌握CNN在图像分类、目标检测中的应用。
(8)循环神经网络(RNN):理解循环神经网络处理序列数据的原理,掌握简单RNN、LSTM(长短时记忆网络)、GRU的结构特点与适用场景。学习序列到序列(Seq2Seq)模型和注意力机制(Attention)的基本原理。掌握RNN在文本分类、情感分析、时序预测中的应用。
(9)Transformer与预训练模型:深入理解Transformer的编码器-解码器架构、自注意力机制、多头注意力、位置编码的核心原理。学习BERT、GPT系列模型的架构原理与训练方法。掌握预训练语言模型的微调技术,包括全参数微调和参数高效微调(LoRA)。
(10)计算机视觉算法:系统学习计算机视觉的核心任务。掌握图像分类算法的实现(ResNet、EfficientNet)。深入理解目标检测算法(Faster R-CNN、YOLO系列、SSD)的原理与演进。学习图像分割技术(FCN、U-Net、DeepLab)。了解图像生成与增强算法(GAN、扩散模型)。
(11)自然语言处理算法:掌握自然语言处理的核心任务。学习文本预处理技术(分词、词嵌入、词表示)。理解语义理解算法(文本分类、情感分析、命名实体识别)和文本生成算法(机器翻译、摘要生成)的实现方法。了解多模态学习的基本概念和应用。
(12)大模型与AI工程化实践:了解大模型的核心技术(混合专家模型MoE、DeepSpeed、Megatron-LM)。掌握检索增强生成(RAG)的原理与实现,构建知识增强的AI应用。学习大模型应用开发框架(LangChain)和智能体(Agent)基础理论。掌握模型量化、剪枝、知识蒸馏等压缩技术。了解大模型本地化部署与微调实战(基于ollama、vLLM、Llama Factory)。综合完成一个完整的AI项目(如推荐系统、智能问答助手),涵盖需求分析、算法选型、模型训练、优化加速和部署应用的全流程。