人工智能原理复习--机器学习

2023-12-13 18:48:36

上一篇

人工智能原理复习–搜索策略(二)

机器学习概述

学习系统的基本结构

环境
学习
知识库
执行



环境向系统的学习部分提供某些信息
学习利用这些信息修改数据库,以怎金系统执行部分完成任务的效能
执行部分根据知识库完成任务,同时把获得的信息反馈给学习部分

最重要的因素是`环境向系统提供的信息

机器学习分类:

  • 监督学习:决策树、支持向量机(SVM)、k-临近算法(KNN)
  • 无监督学习:k-均值、DBSCAN密度聚类算法、最大期望算法
  • 强化学习:环境,奖励,状态 ,动作–> 状态奖励

归纳(示例)学习

归纳学习是一种通过观察和分析现象,发现其中规律和模式,并据此进行预测和决策的方法。归纳学习的基本思想是通过从数据样本中归纳出一般性规律或模式,从而实现对未知数据的预测和分类。

归纳学习是通过一系列的示例(正例和反例)出发,生成一个反映这些示例本质的定义:

  • 覆盖所有的正例,而不包含任何反例
  • 可用来指导对新例子的分类识别

归纳学习过程可以分为以下几个步骤:

  1. 数据采集:收集需要学习的数据样本。
  2. 特征提取:从数据样本中提取出有用的特征,用于归纳学习。
  3. 模型训练:使用归纳学习算法从数据样本中归纳出一般性规律或模式。
  4. 模型评估:使用测试数据对归纳模型进行评估,计算出模型的准确率和误差。
  5. 模型应用:使用归纳模型对新的数据进行分类或预测。

概念描述搜索及获取

  • 例子空间:所有可能的正例、反例构成的空间
  • 假设空间:所有可能的假设(概念描述)构成的空间
  • 顶层假设:最泛化的概念描述,不指定任何的特征值
  • 底层假设:最特化(具体)的概念描述,所有特征都给定特征值
  • 假设空间的搜索方法:1、特化搜索(宽度优先,自顶向下) 2、泛化搜索(宽度优先,自底向上) 3、双向搜索(版本空间法)

ID3决策树算法

信息的定量描述
衡量信息多少的物理量称为信息量:

  • 若概率很大,受信者事先已有所估计,则该消息信息量就很小
  • 若概率很小,受信者感觉很突然,该信息所含信息量就很大

使用信息量函数 f ( p ) f(p) f(p)描述, f ( p ) f(p) f(p)条件:

  • f ( p ) f(p) f(p) 应是p的严格单调递减函数
  • 当p = 1时, f ( p ) = 0 f(p) = 0 f(p)=0, 当p = 0时, f ( p ) = ∞ f(p) = \infty f(p)=
  • 当两个独立事件的联合信息量应等于他们分别的信息量之和

信息量定义 :若一个消息 x x x 出现的的概率为 p p p, 则这一消息所含信息量为:
I = ? log ? p I = - \log{p} I=?logp

单位:

  • 以2为底,单位 b i t bit bit (常用)
  • 以e为底,单位 n a t nat nat
  • 以10为底,单位 h a r t hart hart

信息熵
所有可能消息的平均不确定性,信息量的平均值
H ( X ) = ? ∑ p ( x i ) log ? ( p ( x i ) ) H(X) = -\sum{p(x_i)\log{(p(x_i))}} H(X)=?p(xi?)log(p(xi?))

在这里插入图片描述
定义:

  • M ( C ) M(C) M(C) 为根节点总的信息熵
  • B ( C , A ) B(C, A) B(C,A) 为根据A属性分类后的加权信息熵的和,每一类占全部的比例作为加权,将分完之后的信息熵加权求和
  • g a i n = M ( C ) ? B ( C , A ) gain = M(C) - B(C,A) gain=M(C)?B(C,A)信息增益,信息增益越大越好

分别求出每个属性的信息增益,然后将最大的作为这个节点的分类属性

步骤:

  1. 首先求出根节点的信息熵
  2. 然后按每个特征求出对应的信息增益
  3. 比较得出最大的信息增益的特征作为给节点的划分属性
  4. 循环1-3步直到将全部类别分开,或者划分比例达到要求值

d在这里插入图片描述
ID3算法
优点:

  1. 计算复杂度不高
  2. 输出结果易于理解
  3. 可以处理不相关特征数据

缺点:

  1. 不能处理带有缺失值的数据集
  2. 在进行算法学习之前需要对数据集中的缺失值进行预处理
  3. 存在过拟合问题

K近邻算法

一种监督学习分类算法,没有学习过程,在分类时通过类别已知的样本对新样本的类别进行预测。

基本思路:

  1. 通过以某个数据为中心,分析离其最近的K个邻居的类型,获得该数据可能的类型
  2. 以少数服从多数的原理,推断出测试样本的类别

只要训练样本足够多,K近邻算法就能达到很好的分类效果

在这里插入图片描述

  • 当K = 3时,即选择最近的3个点,由于三角形样本所占近邻样本的比例为2/3,于是可以得出圆形输入实例应该为三角形
  • 当K = 5时,由于长方形样本栈近邻样本比例为3/5,此时测试样本被归为长方形类别。

步骤:

  1. 计算测试数据与每个训练数据之间的距离
  2. 按照距离的递增关系进行排序
  3. 选取距离最小的k个点
  4. 确定前k个点所在类别的出现频率
  5. 返回前k个点中出现频率最高的类别做为测试数据的预测分类

优点:

  • 简单,便于理解和实现
  • 应用范围广
  • 分类效果好
  • 无需进行参数估计

缺点:

  • 样本小时误差难以估计
  • 存储所有样本,需要较大存储空间
  • 大样本计算量大
  • k的取值对结果也有较大影响(k较小对噪声敏感,k过大可能包含别的类样本)

下一篇

未完待续

`

文章来源:https://blog.csdn.net/m0_64372178/article/details/134770387
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。