Linear classifiers——线性分类器
1.(Generalized) Linear classifiers——广义线性分类器
1.1 模型
????????假如有两类数据,类别标签为y = 1和y = -1
? ? ? ? 我们可以使用一个线性函数将其分类,二维形式
????????????????????????????????????????
? ? ? ? 通常x增加一个恒等于1的维度,可以将b合并进w,于是更一般的形式为
?????????????????????????????????????????
????????????????
? ? ? ? ? ? ? ??,就相当于b
? ? ? ? 输出分类标签
????????????????????????????????
1.2 几何意义
? ? ? ? 对于,其法向量为,单位化
对于平面上的一个数据点的向量来说,可以被分解为如下
? ??????????????????????????????????????????
????????其中表示向量x在决策函数上的投影向量,γ表示x到决策边界的距离,那么就表示x垂直决策边界的向量
????????????????????????????????????????
? ? ? ? 由点到面的距离公式可得,x到决策函数的距离
? ? ? ? ? ? ? ? ? ? ? ??
? ? ? ? 变形得
????????????????????????
? ? ? ? 决策函数的正负了反映数据点的类别,而且其大小也反映了数据点到决策边界距离
2.Fisher’s linear discriminant——Fisher’s 线性判别
1.Fisher’s 线性判别的原理
????????Fisher’s 线性判别通过降维的方式进行两类别分离,将高纬度的数据在低纬度上进行投影。投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,也就是“类内小,类间大”。
????????例有两类数据“x”"o",二维的数据降维就是投影到一条直线上
????????? ? ? ?
? ? ? ? 选取不同的投影轴,会产生不同的效果,很明显第一张图效果就比第二张图好,所以只需要找到一个满足需求的W向量就能实现分类任务。
2.Fisher’s 线性判别的推导
? ? ? ? 假设投影到w向量上,同时限定|w|=1,拥有两个特征的数据点向量投影到向量w上等于(w相当于一个新的坐标轴,通过投影在w轴上的获得的值)
证明:
在w上的投影长度为y=
?????????于是我们可以建立
????????????????????????????????????????????????????????
? ? ? ? 通过1.可知,数据点会分布在w上的不同位置,通过设定一个阈值完成分类
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??
? ? ? ? 假设我们有两个类别和,分别有和个数据
????????可以计算出两类数据的均值,通过均值的差距来表现类间的差距
?????????????????,
?????????????????
? ? ? ? 同样可以计算出两类数据的方差,通过方差来表现类内的差距
? ? ? ? ? ? ? ??
? ? ? ? ? ? ? ??
? ? ? ? 根据“类内小,类间大”的思想,我们可以建立如下目标函数
????????????????,与类间均值成正比,类内方差成反比
??
????????
令,表示类间协方差矩阵
令,表示类内协方差矩阵
????????可以得到
???????????????????????
? ? ? ? 这个就是损失函数,目标是求最大值
? ? ? ?对w求偏导?有
???????????????
?????????????????????????
????????假设数据点有p维
最终我们可以得到
?????????????????????????????????????????????????????
?????????????????????????????????????
????????
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!