机器学习中的核函数与核方法(是什么?为什么?怎么做?) |
您所在的位置:网站首页 › 审计函数公式推导方法是什么 › 机器学习中的核函数与核方法(是什么?为什么?怎么做?) |
我们在学习机器学习的时候,总是会看到一个概念——核,然后看到一堆公式。但是为什么要核呢?核到底是啥玩意?云里雾里。接下来,我们将要把“核”这个东西的神秘面纱一点点揭开。 一、什么是“核函数” 我们都知道,机器学习(神经网络)的一个很重要的目的,就是将数据分类。我们想象下面这个数据(图1),在二维空间(特征表示为 如果我们想要将这两类数据进行分类,那么分类的边界将会是一个椭圆: 但是如果我们可以通过一个映射,将数据的特征 其实这个映射,就是将一个空间中的特征转换到另外一个空间,这就是空间转换(映射)的意义,即可以将原来线性不好分的数据转换到另外一个空间,在这个空间中可以用一个超平面线性可分。 在机器学习中,我们要用到内积运算。而在映射后的高维空间中,内积往往是很不好求解的。所以,我们能不能找到在低维空间中的某个运算,恰好等于高维空间中的内积运算呢? 设在原空间中有两个点 我们就将低维空间中的这个对于内积的运算定义为核函数 二、为什么要用核函数 因为在机器学习中,我们求解的过程要用到内积,而变换后的高维空间的内积我们不好求,所以我们定义了这个核函数,可以把高维空间的内积运算转化成内为空间的某些运算,这样求起来不是很简单吗? 换句话说,如果我们有了核函数,我们就不再需要知道那个映射 三、怎么用?(一个简单的分类例子) 现在我们假设,有N个数据{ 而想要把某个数据 于是我们来
(PS:说到这,你应该知道为什么分类需要内积了吧?因为内积的正负代表了数据点是位于分类边界的正方向还是负方向,从而实现分类。) 其中: 后面的就不继续写了,化简形式都一样,即:我们就可以把高维空间的内积,改写成低维空间的核函数的形式,这样在不知道映射 四、补充一点 1. 有限半正半定:给定任意有限 n个点(x1~xn),求解其矩阵是正定的: 五. 核函数与机器学习的关系 我们在机器学习中,经常看到 |
今日新闻 |
点击排行 |
|
推荐新闻 |
图片新闻 |
|
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭 |