机器学习入门 您所在的位置:网站首页 矩阵论维数 机器学习入门

机器学习入门

2023-03-24 18:54| 来源: 网络整理| 查看: 265

文章大纲 一、什么是机器学习、数据挖掘? 1、AI是什么?

AI(人工智能)是研究开发用于模拟、延伸和扩展人的智能理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支。 AI的应用场景:必备基础 "机器学习"

机器学习的应用场景 2、机器学习是什么?

机器学习就是让机器有学习的能力,让机器通过"某种策略", 学习"历史数据"后,能够进行一定"预测"和"识别"的能力。

3、数据挖掘是什么?

数据挖掘是指从大量数据中通过算法搜索隐藏于其中信息的过程。机器学习是支撑数据挖掘的手段。从关系上看,数据挖掘包括机器学习。

4、为什么需要数据挖掘?

面临复杂且大量的新数据集时,传统数据分析计算常常遇到瓶颈,我们将常见瓶颈进行抽象。 1、高维性数据:随着5G及物联网的建设,数据量将会呈指数级的增长,常常遇到成百上千属性的维度,可想象,计算复杂度将迅速增加。 2、非结构化数据:非结构化数据也包含许多含金量的信息,例如视频、音频、文本等等,这些都是传统数据分析方法无法获取的信息。 3、自动及智能问题。传统分析方法常规流程就是"提出假设-验证假设",但这一过程劳力费神。当前的数据分析任务常常需要产生和评估数千种假设,因此需要自动、智能的手段。

注:数据挖掘非万能法则,数据分析也非所想的不堪,两者的结合应用才能更好的为业务赋能。事实上,数据挖掘是需要数据分析进行辅助的,比如数据探索,特征工程。 二、机器学习所需要的基础理论 让机器通过"某种策略", 学习"历史数据"后,能够进行一定"预测"和"识别"的能力 1、某种策略(模型)、损失、模型训练和标签 1)模型是什么?以"一元线性回归"为例 import pandas as pd import numpy as np import matplotlib.pyplot as plt plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签 plt.rcParams['axes.unicode_minus']=False #用来正常显示负号 df1 = pd.DataFrame({'用户人数':[100,200,300,400,500],'销售额(元)':[1000,2000,3000,4000,5000]}) df1.plot(x='用户人数',y='销售额(元)') from sklearn.linear_model import LinearRegression x = df1['用户人数'].values.reshape(-1,1) y = df1['销售额(元)'] lr = LinearRegression() lr.fit(x,y) # 模型的斜率 lr.coef_ lr.predict(np.array([600]).reshape(-1,1)) 假设用户人数为600,那销量是 6000 ,这是模型的预测能力。 2)损失

损失是对糟糕预测的惩罚。损失是一个数值,表示对于单个样本而言,模型预测的准确程度。如果模型的预测完全准确,则损失为零,否则损失会较大。如下图:那副图的损失更大?红色箭头表示损失,蓝色线表示预测,可见图二的模型更准确(预测值-实际值),图一的损失更大。

3)模型训练

模型训练表示通过有标签样本来学习(确定)所有权重和偏差的理想值。模型训练检查多个样本,并尝试找出可最大限度的减少损失的模型(方向)。比如:上面的线性回归,k 和 b 都是两个未知的参数 ,根据已有的样本 x 和 y 去训练模型。

y = kx + b 4)标签

标签,白话说就是模型的 y 值,比如上面的线性回归标签就是销售额,抽象的说,标签就是结论。比如:【x,y】——【用户人数,销售额】——【100,1000】,就是一个样本。

2、代价函数(损失函数) 代价函数:是一个数学函数,能够以有意义的方式汇总各种损失 最常见的代价函数:MSE(均方误差)指的是每个样本平均平方损失。

注:MSE 常用于机器学习,但它不是唯一实用的损失函数,也不是适用于所有模型最佳的损失函数。

三、划分数据集(训练、验证、测试) 1)训练集与测试集(常见模式)

训练集:用于训练模型的子集 测试集:用于测试训练后模型的子集

举个例子:训练集相当于上课学知识,测试集相当于期末考试,用来最终评估学习效果。 2)划分注意点:

① 通常将数据集的70%作为训练集,30%作为测试集(8 : 2也行),并且挑选的测试集的特征应该与训练集的特征相同。 ② 通常需要在开始构建模型之前把数据集进行划分,防止数据窥探偏误。也就是说,我们避免了解太多关于测试集中的样本特点,防止我们认为的挑选有助于测试集数据的模型。这样的结果会过于乐观,但是实际上并没有预期的那样优秀。 ③ 对于时序数据集、训练集和测试集需按时间划分。比如说我目前有 1-10 月的数据,那么 1-8 月作为训练集,9-10月作为测试级。

原因:假设我们有了这个模型以后,都是用历史的数据,去预测未来的数据的,所以我们在训练数据的时候也要符合这个模式。 3)流程:

借助这种划分,可以对一个样本集进行训练,然后使用不同的样本集测试模型。采用两种分类以后,工作流程可能如下所示。

缺点:相当于不断的利用测试集(未来数据)去调整模型,类似数据窥探的效果会增大模型过拟合的风险。 4)优化后的流程: 缺点:① 验证集的缺点,10%数据很宝贵,拿去训练模型可能会产生更好的效果。② 繁琐 通常采用第一种(测试集和训练集),如果发现训练模型过拟合,通过手段没有降低的话,可以采用第二种模式。 四、交叉验证(Cross Validation) 交叉验证的基本思想是把在某种意义下将原始数据进行分组,一部分作为训练集(train set),另一部分作为验证集(validation set or test set)。首先用训练集对分类器进行训练,再利用验证集来测试训练得到的模型(model),以此来作为评价分类器的性能指标。 目的 : 用交叉验证的目的是为了得到可靠稳定的模型。 留出法(Holdout cross validation):上面提到的按照固定比例将数据集静态的划分为训练集、验证集、测试集的方法就是留出法。 留一法(Leave one out cross validation ):每次的测试集都只有一个样本,需要进行 n 次训练和预测。这个方法用于训练的数据只比仅整体数据集少了一个样本,因此最接近原始样本的分布。但是训练复杂度增加了,因为模型的数量与原始数据样本数量相同,一般在数据缺乏时使用。 K折交叉验证(k-fold cross validation ):静态的留出法对数据的划分方式比较敏感,有可能不同的划分方式得到了不同的模型。【K折交叉验证】是一种动态的验证方式,这种方式可以降低数据划分带来的影响,会得到一个更可靠的模型。具体步骤如下: 五折交叉验证法:

① 将所有的数据集均匀的分成五份 ② 不重复的每次取出其中一份做测试集,用其他四份做训练集训练模型,之后计算该模型在测试集上的MSE ③ 将五次的MSE取平均得到的最后的MSE,作为评价模型的指标

五、泛化能力与过拟合 泛化能力:对未知数据 (新数据) 的预测能力。

过拟合: 指的是模型在训练集上表现的很好,但是在交叉验证集合和测试集上表现一般,也就是说模型对未知样本的预测表现一般,泛化能力较差。 举例:比如下图三个模型,绿色表示训练集样本,红线表示模型的预测能力,蓝色表示新样本点。看模型三在训练集表示很好,但是在新样本表现一般,所以说泛化能力较差,出现过拟合。模型一在训练集表现的也不好,新样本预测也不好,称之为欠拟合。最终我们选择模型二,泛化能力越好,就是越好的模型。

哪个模型的泛化能力较差? 为什么会产生过拟合? ① 训练数据集合训练数据集样本单一,样本不足。如果训练样本只有负样本,然后拿生成的模型去预测正样本,这肯定预测不准,所以训练样本要尽可能的全面,覆盖所有的数据类型。 ②训练数据中噪声干扰过大,噪声指训练数据中的干扰数据,过多的干扰会导致记录了很多噪声特征,忽略了真实输入和输出之间的关系。 ③ 模型过于复杂,模型太复杂,已经能够死记硬背记下了训练数据的信息,但是遇到没有见过的数据的时候不能够变通,泛化能力太差。我们希望模型对不同的模型都有稳定的输出,模型太复杂是过拟合的重要因素。 如何降低过拟合? ① 获取和使用更多的数据(数据集增强)是解决过拟合的根本性方法。

② 采用合适的模型,控制模型的复杂度。根据奥卡姆剃刀法则:在同样能够解释已知观测现象的假设中,我们应该挑选 "最简单" 的那一个,对于模型的设计而言,我们应该选择简单合适的模型解决复杂的问题。

③ 降低特征的数量。对于一些特征工程而言,可以降低特征的数量,删除冗余特征,人工选择保留哪些特征,这种方法也可以解决过拟合问题。 ④ 正则化,正则化就是在模型的代价函数里添加一个约束,使得可以减少模型参数的候选空间,使得模型更加简洁,本质上是控制模型复杂度。 ⑤ dropout是在训练网络时用的一种技巧,相当于在隐藏单元增加了到噪声。drop out指的是在训练过程中,每次按一定的概率,比如50%,随机的删除一部分隐藏单元神经元。所谓的删除不是真正意义上的删除,其实就是将该部分神经元的激活函数设为零,激活函数的输出为零,让这些神经元不计算而已。 ⑥ 提前终止,对模型进行训练的过程即是对模型的参数进行学习更新的过程。这个参数学习的过程往往会用到一些迭代方法,比如梯度下降Early stopping是一种迭代次数截断的方法来阻止过拟合的方法。即在模型对训练数据及迭代收敛之前停止迭代来防止过拟合。 所以,总的来说,一个好的模型,损失函数尽可能的小,泛化能力尽可能大。 六、模型类别 监督学习 监督学习是从这样的事例中学习统计规律,然后对于新的 x 给出对应的 y 。通俗的讲,就是根据已有的数据集知道输入和输出结果之间的关系,根据这种已知的关系,训练得到一个最优模型。 ① 分类模型:标签为分类型数据,比如预测用户是否流失(标签 y 为【是否】) ② 回归模型:标签为数值数据,比如预测销售额。 监督学习常见模型 K-近邻(KNN) 线性回归(回归模型) 逻辑回归(分类模型) 支持向量机 决策树和随机森林 神经网络 无监督学习 相比监督学习没有标注数据,也就是 y。无监督学习是从一堆数据中学习其内在统计规律或内在结构。学习到的模型可以是类别,转换或者概率,这些模型可以实现对数据的聚类、降维、可视化、概率估计和关联规则学习。 无监督学习常见模型 a.聚类算法 k-means算法(kmeans) 密度聚类算法 最大期望算法(EM) b.降维 主成分分析(PCA) c.关联规则学习 Apriori d. 时间序列预测 半监督学习 半监督学习包含大量未标注数据和少量标注数据,主要是利用未标注中的信息辅助标注数据进行监督学习。大多数半监督学习算法是无监督式和监督式算法的结合。 七、模型评估

不同类型的模型评估方法不一。 先讲一个常见误区,大家是否觉得评估模型就用模型准确率 ?

实际例子,小a是某运营商的一名数据分析师,老板最近和他说:"小a,最近我们这个 xx 流量产品每月流失用户都挺多的,能不能帮忙想想办法。",小a 思考了一下,觉得假设我们能预测出下个月流失用户的名单,那我们是不是能提前对这批用户发发优惠,或者引导他们升级变更其他流量产品去挽留他们呢? 模型准确率9/10 = 90% 记得我们的任务目标吗,我们目标是不是想预测出哪些用户流失了?那这个模型在预测流失用户的表现如何,模型一个流失用户都没预测出来,尽管模型的准确率是90%这么高,但对于我们的业务来说,是无效模型。 分类评估指标 ① 一级指标(底层指标) 混淆矩阵:混淆矩阵就是分别统计分类模型、归错类、归对类的观测值个数,然后把结果放在一个表里展示出来,这个表就是混淆矩阵。 真实值是positive,模型认为是positive的数量(True Positive =TP),真阳性。 真实值是positive,模型认为是negative的数量(False Negative = FN),这就是统计学上的第一类错误,弃真,假阴性。 真实值是negative,模型认为是positive的数量(False Positive = FP),这就是统计学上的第二类错误,纳伪,假阳性。 真实值是negative,模型认为是negative的数量(True Negative = TN),真阴性。 套上例子: 实际为流失用户,而模型预测也是流失用户的数量,即为TP 实际为流失用户,而模型预测时非流失用户的数量,即为FN 实际为非流失用户,而模型预测的是流失用户的数量,即为FP 实际为非流失用户,而模型预测是非流失用户的数量,即为TN

混淆矩阵怎么看?预测性分类模型肯定是希望越准越好,那么对应到混淆矩阵中,那肯定是希望TP和TN的数量大,而FP与FN的数量小。

② 二级指标 混淆矩阵里面统计的是个数,有时候面对大量的数据,光凭算个数很难衡量模型的优劣。因此混淆矩阵在基本的统计结果上又延伸了如下四个指标,我们称它为二级指标。

accuracy (准确率):(TP + TN)/(TP + FN + FP + FN) 意义:分类模型所有判断正确的结果占总观测值的比重,一般不用 precision(准确率):TP /(TP + FP) 意义:表示预测为正的样本数有多少是对的,可解释性强,常用越高越好。 record (召回率、查全率,真正率TPR):TP / ( TP + FN) 意义:表示样本中的正例有多少被预测正确,可解释强,常用越高越好。 FPR (假正率) :FP / (FP + FN) 意义:表示当前被错误分到正样本类别中真实的负样本 所占所有负样本总数 的比例,越低越好。 ③三级指标 ROC curve,这个曲线就是以下 TPR 和 FPR 为轴,取不同的阈值点画的。 模型去预测分类型任务的时候,本质上是预测分类型的概率的,比如计算流失的概率,如果这个概率大于阈值0.5的话,这即为流失,所以这里就有个阈值的存在。不同的阈值,会有不同的TP 、FP。

ROC_AUC:AUC就是曲线下面积,我们根据ROC曲线想一下,到底我们这个曲线涨什么样的模型才算好呢?TR率是越高越好,FP率是越低越好,所以我们的曲线应该是越靠近Y轴越好。(粗鲁)理解最终可抽象成,ROC曲线下面积越大越好,即AUC越大越好。

AUC评判标准 : 0.5-0.7 : 效果较低,但预测股票已经很不错了。 0.7-0.85 : 效果一般 0.85-0.95 : 效果很好 0.95-1 : 效果非常好,但不太可能

f1值:(2*Precision * Recall/(Precision+Record) 意义:我们的模型想recall和precision都高,但鱼与熊掌不可兼得,如果想要找到它们的平衡,那就用f1值。

分类评估指标,如何选择? 选择方针,根据你模型所解决的目的进行选择,比如我想现在。训练一个模型来识别出哪些是在逃罪犯?(宁可错杀1000,也不放过一个)-- recall,因为recall为表示样本中的正例有多少被预测正确,对于这个模型,就是所有的在逃罪犯为分母,模型预测为在逃罪犯为分子。假设recall为1,也就是所有的在逃罪犯模型都预测正确了。 根据指标可解释性去选择。实际工作中常常要向不懂机器学习的人去解释模型的效果,类似roc_auc和f1值,这种三级指标可解释性较弱,所以我们一般是选择recall和precision。 回归评估指标

平均绝对误差MAE

均方误差 MSE

相对MAE而言,MSE的数值更大。

均方根误差 RMSE

中位绝对误差

r^2决定系数(拟合优度)

回归评估指标如何选择? 一般选择MSE作为评估指标 MSE的误差的量纲相对较大。若选看量纲接近业务水平的,用MSE和RMSE 若担心某个误差较大会影响整体的评估指标,用MedAE 如果模型希望的是找到能够解释目标y变动的因变量,则选用R Squared更合适。 机器学习的基础概念介绍到这里,懂得了基础概念,才能开始后续的学习。


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有