Python 实现逐步回归 您所在的位置:网站首页 迭代剔除 Python 实现逐步回归

Python 实现逐步回归

2023-11-16 08:41| 来源: 网络整理| 查看: 265

常用评价指标简介        当前统计学以计算机科学作为支撑,机器于人工的优势是计算速度,但机器无法自行判断运算何时退出,因此需要定量指标作为运算退出的标志。对于预测类的统计模型来说,常见的指标有赤池信息准则(AIC)、贝叶斯信息准则(BIC)、R方、ROC曲线下方的面积大小(AUC)等指标。指标无优劣之分,在实际运用中很多情况甚至会出现不同评价指标相悖的情况,因此作为模型开发者不能只追求好看的评估指标。在本文中,实现模型时选择AIC作为评价指标,AIC是一种基于残差平方和进行变形的评价指标,因此AIC越小模型拟合效果越好。作为一种容易理解评估指标,AIC的数学公式为  ,其中RSS为残差平方和,n为观测数,k为变量数。从公式可以看出该指标综合考虑了模型的简洁性(变量个数)和准确性。

逻辑回归变量筛选方法简介         逻辑回归的变量选择中,目前主要使用的方法有向前回归法、向后回归法和逐步回归。向前回归法是将自变量依次加入模型,每加入一个特征都利用检验指标检验,保留使模型指标更优的自变量,依次不断迭代加入,直到评估指标不能再优化。向后回归法是将所有变量都放入模型之后,一次迭代剔除变量,将某一自变量拿出模型,若模型评估指标更优化,则剔除此变量,对全部变量进行迭代,直到评估指标不能再优化。逐步回归综合向前和向后两种方法,在每一次加入新特征后(即向前法加入),再依次删掉每个特征(即向后法删除),考虑所加入的新变量对每个已有变量的影响。

        基于其原理,其运行效率从高到低依次为 向前≥向后≥逐步(不同的变量情况可能会导致向后和逐步法的效率不一致),这是因为向前回归依次加入自变量计算评估指标数值,但一般由于不断剔除特征并不会整的会对全部自变量进行运算,而向后法在运算之初就需要使用全部特征进行运算,其效率自然会低一些,逐步回归由于每一次迭代同时进行了依次向前回归和向后回归,因此其效率最低。根据原理其效果应该为 逐步≥向后≥向前,但在实际应用中三者差别并不会太大。  

#################################### 逐


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有