傻子都能看懂的 您所在的位置:网站首页 递归算法和栈 傻子都能看懂的

傻子都能看懂的

2024-06-16 07:56| 来源: 网络整理| 查看: 265

傻子都能看懂的——详解AdaBoost原理

2301_76961181: 此处应该指的是样本预测错误的概率?3/10=0.3

傻子都能看懂的——详解AdaBoost原理

wakababu: 我看懂了,但是看了标题,不知道是该懂还是不该懂。。。

全网最通俗易懂的 Self-Attention自注意力机制 讲解

dragonxxx1024: 我认为这个加权和表示的是,就是我们前面得到了一个注意力(没有除以根号d),然后这个注意力表示该词与自己和别的词的相关性,因为我们是需要解决一种长距离依赖关系,如果你不进行加权和的话,矩阵中的每个元素只是表示自己与自己或者与别的词的关系,举个例子,如果只是前面行向量早和早的权重0.4乘以早中的第一个元素1,得到0.4,而这个0.4就只体现了自己与自己的关系,第二个早与上的权重为0.4,然后进行矩阵运算就是和上行向量第一个元素进行相乘也是0.4,然后该元素只是体现早与好的关系,我们需要的是每一个元素都能体现其与自己与其他的元素的关系即是(长距离依赖关系)。所以要进行加权处理。(这只是我个人的理解,不妥之处请进行指出)

傻子都能看懂的——详解AdaBoost原理

2401_84070864: 组合两个基本分类器sign(f2(x))作为强分类器在训练数据集上有3个误分类点(即3 4 6),此时强分类器的训练错误为:0.3 这里不对吧 错误率应该是3/14吧

全网最通俗易懂的 Self-Attention自注意力机制 讲解

H_JIELIN: 所以关于位置编码的文章在哪嘞



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有