About 50 results
Open links in new tab
  1. 为什么没有人把 boosting 的思路应用在深度学习上? - 知乎

    (5)Boosting算法对于样本的异常值十分敏感,因为Boosting算法中每个分类器的输入都依赖于前一个分类器的分类结果,会导致误差呈指数级累积。 而用于深度学习模型训练的样本数量很大并且容许 …

  2. 不用额外训练!ALFAR 让多模态大模型吃透检索知识,准确率大幅飙升 …

    不用额外训练!ALFAR 让多模态大模型吃透检索知识,准确率大幅飙升 | 论文题目:Boosting Knowledge Utilization in Multimodal Large Language Models via Adaptive Logits Fusion and …

  3. 集成学习中bagging,boosting,blending,stacking这几个 ... - 知乎

    这四个概念都是集成学习中非常重要的概念,只不过侧重的方面有所不同. bagging/boosting强调 抽取数据的策略.两者都采取随机有放回取样 (random sampling with replacement)的方式抽取数据,不同的是 …

  4. 无痛理解Boosting:GBDT

    那么回到boosting中,我们已知 ,下一步的偏移量就应该是 这不是简单的导数,而是一个泛函。尽管如此,我们可以直接把它当做导数,在已知 的表达式的情况下很容易计算。 我们拿回归任务验证一下。 …

  5. boosting算法中,除了adaboost以外,为什么都要进行残差的拟合? 拟 …

    boosting算法中,除了adaboost以外,为什么都要进行残差的拟合? 拟合真实值不香吗? 我的想法: 假设使用GBDT, 我们可以用多课树进行预测,然后将多棵树的预测结果进行平均得到最终的结果。 但是 …

  6. adaboost为什么不容易过拟合呢? - 知乎

    然而根据这一理论,Breiman设计了另一种Boosting算法arc-gv,最小训练Margin更小了,但实验效果比AdaBoost差了很多。 于是乎Breiman的结论是,这个用训练Margin来刻画泛化错误整个就是不对的 …

  7. 【NeurIPS'23】通过平坦的局部感知来提升对抗攻击的可迁移性

    Jan 31, 2024 · 本期讲者是来自西安电子科技大学人工智能学院硕士研究生葛志金,他将带来NeurIPS'23 文章Boosting Adversarial Transferability by Achieving Flat Local Maxima的分享。本论文的主要内 …

  8. Boosting 和 Adaboost 的关系和区别是什么? - 知乎

    Nov 20, 2015 · boosting 是一种将弱分类器转化为强分类器的方法统称,而adaboost是其中的一种,采用了exponential loss function(其实就是用指数的权重),根据不同的loss function还可以有其他算 …

  9. 基于树的adaboost和Gradient Tree Boosting区别? - 知乎

    基于树的adaboost和Gradient Tree Boosting具体区别,在学习时,哪个效果会更好一点(不考虑计算时间成本)

  10. R语言机器学习实战系列教程 - 知乎

    R语言机器学习算法实战系列(一)XGBoost算法+SHAP值(eXtreme Gradient Boosting) R语言机器学习算法实战系列(二) SVM算法+重要性得分(Support Vector Machine) R语言机器学习算法实战 …