长颈鹿先森

长颈鹿先森的个人博客


  • 首页

  • 博客搭建

  • 物联网

  • 大数据&分布式

  • BUG解决

  • 机器学习&算法

  • linux

  • Tags

  • 个人成果&杂记

  • 关于我

  • Search

A Novel Anti-Obfuscation Model for Detecting Malicious Code

Posted on 2018-06-05 | In 个人成果-杂记 | Visitors:
Words count in article: 6,132 字 | Reading time ≈ 38 分钟
A Novel Anti-Obfuscation Model for Detecting Malicious Code Yuehan Wang Tong Li YongQuan Cai Zhenghu Ning Fei Xue Abstract In this article, the ...
Read more »

深入理解 xgboost

Posted on 2018-06-05 | In 机器学习 | Visitors:
Words count in article: 3,543 字 | Reading time ≈ 12 分钟
深入理解 xgboost 前言 1)Boosted Tree的若干同义词 可能有人会问,为什么我没有听过这个名字。这是因为Boosted Tree有各种马甲,比如GBDT, GBRT (gradient boosted regression tree),LambdaMART也是一种boosted t ...
Read more »

深入理解GBDT

Posted on 2018-06-05 | In 机器学习-算法 | Visitors:
Words count in article: 4,541 字 | Reading time ≈ 16 分钟
深入理解GBDT  GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛 ...
Read more »

从损失函数看-xgboost、GBDT、adaboost

Posted on 2018-06-05 | In 机器学习-算法 | Visitors:
Words count in article: 874 字 | Reading time ≈ 3 分钟
 adaboost和GBDT和xgboost在损失函数的最优化方法是有很多不同的,三者的不同之处其实就在于最优化方法的不同(这样说不知道是否妥当,至少站在这个角度的我认为是正确的,多年后可能发现这个观点不太妥当)。adaboost在李航博士的《统计学习基础》里面用加法模型和向前算法解释了权值更新策略 ...
Read more »
1…345
wangyh

wangyh

20 posts
8 categories
14 tags
GitHub E-Mail
© 2019 wangyh
访问人数 访问总量 次