张虎的博客

  • 首页
  • 分类
  • 关于
  • 归档
  • 标签
  • 公益404
  • 搜索
close
张虎的博客

循环神经网络

发表于 2017-11-19 | 更新于 2018-10-16 | 分类于 机器学习 , DL | | 阅读次数
Recurrent Neural Network

本文以下RNN特指循环神经网络

  • 深度神经网络极大的提高了浅层网络的模型拟合数据的能力
  • CNN的出现引入了“感受野”的同时共享参数的机制大大减少DNN的网络参数
  • 而RNN的出现则是用“记忆单元”可以使得有时序的数据随着时间改变记忆,这个记忆贯穿整个时间流,从而有了时序处理的能力
阅读全文 »
张虎的博客

卷积神经网络简介

发表于 2017-05-23 | 更新于 2017-05-25 | 分类于 机器学习 , DL | | 阅读次数
Convolutional Neural Networks

卷积神经网络简介

阅读全文 »
张虎的博客

深度神经网络简介

发表于 2017-05-19 | 更新于 2017-05-23 | 分类于 机器学习 , DL | | 阅读次数
Deep Neural Networks

1. 人工神经网络介绍

https://zh.wikipedia.org/wiki/人工神经网络

2. DNN与传统机器学习方法对比

  • 优点
    • 降低或避免对特征工程的依赖,深度学习能做特征工程就是因为深度或广度,再加上非线性激励使得更多的组合特征出现,用损失函数来约束整个网络的发展方向,结果就是选择出来的比较容易过拟合的特征。但是这些特征没有什么可解释性,跟多是黑盒
  • 缺点
    • 黑盒模型
    • 需要大样本支撑
    • 对硬件要求高
阅读全文 »
张虎的博客

集成方法

发表于 2017-04-04 | 更新于 2017-04-05 | 分类于 机器学习 , 集成方法 | | 阅读次数
Ensemble methods

集成方法是将多个基模型集成起来以提高最终模型的预测准确率或泛化能力的方法

阅读全文 »
张虎的博客

Gradient Boosting

发表于 2017-04-03 | 更新于 2017-04-04 | 分类于 机器学习 , 集成方法 | | 阅读次数

Gradient Boosting,梯度提升

提升,梯度提升,梯度提升树

阅读全文 »
张虎的博客

XGBoost

发表于 2017-04-01 | 更新于 2017-04-03 | 分类于 机器学习 , 集成方法 | | 阅读次数
eXtreme Gradient Boosting

XGBoost是GBDT的一种实现的代码库,同样也是集成方法的一种

相对原始GBDT主要有以下改进

  • 在目标函数中加入模型复杂度
  • 利用泰勒展开式的前两项作为目标函数的近似
  • 损失函数自定义
阅读全文 »
张虎的博客

gcForest

发表于 2017-03-31 | 更新于 2017-04-01 | 分类于 机器学习 , 集成方法 | | 阅读次数
multi-Grained Cascade Forest

深度级联森林:决策树模型具有可解释性强的优点,多个决策树构成随机森林,多层多个森林构成深度森林

gcForest是西瓜书作者周志华博士和冯霁博士提出的一基于随机森林的深度森林的方法,尝试用深度森林的方法解决深度神经网络中存在的问题:

  • 需要大量样本才能使得深度神经网络有较好的性能
  • 调参困难
  • 对硬件性能要求较高

论文中实验了在小数据集上gcForest,取得了不错的效果

论文地址:https://arxiv.org/pdf/1702.08835.pdf
部分翻译:http://it.sohu.com/20170302/n482153688.shtml

阅读全文 »
张虎的博客

前向分步算法

发表于 2017-03-31 | 更新于 2017-04-04 | 分类于 机器学习 , 集成方法 | | 阅读次数
Forward Stagewise Algorithm
阅读全文 »
张虎的博客

AdaBoost

发表于 2017-03-30 | 更新于 2017-04-02 | 分类于 机器学习 , 集成方法 | | 阅读次数
Adaptive Boosting

AdaBoost是多个分类器组合算法,维基百科AdaBoost算法过程

阅读全文 »
张虎的博客

SVR

发表于 2017-03-26 | 更新于 2017-03-31 | 分类于 机器学习 , SVM | | 阅读次数
SVR,Support Vector Regression,支持向量回归

1. SVR问题引出

(图1, 左图:支持向量回归示意图及epsilon回归带示意图;右图:epsilon不敏感损失

有样本集 \(D=\{(\boldsymbol{x_1},y_1),(\boldsymbol{x_2},y_2),\ldots,(\boldsymbol{x_m},y_m)\}\)。其中, \(\boldsymbol{x_i}\)是一个样本,列向量;\(y_i\)为回归目标,\(y_i \in \mathbb{R}\)。 找到一个回归模型\(f(x) = \boldsymbol{w}^T\boldsymbol{x} + b\),使得\(f(\boldsymbol{x})\)与\(y\)在损失为\(\epsilon\)不敏感损失下尽可能接近,其中回归线由落在\(\boldsymbol{w} \cdot \boldsymbol{x} + b - \epsilon = 0\)与\(\boldsymbol{w} \cdot \boldsymbol{x} + b + \epsilon = 0\)区域内的点参与构建

阅读全文 »
12
张虎

张虎

记录、交流、进步

15 日志
6 分类
21 标签
友情链接
  • 昕垚
© 2016 - 2018 张虎
由 Hexo 强力驱动
主题 - NexT.Mist