Amnesia's blog

I'll be your mirror

  • 主页
  • 生活
  • 科普
  • Coursera笔记
  • Artworks
  • 存档
  • 友链
  • 关于
2015-05-06

How To Read A Research Paper - Mubarak Shah

原文链接 http://crcv.ucf.edu/people/faculty/HowToRead.php
以前偶尔也在微博朋友圈看过类似的文章,甚至是教你如何看论文的论文.这篇感觉讲的也很好,特别是第6条.作者是做图像的.

How To Read A Research Paper

Read More
2015-05-03

[Algorithms] 动态连通性,Union Find,渗透模型,蒙特卡罗采样

最近在看两个算法课程,一个是北京大学开的算法设计与分析(大妈讲),一个是普林斯顿的Algorithms(大爷讲).普林斯顿的代码讲的比较多,一边讲算法一边讲怎么写API.看了看北大的课程目录,弱弱的不想看了..

Read More
2015-03-24

Не думай о секундах свысока





2015-03-19

Another Dizzy

啥都看不见请换火狐.

Read More
2014-12-26

用Theano做一个MLP

前几天看Deep learning上的Theano教程,看到shared variable就不明白说的啥,暂时放弃.

Read More
2014-12-11

UFLDL教程总结(7) 卷积神经网络用在图像上

之前的MNIST每张图片大小只有28*28,所以把它展成大小为784的向量作为输入还能计算.

Read More
2014-12-11

UFLDL教程总结(6) linear decoder 线性解码

之前我们都用sigmoid激活函数来让每个神经元的输出在[0,1]之间.

Read More
2014-12-11

UFLDL教程总结(5) 从self-taught到deep networks

把Autoencoder堆起来,再加个softmax层,就是Deep Network了.

Read More
2014-12-11

UFLDL教程总结(4) Self-Taught learning

自主学习,就是用Autoencoder学到的特征作为输入,来完成一些机器学习算法,比如分类.

Read More
2014-12-11

UFLDL教程总结(3) softmax回归

假设函数和代价函数及梯度

Read More
上一頁 下一頁

分類

  • Artworks7
  • Courseranote5
  • Life8
  • Whatyouknowabout34

標籤

  • 8bit1
  • Algorithms4
  • Bayes Inference1
  • CNN2
  • CS Foundation4
  • Convolution1
  • Cosine1
  • Coursera4
  • DBN1
  • DCT1
  • DFT1
  • Deep Learning3
  • Dictionary Learning1
  • FC2
  • Fitting2
  • HMM1
  • Image Restoration1
  • Imagenet1
  • Leetcode1
  • MATLAB1
  • MNIST1
  • NES2
  • PCA3
  • Paper4
  • Processing4
  • Python1
  • Sparse Representation1
  • Statistics1
  • Theano1
  • UFLDL7
  • Viterbi1
  • WeekEnd1
  • fft1
  • 优先队列0
  • 分词1
  • 吉他1
  • 喝酒1
  • 堆排序0
  • 排序2
  • 推荐系统1
  • 最小二乘1
  • 最近1
  • 机器学习2
  • 树1
  • 梯度下降1
  • 正态分布1
  • 演出1
  • 爬虫2
  • 电影2
  • 矩阵1
  • 矩阵分解1
  • 神经网络1
  • 超级玛丽2
  • 随机采样1
  • 音乐1
  • 马氏距离1
  • 高斯2
© 2017 Amnesia