【deep learning学习笔记】最近读的几个ppt(二)

标签: deep learning 学习 | 发表时间:2013-06-13 00:45 | 作者:xceman1997
出处:http://blog.csdn.net

《Machine Learning and AI via Brain simulations_Andrew Ng_2013》

Andrew Ng今年三月份在清华做的一篇报告,ppt,109页。

1. 从图像识别,讲特征表示,如:月hi辆摩托车的图像,在电脑中表示为像素矩阵,不过在人脑中,由轮子、把手等各个组件组成。

2. 进一步讲特征表示,如:NLP中,一句话,可以句法分析为一个树状表示,树的每一层,都是一种特征表示。此外,词性标注、wordnet语义等都是特征

3. 指出,特征表示在实际工作中更加重要,并且是难点

4. 特征表示是很难的,一方面我们可以直接表示,构建特征工程,但是很难。另一方面,我们可以用“训练好的算法”表示,如:神经网络。这些算法的结果就表示了特征,但是用来训练算法的方法并不难。

5. 传统的supervise learning,作者对比了几个分类器,当数据量很大的时候,分类器性能相当。所以,实际解决问题的时候,往往不在所用的方法,而在于数据的大小。

6. 缺点:

(1)没有融合先验知识

(2)Unsupervised feature learning有些任务还不能做:video等、层次化的知识表示、活动探测、图像分类

(3)学习到的feature不很直观被理解


《Advanced topics + Research philosophy_Andrew Ng_2013》

这个和上一个ppt连在一起的。

1. 学习递归的表示方法:用的NLP句法分析任务作为例子

句法分析中,每一个元素(词、词组、短句)都用一个n维实数向量来表示,学习的任务就是学习这些实数向量。逐层句法分析抓变成了每一层都是神经网络,学习任务转成了学习神经网络中的特定节点的值。

参考文献:Distributional representations, or Bengio et al., 2003, Collobert & Weston, 2008

2. 对比parsing sentence and parsing image

3. “Deep learning” has had two big ideas:
–Learning multiple layers of representation
–Learning features from unlabeled data

4. Detailed tutorial: http://deeplearning.stanford.edu



《A Tutorial on Deep Learning_KaiYu_2013》

于凯老师是美国归国博士,是baidu多媒体部的副总监。

1. 把机器学习分为了几个时代:

(1)从80年代晚期开始,分类器时代:svm、最大熵等

(2)2000年以后,结构化学习时代:核方法、半监督学习等

2. 特征学习是关键,从前神经网络往往靠tricks

3. deep learning 取得的一系列成就,both学术界 and 工业界

4. deep learning的 building block

(1)RBM学习,Layerwise Pre-training

(2)Autoencoder Neural Net

(3)Sparse Coding    

5. Go deeper:  Layerwise feature learning

6. Fine tuning via Backpropogation     
–  If data are  big  enough, direct fine tuning is enough

7. 最后谈了如何把算法并行化,谈的不多,不过感觉这个才是deep learning的关键


作者:xceman1997 发表于2013-6-13 0:45:41 原文链接
阅读:14 评论:0 查看评论

相关 [deep learning 学习] 推荐:

关于深度学习——Deep Learning

- - 互联网旁观者
转载自: http://blog.csdn.net/abcjennifer/article/details/7826917. Deep Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得.

【deep learning学习笔记】最近读的几个ppt(二)

- - CSDN博客推荐文章
Andrew Ng今年三月份在清华做的一篇报告,ppt,109页. 从图像识别,讲特征表示,如:月hi辆摩托车的图像,在电脑中表示为像素矩阵,不过在人脑中,由轮子、把手等各个组件组成. 进一步讲特征表示,如:NLP中,一句话,可以句法分析为一个树状表示,树的每一层,都是一种特征表示. 此外,词性标注、wordnet语义等都是特征.

Deep Learning 基础知识

- - 互联网旁观者
Deep Learning是机器学习研究中的新领域,其目的是让机器学习更加接近人工智能. 下面这篇文档则是关于Deep learning的最新介绍文档:. A particular property of such flow graphs is depth: the length of the longest path from an input to an output..

机器学习全球公开课-Machine Learning

- Sosi - 丕子
很久之前关于机器学习Machine Learning的公开课咱们就都开始看了,也都知道了,本科的时候就看过,是从itunes上下载的视频,当然是斯坦福的Professor Andrew Ng 讲的,不过看不懂,也听不大懂,哎,惭愧. 现在还好多了,拿来看看理解下,不过我还是基本没看过这个视频. 现在也有带有字幕的了,像是网易公开课的,中英文字幕很给力啊,都三集了,不过这里的视频当然不知道是否是合法的,但是不管怎么样,肯定给学习的人有了很大的启蒙和帮助.

努力学习却不能提高的症结所在[Efforts To Improve Learning Are Not Effective]

- - 左岸读书_blog
回顾起中学生活,应该是一个事倍功半的年代,源于有目标而不得法的状态. 当时候有大量的有梦想的年轻同学们,孜孜不倦的在书本的海洋中努力学习,心怀上一个好大学的梦想. 这种梦想支持了很多同学能够日复一日的从枯燥的学习中获得少量的进步. 但是,由于方法论的不得当,造成了对心理的巨大损伤. 这一切的原因最重要的是缺乏一个有方法、懂战术、大处看战略,小处抓细节的老师的指导.

Learning to Rank 简介

- - 博客园_首页
  去年实习时,因为项目需要,接触了一下Learning to Rank(以下简称L2R),感觉很有意思,也有很大的应用价值. L2R将机器学习的技术很好的应用到了排序中,并提出了一些新的理论和算法,不仅有效地解决了排序的问题,其中一些算法(比如LambdaRank)的思想非常新颖,可以在其他领域中进行借鉴.

Linkin Park - Rolling In The Deep(live中英字幕)

- Alen - 音动我心 – Mtime时光网

DPI (Deep Packet Inspection) 深度包检测技术 - 简书

- -
近年来,网络新业务层出不穷,有对等网络(Peer-to-Peer,简称 P2P)、VoIP、流媒体、Web TV、音视频聊天、互动在线游戏和虚拟现实等. 这些新业务的普及为运营商吸纳了大量的客户资源,同时也对网络的底层流量模型和上层应用模式产生了很大的冲击,带来带宽管理、内容计费、信息安全、舆论管控等一系列新的问题.

转载的一些machine learning的网站总结

- knighter - 增强视觉 | 计算机视觉 增强现实
转载自demonstrate 的 blog. 这里搜集了一些常见的和 machine learning 相关的网站,按照 topic 来分. http://www.gaussianprocess.org 包括相关的书籍(有 Carl Edward Rasmussen 的书),相关的程序以及分类的 paper 列表.

新学期第2周:Pragmatic Thinking and Learning 笔记

- 透明 - 崔添翼 § 翼若垂天之云
以下是我在阅读 Pragmatic Thinking and Learning: Refactoring Your Wetware (中文版为程序员的思维修炼)时做的英文笔记,未经整理. Everything is interconnected in nonlinear systems (small things can have unexpectedly large effects), and you’re part of it even you don’t know.