深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )

MIT(Deep Learning for Self-Driving Cars) CMU(Deep Reinforcement Learning and Control )

参考网址:

Deep Learning for Self-Driving Cars  --  6.S094

http://selfdrivingcars.mit.edu/

Deep Reinforcement Learning and Control  --  10703

https://katefvision.github.io/

Deep Learning for Self-Driving Cars ALL

课程视频和PPT:http://url.cn/45DIOnZ

开始学习机器人-知乎专栏-Top

MIT最新课程 ——九小时速成深度学习&自动驾驶汽车

CMU深度增强学习&控制

下面为机器翻译结果,请参考源链接地址。

----

6.S094:自驾车的深度学习

本课程通过建立自动驾驶汽车的应用主题,介绍深度学习的实践。它对初学者开放,是为那些刚接触机器学习的人设计的,但它也可以帮助现场的高级研究人员寻找深度学习方法及其应用的实用概述。

对班级感兴趣吗?这里有一些你可以做的事情:

  1. 在网站上注册一个帐户以保持最新。课程的材料是免费的,向公众开放。
  2. 按照DeepTrafficDeepTesla教程,签出DeepTraffic排行榜
  3. DeepTraffic游戏DeepTesla模拟模拟设计和评估神经网络。
  4. 观看下面的讲座和客座讲座。

课程资料:

  • 首次提供: 2017年冬季
  • 教练: Lex Fridman
  • 联系人: deepcars@mit.edu

讲座幻灯片和视频:

* 标记为红色的材料表示尚未激活但即将发生的链接。

客人说话:

深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )
从研究到现实:在公共道路上测试自驾车
麻省理工学院首席执行官,神经科学和研究科学家
深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )
自驾车,SLAM和深度学习
麻省理工学院教授
深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )
AI年龄的技术,政策和车辆安全
斯坦福大学教授
深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )
运动规划在复杂世界中的过去,现在和未来
麻省理工学院教授
深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )
我们只采用我们的信任:政策和自主业务
白宫总统创新研究员,科学技术政策办公室

十分感谢

本课程的支持由MIT-SUTD和丰田集体行动解决安全研究和教育计划的良好人士提供。比赛的奖品由我们的朋友和Udacity的自驾驾驶汽车工程师提供。如果没有麻省理工学院及其以外的聪明年轻人的伟大社区,也不可能有这样的机会。

深度学习国外课程资料(Deep Learning for Self-Driving Cars)+(Deep Reinforcement Learning and Control )


----

深加固学习和控制 
2017年春季,CMU 10703

讲师: Katerina FragkiadakiRuslan Satakhutdinov
讲座: MW,3:00-4:20pm,Gates和Hillman中心4401 
办公时间:

  • 卡特琳娜:星期四1.30-2.30pm在8015盖茨和希尔曼中心
  • Russ:Friday 1.15-2.15pm,8017年Gates和Hillman中心

教学助理:

  • Devin Schwab:星期三2-3pm,NSH 4225
  • 李春良:周一1-2pm,GHC 8F开放学习区
  • Renato Negrinho:Wednesday 5-6pm,GHC 8213

通讯:广场是用于所有未来的公告,关于课程的一般问题,关于作业的澄清,学生问题彼此,关于材料的讨论,等等。我们强烈鼓励所有学生通过广场(链接)参与讨论,问问和回答问题。

类目标

  • 实施和实验现有的算法,用于学习控制策略指导强化,专家示范或自我试验。
  • 评估这些算法的样本复杂性,一般化和一般性。
  • 能够理解机器人学习领域的研究论文。
  • 试试你自己的一些想法/扩展。特别重视整合来自视觉或触觉感知的真实感觉信号,并探索从模拟学习与从真实体验学习之间的协同作用。

时间表

下面的时间表是暂定的,它将根据时间的限制和人们在课堂上的兴趣不断改变。阅读材料和讲义笔记将作为讲座进展添加。

日期 主题(幻灯片) 讲师 阅读
1/18 介绍 卡特琳娜 [1]
1/23 马尔科夫决策过程(MDP),POMDP 卡特琳娜 [SB,Ch 3]
1/25 解决已知的MDP:动态规划 卡特琳娜 [SB,Ch 4]
1/30 蒙特卡罗学习:价值函数(VF)估计和优化 Russ [SB,Ch 5]
2/1 时间差分学习:VF估计和优化,Q学习,SARSA Russ [SB,Ch 8]
2/2 OpenAI健身房 德文
2/6 规划与学习:Dyna,蒙特卡罗树搜索 卡特琳娜 [SB,Ch 8; 2]
2/8 VF近似,具有VF近似的MC,TD,具有VF近似的控制 Russ [SB,Ch 9]
2/13 VF近似,深度学习,Convnets,反向传播 Russ [GBC,Ch 6]
2/15 深度学习,Convnets,优化技巧 Russ [GBC,第9章]
2/20 深Q学习:双Q学习,重放记忆 Russ
2/22 策略梯度(1):REINFORCE,梯度估计的方差减少,演员 - 批评 Russ [GBC,第13章]
2/27 政策梯度(2),自然政策梯度,深层演员 - 评论家,TRPO Russ
3/1 仔细看看连续操作,变量自动编码器,多模态随机策略 Russ
3/6 勘探 卡特琳娜 [3,4]
3/8 模仿1 卡特琳娜 [5,6]
3/20 模仿2 卡特琳娜

资源

阅读

  1. [SB] Sutton&Barto,增强学习:介绍
  2. [GBC] Goodfellow,Bengio&Courville,深度学习
  1. Smith&Gasser,The Development of Embodied Cognition:Six Lessons from Babies
  2. Silver,Huang等人,Mastering the Game of Go with Deep Neural Networks and Tree Search
  3. Houthooft等人,VIME:Variational Information Maximizing Exploration
  4. Stadie等人,Incentivizing Exploration In Reinforcement Learning With Deep Predictive Models
  5. Bagnell,模仿的邀请
  6. Ho&Ermon,Generative Adversarial Imitation Learning

一般参考

在线课程

作业和评分

请使用NIPS样式文件在LaTeX中编写所有作业。(sty文件tex示例

课程成绩是作业的加权平均值(60%)和开放式最终项目(40%)。

先决条件

本课程假定学生熟悉钢筋学习,数值优化和机器学习。MLD中建议的相关课程包括机器学习简介,10807深度学习课程,10725凸优化或这些课程的在线等效版本。关于机器学习和神经网络的介绍材料,参见:

不太熟悉钢筋学习的学生可以从Sutton&Barto的第一章和Dave Silver的课程的第一课开始热身。

反馈

非常感谢您的 反馈。随意保持匿名,但总是试图有礼貌。

上一篇:[Java] JVM 在执行 main 方法前的行为


下一篇:Demo学习: FileUpload