RI: Small: Model-Based Deep Reinforcement Learning for Domain Transfer
RI:小型:用于域迁移的基于模型的深度强化学习
基本信息
- 批准号:1614653
- 负责人:
- 金额:$ 47.93万
- 依托单位:
- 依托单位国家:美国
- 项目类别:Standard Grant
- 财政年份:2016
- 资助国家:美国
- 起止时间:2016-09-01 至 2016-11-30
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
The goal of this project is to develop machine learning algorithms that can enable automated decision making and control in applications that require autonomous agents to interact with the real world. In particular, the project will examine two application areas: autonomous robots and educational agents that interact with human students to facilitate learning. The principal technical development investigated in this project will center around applications of deep neural networks (deep learning) to efficiently learn predictive models of the world, such as the physical environment of the robot or the behavior of a human student using an interactive educational agent. Deep learning has enabled impressive advances in passive perception domains such as computer vision and speech recognition, but typically requires very large amounts of data to succeed. This is often a major challenge in interactive settings, where a robot cannot interact with its environment for weeks or months just to learn a single behavior. To address this challenge, this project will investigate how predictive models can be transferred from prior tasks into a new task. The technologies developed as part of this project could enable substantially more sophisticated autonomous systems that can adapt quickly to new situations through transfer. Economic impact could include new consumer robotics products and improved education through intelligent automation.Reinforcement learning holds the promise of automating complex decision making and control in the presence of uncertainty. For a wide range of real-world problems, from robotic control and autonomous vehicles to interactive educational tools, this would provide dramatic improvements in capability and reduction in engineering cost. However, applying reinforcement learning to complex, unstructured environments and real-world problems with raw inputs, such as images and sounds, remains tremendously difficult. Deep learning has shown a great deal of promise for tackling complex learning problems, especially ones that require parsing high-dimensional, raw sensory signals, but the most successful applications of deep learning use very large amounts of labeled data. This is at odds with the demands of reinforcement learning, where the goal is typically to learn an effective policy using the minimal amount of interaction. This projects aims to address this challenge by developing algorithms for model-based deep reinforcement learning, where a generalizable model is learned from past experience on related but different tasks, and then transferred to a new task to learn it very quickly, directly using raw sensory inputs.
该项目的目标是开发机器学习算法,在需要自主代理与现实世界交互的应用程序中实现自动决策和控制。特别是,该项目将研究两个应用领域:自主机器人和与人类学生互动以促进学习的教育代理。本项目研究的主要技术发展将围绕深度神经网络(深度学习)的应用,以有效地学习世界的预测模型,例如机器人的物理环境或使用交互式教育代理的人类学生的行为。深度学习在计算机视觉和语音识别等被动感知领域取得了令人印象深刻的进步,但通常需要非常大量的数据才能成功。在交互式环境中,这通常是一个主要的挑战,因为机器人不能为了学习一种行为而与环境进行数周或数月的交互。为了应对这一挑战,该项目将研究如何将预测模型从先前的任务转移到新任务中。作为该项目的一部分开发的技术可以使更复杂的自主系统能够通过转移迅速适应新情况。经济影响可能包括新的消费机器人产品,以及通过智能自动化改善教育。强化学习有望在存在不确定性的情况下实现复杂决策和控制的自动化。对于广泛的现实问题,从机器人控制和自动驾驶汽车到交互式教育工具,这将大大提高能力并降低工程成本。然而,将强化学习应用于复杂的非结构化环境和具有原始输入(如图像和声音)的现实世界问题仍然非常困难。深度学习在解决复杂的学习问题,特别是那些需要解析高维、原始感官信号的问题上显示出了很大的希望,但深度学习最成功的应用使用了大量的标记数据。这与强化学习的要求不一致,强化学习的目标通常是使用最少的交互来学习有效的策略。该项目旨在通过开发基于模型的深度强化学习算法来解决这一挑战,其中可推广的模型从过去相关但不同的任务的经验中学习,然后转移到新任务中,直接使用原始感官输入快速学习。
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
数据更新时间:{{ journalArticles.updateTime }}
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Sergey Levine其他文献
Goal-oriented Vision-and-Dialog Navigation through Reinforcement Learning
通过强化学习实现目标导向的视觉和对话导航
- DOI:
- 发表时间:
2022 - 期刊:
- 影响因子:0
- 作者:
Peter Anderson;Qi Wu;Damien Teney;Jake Bruce;Mark Johnson;Niko Sünderhauf;Ian D. Reid;F. Bonin;Alberto Ortiz;Angel X. Chang;Angela Dai;T. Funkhouser;Ma;Matthias Niebner;M. Savva;David Chen;Raymond Mooney. 2011;Learning;Howard Chen;Alane Suhr;Dipendra Kumar Misra;T. Kollar;Nicholas Roy;Trajectory;Satwik Kottur;José M. F. Moura;Dhruv Devi Parikh;Sergey Levine;Chelsea Finn;Trevor Darrell;Jianfeng Li;Gao Yun;Chen;Ziming Li;Sungjin Lee;Baolin Peng;Jinchao Li;Julia Kiseleva;M. D. Rijke;Shahin Shayandeh;Weixin Liang;Youzhi Tian;Cheng;Yitao Liang;Marlos C. Machado;Erik Talvitie;Chih;Jiasen Lu;Zuxuan Wu;G. Al - 通讯作者:
G. Al
Is Value Learning Really the Main Bottleneck in Offline RL?
价值学习真的是离线强化学习的主要瓶颈吗?
- DOI:
- 发表时间:
2024 - 期刊:
- 影响因子:0
- 作者:
Seohong Park;Kevin Frans;Sergey Levine;Aviral Kumar - 通讯作者:
Aviral Kumar
Functional Graphical Models: Structure Enables Offline Data-Driven Optimization
功能图形模型:结构支持离线数据驱动优化
- DOI:
- 发表时间:
2024 - 期刊:
- 影响因子:0
- 作者:
J. Kuba;Masatoshi Uehara;Pieter Abbeel;Sergey Levine - 通讯作者:
Sergey Levine
Grow Your Limits: Continuous Improvement with Real-World RL for Robotic Locomotion
拓展你的极限:通过现实世界的强化学习来持续改进机器人运动
- DOI:
- 发表时间:
2023 - 期刊:
- 影响因子:0
- 作者:
Laura M. Smith;Yunhao Cao;Sergey Levine - 通讯作者:
Sergey Levine
HiLMa-Res: A General Hierarchical Framework via Residual RL for Combining Quadrupedal Locomotion and Manipulation
HiLMa-Res:通过残差强化学习结合四足运动和操纵的通用分层框架
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
Xiaoyu Huang;Qiayuan Liao;Yiming Ni;Zhongyu Li;Laura Smith;Sergey Levine;Xue Bin Peng;K. Sreenath - 通讯作者:
K. Sreenath
Sergey Levine的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Sergey Levine', 18)}}的其他基金
RI: Small: Extracting Knowledge from Language Models for Decision Making
RI:小型:从语言模型中提取知识以进行决策
- 批准号:
2246811 - 财政年份:2023
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
Robotic Learning with Reusable Datasets
使用可重复使用的数据集进行机器人学习
- 批准号:
2150826 - 财政年份:2022
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
CAREER: Deep Robotic Learning with Large Datasets: Toward Simple and Reliable Lifelong Learning Frameworks
职业:大数据集的深度机器人学习:迈向简单可靠的终身学习框架
- 批准号:
1651843 - 财政年份:2017
- 资助金额:
$ 47.93万 - 项目类别:
Continuing Grant
NRI: Collaborative Research: Learning Deep Sensorimotor Policies for Shared Autonomy
NRI:协作研究:学习共享自主权的深度感觉运动策略
- 批准号:
1637443 - 财政年份:2016
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: Model-Based Deep Reinforcement Learning for Domain Transfer
RI:小型:用于域迁移的基于模型的深度强化学习
- 批准号:
1700697 - 财政年份:2016
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
NRI: Collaborative Research: Learning Deep Sensorimotor Policies for Shared Autonomy
NRI:协作研究:学习共享自主权的深度感觉运动策略
- 批准号:
1700696 - 财政年份:2016
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
相似国自然基金
昼夜节律性small RNA在血斑形成时间推断中的法医学应用研究
- 批准号:
- 批准年份:2024
- 资助金额:0.0 万元
- 项目类别:省市级项目
tRNA-derived small RNA上调YBX1/CCL5通路参与硼替佐米诱导慢性疼痛的机制研究
- 批准号:n/a
- 批准年份:2022
- 资助金额:10.0 万元
- 项目类别:省市级项目
Small RNA调控I-F型CRISPR-Cas适应性免疫性的应答及分子机制
- 批准号:32000033
- 批准年份:2020
- 资助金额:24.0 万元
- 项目类别:青年科学基金项目
Small RNAs调控解淀粉芽胞杆菌FZB42生防功能的机制研究
- 批准号:31972324
- 批准年份:2019
- 资助金额:58.0 万元
- 项目类别:面上项目
变异链球菌small RNAs连接LuxS密度感应与生物膜形成的机制研究
- 批准号:81900988
- 批准年份:2019
- 资助金额:21.0 万元
- 项目类别:青年科学基金项目
肠道细菌关键small RNAs在克罗恩病发生发展中的功能和作用机制
- 批准号:31870821
- 批准年份:2018
- 资助金额:56.0 万元
- 项目类别:面上项目
基于small RNA 测序技术解析鸽分泌鸽乳的分子机制
- 批准号:31802058
- 批准年份:2018
- 资助金额:26.0 万元
- 项目类别:青年科学基金项目
Small RNA介导的DNA甲基化调控的水稻草矮病毒致病机制
- 批准号:31772128
- 批准年份:2017
- 资助金额:60.0 万元
- 项目类别:面上项目
基于small RNA-seq的针灸治疗桥本甲状腺炎的免疫调控机制研究
- 批准号:81704176
- 批准年份:2017
- 资助金额:20.0 万元
- 项目类别:青年科学基金项目
水稻OsSGS3与OsHEN1调控small RNAs合成及其对抗病性的调节
- 批准号:91640114
- 批准年份:2016
- 资助金额:85.0 万元
- 项目类别:重大研究计划
相似海外基金
RI: Small: Robust Model-Based Identification, Navigation, and Control of Underactuated Underwater Vehicles
RI:小型:基于鲁棒模型的欠驱动水下航行器识别、导航和控制
- 批准号:
1909182 - 财政年份:2019
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: A Unified Compositional Model for Explainable Video-based Human Activity Parsing
RI:小型:用于可解释的基于视频的人类活动解析的统一组合模型
- 批准号:
1815561 - 财政年份:2018
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: SMALL: Fast Prediction and Model Compression for Large-Scale Machine Learning
RI:SMALL:大规模机器学习的快速预测和模型压缩
- 批准号:
1901527 - 财政年份:2018
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: SMALL: Fast Prediction and Model Compression for Large-Scale Machine Learning
RI:SMALL:大规模机器学习的快速预测和模型压缩
- 批准号:
1719097 - 财政年份:2017
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: Model-Based Deep Reinforcement Learning for Domain Transfer
RI:小型:用于域迁移的基于模型的深度强化学习
- 批准号:
1700697 - 财政年份:2016
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: CompCog: Pique: A Cognitive Model of Curiosity for Personalizing Sequences of Learning Resources
RI:小:CompCog:Pique:用于个性化学习资源序列的好奇心认知模型
- 批准号:
1618810 - 财政年份:2016
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: Enabling robust visual intelligence using propagators to model human competence
RI:小:使用传播器模拟人类能力,实现强大的视觉智能
- 批准号:
1421065 - 财政年份:2014
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: BCSP: The Whole Worm: A Brain-Body-Environment Model of Nematode Chemotaxis
RI:小:BCSP:整个蠕虫:线虫趋化性的脑体环境模型
- 批准号:
1216739 - 财政年份:2012
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: Model-Directed Hybridization: Principled Design of Hybrids of Model Building, Metaheuristics and More Traditional Optimization Techniques
RI:小型:模型导向的混合:模型构建、元启发式和更传统的优化技术混合的原理设计
- 批准号:
1115352 - 财政年份:2011
- 资助金额:
$ 47.93万 - 项目类别:
Standard Grant
RI: Small: A New Voice Source Model: From Glottal Areas to Better Speech Synthesis
RI:Small:一种新的语音源模型:从声门区域到更好的语音合成
- 批准号:
1018863 - 财政年份:2010
- 资助金额:
$ 47.93万 - 项目类别:
Continuing Grant