操作対象物の時系列動作ロギングに基づくロボットアームの身体性に依存しない動作教示
基于操作对象的时间序列运动记录,不依赖于机械臂物理性的运动示教
基本信息
- 批准号:21K17834
- 负责人:
- 金额:$ 2.91万
- 依托单位:
- 依托单位国家:日本
- 项目类别:Grant-in-Aid for Early-Career Scientists
- 财政年份:2021
- 资助国家:日本
- 起止时间:2021-04-01 至 2025-03-31
- 项目状态:未结题
- 来源:
- 关键词:
项目摘要
本研究の目的は,ロボットの身体性に依存しない動作教示法を確立することである.一般的な動作の教示方法は,各関節の動きを直接指定する方法である.教示される動作パラメータは,関節数や腕の長さ,エンドエフェクタの仕様(これらをまとめて身体性と呼ぶ)に依存するため,他のロボットにはそのまま利用することはできない.一方で,操作される対象物に着目すると,把持される部位や持ち上げられた後の軌跡は共通性が高いと考えられる.したがって,従来の教示方法のように,“ロボットがどのように動くべきか”を教示するのではなく,“対象物がどのように動かされるべきか”を教示することによって,複数ロボット間の身体性の違いに依存しない動作生成が可能になることを示す.2022年度は,2021年度に引続き,人によって操作される物体の3次元的な位置姿勢を推定する方法の研究を推進した.形状の対象性が強い物体の姿勢推定に有効な誤差関数(Variance loss)を提案した.具体的には,位置合わせする3D形状同士のずれ(3D形状を構成する各3D点の最近傍点までの距離)の分散値を計算し,この値を姿勢を回帰する深層学習モデルの学習時の損失として考慮することにより,従来手法と比較して,特に対象形の強い物体に対しての姿勢推定性能が向上することを確認した.この成果を国内シンポジウム2件で発表した.2021年度とは姿勢推定という点で同様の研究ではあるが,本研究課題が対象としている日用品に多い対象形を持つ形状に有効な姿勢推定技術を提案できたので,課題の達成に確実に近づいたことを確信している.
In this study, the purpose of this study is to make sure that the body is dependent on the body. In the general action teaching method, each action is directly assigned to the body. Teach the action to make sure that you don't know what to do, and how to count your wrists. On the one hand, use the device to look at the object, control the part of the device, control the part of the device, and show you the high commonality of the object. It is possible that the action generated by the action of the animal may show that it is possible to do so in the year 2022 and the year 2021. Study on the method of position and attitude presumption of 3-dimensional objects. Shape, imagery, strength, attitude, presumption, number of errors (Variance loss), proposals. Specific, position alignment, 3D shape alignment, 3D shape alignment (3D shape calculation). In order to improve the performance of the object, the performance of the presumption of the attitude of the object has been confirmed. The results show that there are two tables in China. In 2021, the study on the presumption of attitude is the same as the study on the presumption of attitude. In this study, the subject of this study is that the shape of the commodity is shaped, the technical proposal of the presumption of attitude, the proposal of the technical proposal, and the problem is discussed, and the problem is discussed.
项目成果
期刊论文数量(5)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
点間距離のばらつきの最小化に基づく物体の3次元姿勢推定手法の提案
提出一种基于最小化点间距离离散度的物体 3D 姿态估计方法
- DOI:
- 发表时间:2022
- 期刊:
- 影响因子:0
- 作者:保田展邦,秋月秀一,橋本学
- 通讯作者:保田展邦,秋月秀一,橋本学
ASM-Net: Category-level Pose and Shape Estimation Using Parametric Deformation
- DOI:
- 发表时间:2021
- 期刊:
- 影响因子:0
- 作者:Shuichi Akizuki;M. Hashimoto
- 通讯作者:Shuichi Akizuki;M. Hashimoto
カテゴリレベル姿勢推定のための対象物の非剛体変形パラメータ推定手法
类别级位姿估计的物体非刚性形变参数估计方法
- DOI:
- 发表时间:2021
- 期刊:
- 影响因子:0
- 作者:保田展邦,秋月秀一,橋本学;保田展邦,秋月秀一,橋本学;Shuichi Akizuki and Manabu Hashimoto;秋月秀一,橋本学
- 通讯作者:秋月秀一,橋本学
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
秋月 秀一其他文献
Detect Functions of Objects Based on Operational Task Input
根据操作任务输入检测物体的功能
- DOI:
10.2493/jjspe.85.1136 - 发表时间:
2019 - 期刊:
- 影响因子:0
- 作者:
石川 裕地;石川 晴也;秋月 秀一;青木 義満 - 通讯作者:
青木 義満
詳解 3次元点群処理 Pythonによる基礎アルゴリズムの実装
详解3D点云处理基本算法的Python实现
- DOI:
- 发表时间:
2022 - 期刊:
- 影响因子:0
- 作者:
金崎 朝子;秋月 秀一;千葉 直也 - 通讯作者:
千葉 直也
秋月 秀一的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('秋月 秀一', 18)}}的其他基金
パーツアフォーダンス学習に基づく操作タスクを考慮した3次元物体認識
基于零件可供性学习的考虑操纵任务的 3D 对象识别
- 批准号:
16J09262 - 财政年份:2016
- 资助金额:
$ 2.91万 - 项目类别:
Grant-in-Aid for JSPS Fellows