変形分裂可能ユーザインタフェースによる不可逆作業の対象模倣型操縦ロボットシステム

目标模仿控制机器人系统,具有可变形和可分割的用户界面,可进行不可逆工作

基本信息

  • 批准号:
    22K21300
  • 负责人:
  • 金额:
    $ 1.83万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for Research Activity Start-up
  • 财政年份:
    2022
  • 资助国家:
    日本
  • 起止时间:
    2022-08-31 至 2023-03-31
  • 项目状态:
    已结题

项目摘要

本研究は不可逆作業の対象模倣型操縦を実現できる操縦ロボットシステムの構成法を明らかにすることを目的とし,a)変形分裂・再利用可能なユーザインタフェースを構成する変形分裂機能,b)変形分裂時の物理幾何拘束を認識する変形分裂計測機能,c)計測した状態から操縦者の意図する変形分裂時の物理幾何高速を認識する変形分裂認識機能の3つの機能実装に取り組んだ.令和4年度は主にa)変形分裂機能とb)変形分裂計測機能の開発に取り組んだ.a)変形分裂機能については,変形分裂を実現するためにセンサユニットと計算機ユニットを分離して構成するユーザインタフェースを検討し,各々のユニットを構成するための変形分裂に対応した構造物の検討を行った.これは申請者がこれまで取り組んできた教示インタフェースのセンサ部分と計算機部分を分割し,その間を変形分裂可能な構造物で構成するというこれまでの研究を拡張したかたちで実装することで,これまで取り組んできたロボットシステムを活用する実装を検討した.b)変形分裂計測機能については,変形分裂を計測し,かつ多くの人が触っても壊れないような力計測センサの検討・検証を行い,操縦ユーザインタフェースのセンサとしての設計を行った.こちらも申請者がこれまで取り組んできた教示インタフェースに対して接触センサのみではなく力計測センサを追加するというこれまでの研究を拡張したかたちで設計しており,これまで取り組んできたロボットシステムを活用する実装を行った.c)変形分裂認識機能についても取り組んでおり,設計している操縦ユーザインタフェースを用いて多種多様な形態のロボットを操縦することができる統合型操縦ユーザインタフェース認識システムを構築した.以上より本研究では,目指した操縦ロボットシステムを構成するための基礎技術の構成法を明らかにすることができたと結論付けられる.
This study は irreversible homework の like imitation seaborne hold 縦 を be presently で き る fuck 縦 ロ ボ ッ ト シ ス テ ム の composition method を Ming ら か に す る こ と を purpose と し, a) - shape may split, reuse な ユ ー ザ イ ン タ フ ェ ー ス を constitute す る - shape function division, b) - form divides の physical geometric constraint を know す る - shape measuring function division, C) measuring し た state か ら fuck 縦 is の meaning 図 す る split - shaped の physical geometry high-speed を know す る - form division know function の 3 つ の function be loaded に group take り ん だ. In the 4th year of the Reiwa era, the に main development にa) transformation and splitting function とb) transformation and splitting measurement function <s:1> development に group んだ. A) - shape function of split に つ い て は, split - shaped を be presently す る た め に セ ン サ ユ ニ ッ ト と computer ユ ニ ッ ト を separation し て constitute す る ユ ー ザ イ ン タ フ ェ ー ス を 検 for し, each 々 の ユ ニ ッ ト を constitute す る た め の - shaped split に 応 seaborne し た structure の 検 line for を っ た. こ れ は applicants が こ れ ま で group take り ん で き た teaching イ ン タ フ ェ ー ス の セ ン サ と computer part を し segmentation, そ の between を - form division may constitute a す な installations で る と い う こ れ ま で を の research company, zhang し た か た ち で be loaded す る こ と で, Youdaoplaceholder2 れまで take the れまで group んで たロボットシステムを たロボットシステムを たロボットシステムを make active use of する actual equipment を検 to discuss た. B) split - shape measuring function に つ い て は, split - shaped を measuring し, か つ more く の people touch が っ て も 壊 れ な い よ う な force measuring セ ン サ の 検 for line card · 検 を い, fuck 縦 ユ ー ザ イ ン タ フ ェ ー ス の セ ン サ と し て の line design を っ た. こ ち ら も applicants が こ れ ま で group take り ん で き た teaching イ ン タ フ ェ ー ス に し seaborne て contact セ ン サ の み で は な く force measuring セ ン サ を additional す る と い う こ れ ま で を の research company, zhang し た か た ち で design し て お り, こ れ ま で group take り ん で き た ロ ボ ッ ト シ ス テ ム を use す る line be loaded を っ た. C) split - shaped know function に つ い て も group take り ん で お り, design し て い る fuck 縦 ユ ー ザ イ ン タ フ ェ ー ス を with い て many many others な form の ロ ボ ッ ト を fuck 縦 す る こ と が で き る integrate type fuck 縦 ユ ー ザ イ ン タ フ ェ ー ス know シ ス テ ム を build し た. Above よ り this study で は, refers し た fuck 縦 ロ ボ ッ ト シ ス テ ム を constitute す る た め の base technology の method を Ming ら か に す る こ と が で き た と conclusion pay け ら れ る.

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

北川 晋吾其他文献

個人ゲノム情報はどこまで解き明かされたか -疾患リスク予測と個人同定-
个人基因组信息已阐明到何种程度? - 疾病风险预测和个体识别 -
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    東風上 奏絵;北川 晋吾;岡田 慧;稲葉 雅幸;今西規
  • 通讯作者:
    今西規
FMO 法と効率的サンプリング手法を組み合わせた反応経路解析
结合FMO方法和高效采样方法的反应路径分析
  • DOI:
  • 发表时间:
    2021
  • 期刊:
  • 影响因子:
    0
  • 作者:
    北川 晋吾;岡田 慧;稲葉 雅幸;山田真行・寺田透・清水謙多郎
  • 通讯作者:
    山田真行・寺田透・清水謙多郎
調理道具を扱う双腕ロボットによる野菜皮剥き切断操作の認識行動実現システム
使用处理炊具的双臂机器人进行蔬菜削皮和切割操作的识别行为实现系统
  • DOI:
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    0
  • 作者:
    金沢 直晃;北川 晋吾;室岡 貴之;岡田 慧;稲葉 雅幸
  • 通讯作者:
    稲葉 雅幸
双腕組み立て作業の遠隔操縦のためのタンジブルユーザインターフェースデバイスの設計と開発
设计和开发用于远程控制双臂装配任务的有形用户界面设备
  • DOI:
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    0
  • 作者:
    北川 晋吾;岡田 慧;稲葉 雅幸
  • 通讯作者:
    稲葉 雅幸
ソフトハンドを有するロボットの視聴覚統合型遠隔マニピュレーションシステムの開発
软手机器人视听一体化远程操控系统的研制
  • DOI:
  • 发表时间:
    2020
  • 期刊:
  • 影响因子:
    0
  • 作者:
    北川 晋吾;廣瀬 俊典;新城 光樹;岡田 慧;稲葉 雅幸
  • 通讯作者:
    稲葉 雅幸

北川 晋吾的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('北川 晋吾', 18)}}的其他基金

人とロボットが着衣可能な柔軟衣服型タンジブルUIによる操縦自律協調間横断学習
使用人类和机器人都可以穿戴的灵活的服装式有形 UI 进行自主操作和协作操作之间的交叉学习
  • 批准号:
    23K16969
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
Cooperative autonomous learning system for collaborative robots using task context learning and task memory management
使用任务上下文学习和任务记忆管理的协作机器人的协作自主学习系统
  • 批准号:
    20J13760
  • 财政年份:
    2020
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows

相似海外基金

HSI Pilot Project: Institutionalizing a Teaching and Learning Excellence Community of Practice focused on First-Year Student Success in STEM
HSI 试点项目:将卓越教学和学习实践社区制度化,重点关注一年级学生在 STEM 方面的成功
  • 批准号:
    2345247
  • 财政年份:
    2024
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Standard Grant
Developing Teacher Leaders' Capacity to Promote Equitable Teaching and Learning in Secondary Science Classrooms
培养教师领导者促进中学科学课堂教学公平的能力
  • 批准号:
    2343911
  • 财政年份:
    2024
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Continuing Grant
Fostering More Accurate and Identity-Affirming Science Teaching and Learning at Hispanic-Serving Institutions
在西班牙裔服务机构中促进更准确和身份肯定的科学教学
  • 批准号:
    2235957
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Standard Grant
Multimodal conversation analysis of Japanese Noh classroom practice: Focusing on the interaction of teaching and learning
日本能剧课堂实践的多模态会话分析:关注教与学的互动
  • 批准号:
    23K12191
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
Fostering More Accurate and Identity-Affirming Science Teaching and Learning at Hispanic-Serving Institutions
在西班牙裔服务机构中促进更准确和身份肯定的科学教学
  • 批准号:
    2346653
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Standard Grant
Promoting Inclusive Teaching through the Scholarship of Teaching and Learning: A Faculty Learning Community Model
通过教与学的奖学金促进包容性教学:教师学习社区模式
  • 批准号:
    2247809
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Standard Grant
Teaching and learning about class as a tool for change
将课堂作为变革工具进行教学和学习
  • 批准号:
    2888270
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Studentship
Development and evaluation of a VR teaching and learning DX platform that can resiliently respond to With Corona.
开发和评估能够灵活应对冠状病毒的 VR 教学 DX 平台。
  • 批准号:
    23H01012
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
Establishment of a next generation's teaching and learning federation infrastructure in the university's new normal era
大学新常态时代下一代教与学联盟基础设施的建立
  • 批准号:
    23K02655
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
Conference: 2024 Workshop on Scholarly Teaching and Scholarship of Teaching and Learning in Linguistics
会议:2024年语言学学术教学与教学奖学金研讨会
  • 批准号:
    2336207
  • 财政年份:
    2023
  • 资助金额:
    $ 1.83万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了