Deep metric learning through local attention and generative loss

通过局部注意力和生成损失进行深度度量学习

基本信息

  • 批准号:
    21K17761
  • 负责人:
  • 金额:
    $ 2.83万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
  • 财政年份:
    2021
  • 资助国家:
    日本
  • 起止时间:
    2021-04-01 至 2023-03-31
  • 项目状态:
    已结题

项目摘要

今年はオンライン手書き数式の類似度とGraph手法で手書き数式認識の研究をした。オンライン手書き数式の類似度では、数式パターンとLatexの列の類似度を推定する手法をである。手書き数式答案の採点や手書き数式検索などの応用がある。この類似度を計算するため、シンボル・位置関係の列の経由で、オンライン手書き数式をRecurrent Neural Networksに入力し、シンボル・位置関係列を出力し、また、LatexからTransformerSeq2Seqを入力し、シンボル・位置関係を出力する。その二つのシンボル・位置関係列をTemporal Classification Lossで、類似度を推定ができた。Graph手法で手書き数式認識では、オンライン手書き数式からRecurrent Neural Networksを入力し、シンボル・位置関係列を出力し、シンボル全体の位置関係を計算することができる。このGraphを数式の標準(Symbol Label Graph)を生成するため、Minimum Spanning Treeアルゴリズムを研究した。Graph手法は手書き数式認識だけではなく、数式の構造まで認識を行い、また、手書き数式の書き順を依存なしで認識ができた。
This year's study on the similarity and Graph method of handwriting number recognition The similarity of the number of words in Chinese calligraphy is estimated by the similarity of the number of words in Chinese calligraphy. The answer to this question is: The similarity calculation method includes the following steps: calculating the input force of Recurrent Neural Networks, calculating the input force of Latex TransformerSeq 2Seq, calculating the input force of Latex TransformerSeq 2Seq, calculating the input force of Latex TransformerSeq 2Seq, calculating the input force of Latex TransformerSeq2Seq, and calculating the input force of Latex TransformerSeq2Seq 2Seq. Temporal Classification Loss and Similarity Estimation Graph Method: Manual Number Recognition: Recurrent Neural Networks: Input Force: Position Relationship: Output Force: Total Position Relationship: Calculation This Graph is a Symbol Label Graph, and it is a Minimum Spanning Tree. Graph method is to recognize the number of calligraphy, the structure of the number of calligraphy, the order of calligraphy, the number of calligraphy, and the number of calligraphy.

项目成果

期刊论文数量(10)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Handwriting Recognition and Automatic Scoring for Descriptive Answers in Japanese Language Tests
  • DOI:
    10.1007/978-3-031-21648-0_19
  • 发表时间:
    2022-01
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Hung Tuan Nguyen;C. Nguyen;Haruki Oka;T. Ishioka;M. Nakagawa
  • 通讯作者:
    Hung Tuan Nguyen;C. Nguyen;Haruki Oka;T. Ishioka;M. Nakagawa
Visual Constraints for Generating Multi-Domain Offline Handwritten Mathematical Expressions
生成多域离线手写数学表达式的视觉约束
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    [12]Huy Quang Ung;Hung Tuan Nguyen;Cuong Tuan Nguyen;Tsunenori Ishioka and Masaki Nakagawa
  • 通讯作者:
    Tsunenori Ishioka and Masaki Nakagawa
Global Context for improving recognition of Online Handwritten Mathematical Expressions
  • DOI:
    10.1007/978-3-030-86331-9_40
  • 发表时间:
    2021-05
  • 期刊:
  • 影响因子:
    0
  • 作者:
    C. Nguyen;Thanh-Nghia Truong;Hung Tuan Nguyen;M. Nakagawa
  • 通讯作者:
    C. Nguyen;Thanh-Nghia Truong;Hung Tuan Nguyen;M. Nakagawa
Fully Automated Short Answer Scoring of the Trial Tests for Common Entrance Examinations for Japanese University
日本大学共同入学考试试题全自动简答评分
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Haruki Oka;Hung Tuan Nguyen;Cuong Tuan Nguyen;Masaki Nakagawa;Tsunenori Ishioka
  • 通讯作者:
    Tsunenori Ishioka
Learning Symbol Relation Tree for Online Handwritten Mathematical Expression Recognition
学习符号关系树用于在线手写数学表达式识别
  • DOI:
  • 发表时间:
    2021
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Thanh-Nghia Truong;Cuong Tuan Nguyen;Hung Tuan Nguyen;and Masaki Nakagawa
  • 通讯作者:
    and Masaki Nakagawa
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

NGUYENTUAN CUONG其他文献

NGUYENTUAN CUONG的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('NGUYENTUAN CUONG', 18)}}的其他基金

A Sequence-to-sequence Model based Dissimilarity Measurement for Clustering Structural Data
基于序列到序列模型的结构数据聚类相异度测量
  • 批准号:
    18K18068
  • 财政年份:
    2018
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists

相似国自然基金

基于生物学引导MRI-Transformer模型评估三阴性乳腺癌抗PD-1/PD-L1免疫治疗反应的研究
  • 批准号:
    QN25H180017
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
建立新型Transformer架构算法提升人工智能诊断对心电图P波的定位与识别
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
面向Transformer大模型推理任务的加速计算关键技术研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于二维余弦卷积算子及时频 Transformer的癫痫发作检测及类型辨识 一体化方法研究
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    10.0 万元
  • 项目类别:
    省市级项目
基于多模态Transformer的胃低级别上皮内瘤变诊断与癌变风险预测研究
  • 批准号:
    JCZRYB202500849
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于U-net和Transformer的深度学习模型构建非增强CT急性缺血性脑卒中核心梗死区可视化分割系统
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于Transformer算法下甲状旁腺消融术后疗效的超声图像预测模型构建及验证
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于Transformer端到端的多模态景象匹配飞行器快速定位方法研究
  • 批准号:
    2025JJ60407
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于Transformer深度学习模型预测脑卒中取栓术后脑水肿风险
  • 批准号:
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目
基于Transformer模型的基因调控网络推断与关键调控子挖掘方法研究
  • 批准号:
    MS25F020107
  • 批准年份:
    2025
  • 资助金额:
    0.0 万元
  • 项目类别:
    省市级项目

相似海外基金

Transformerを用いた多次元時系列データの異常予兆検知
使用 Transformer 检测多维时间序列数据中的异常符号
  • 批准号:
    24K20777
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
Transformerに基づくインテリジェント無線通信システム
基于Transformer的智能无线通信系统
  • 批准号:
    24K00888
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
主体的学びを促すICEモデルに基づく大学授業設計手法のTransformerを用いた実践開発
使用 Transformer 进行实际开发,Transformer 是一种基于 ICE 模型的大学课程设计方法,可促进自主学习
  • 批准号:
    24K06137
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
RII Track-4:@NASA: Automating Character Extraction for Taxonomic Species Descriptions Using Neural Networks, Transformer, and Computer Vision Signal Processing Architectures
RII Track-4:@NASA:使用神经网络、变压器和计算机视觉信号处理架构自动提取分类物种描述的字符
  • 批准号:
    2327168
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Standard Grant
Collaborative Research: CIF:Medium:Theoretical Foundations of Compositional Learning in Transformer Models
合作研究:CIF:Medium:Transformer 模型中组合学习的理论基础
  • 批准号:
    2403074
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Standard Grant
Collaborative Research: CIF:Medium:Theoretical Foundations of Compositional Learning in Transformer Models
合作研究:CIF:Medium:Transformer 模型中组合学习的理论基础
  • 批准号:
    2403075
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Standard Grant
Binary Vision Transformer の専用ハードウェアに関する研究
二元视觉Transformer专用硬件研究
  • 批准号:
    24K02912
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
Transformerのための高効率ヘテロジニアスカスタムアクセラレータ基盤
Transformer高效异构定制加速器基础
  • 批准号:
    24K02994
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Scientific Research (B)
Transformer-based Framework for Multi-objective Reinforcement Learning using Hierarchical Policies
使用分层策略的基于 Transformer 的多目标强化学习框架
  • 批准号:
    24K20843
  • 财政年份:
    2024
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Grant-in-Aid for Early-Career Scientists
Collaborative Research: A Solar-Powered Aerial Transformer for Enhanced Mobility and Endurance
合作研究:增强机动性和耐用性的太阳能空中变压器
  • 批准号:
    2334994
  • 财政年份:
    2023
  • 资助金额:
    $ 2.83万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了