画像処理における位置依存フィルタのためのフルベイズ統計推測法
图像处理中位置相关滤波器的完整贝叶斯统计推断方法
基本信息
- 批准号:08J08856
- 负责人:
- 金额:$ 0.77万
- 依托单位:
- 依托单位国家:日本
- 项目类别:Grant-in-Aid for JSPS Fellows
- 财政年份:2008
- 资助国家:日本
- 起止时间:2008 至 2009
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
採用2年目となる本年度は,主に3つのトピックに取り組んだ.実績を挙げた.いずれの実績においても,構成された画像処理アルゴリズムが高性能である点と,各モデルにおける厳密計算の困難性を適切な近似法によって克服した点とが主な意義と重要性である.1つ目は,画像のフィルタリング処理の統計的な定式化に,カラー画像への適応を組み込んだことである.画像フィルタの拡大係数の上にスパース性を仮定するスパースベイズ学習法により,サポートが小さくコンパクトであるにもかかわらず拡大性能の高いフィルタが学習されることが前年度に示されたことであるが,カラーチャネルごとのスパース性を考慮することで,RGB表現においてはGチャネル(緑色)において大きなサポートが学習されやすいことが,YIQ表現においてはYチャネル(輝度)において大きなサポートが学習されやすいことが,それぞれ示された.本結果は,ヒト視覚系がGチャネルやYチャネルに鋭敏に反応することは広く知られており,映像取得や伝送において広く利用されていることとも一致している.2つ目は,画像超解像法の研究にとりくみ,ハイパーパラメタ推定や,効率の良いレジストレーション法,遮蔽物除去といった事項を研究した.3つ目は,コンピュータ断層撮影法(CT)の研究である.人体を撮影対象とする場合は,撮影される物体が空気,水,骨,脂肪,筋肉など既知のものである点を利用し,再構成性能のよいCTアルゴリズムの提案をおこなった.
This year's program will be used for 2 years, and the main 3-year program will be used to select the organization. I'm sorry, I'm sorry. In order to overcome the meaning of the importance of the point, the image of the image, the image In the portrait, you know, in the portrait, you know, you know RGB shows that the color is not good, and that the YIQ shows that there is a difference between the temperature and the temperature, and that the YIQ shows that the temperature is very low. The result of this result is that the image is obtained by using the method of super-resolution, the method of super-resolution of portrait, the method of study, the method of presumption, the method of super-resolution, the method of hyperresolution, the method of image analysis, the method of image To remove the cover, the items of study. 3% of the total number of items, the method of image extraction (CT), the method of research. Human body "CT" like "match", make up "objects", "empty", "water", "bone", "fat", "muscle", "knowledge", "make use of", and then form a performance model.
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Superresolution with compound Markov random fields via the variational EM algorithm
- DOI:10.1016/j.neunet.2008.12.005
- 发表时间:2009-09-01
- 期刊:
- 影响因子:7.8
- 作者:Kanemura, Atsunori;Maeda, Shin-ichi;Ishii, Shin
- 通讯作者:Ishii, Shin
Superresolution with Compound Random Fields via the Variational EM Algorithm
通过变分 EM 算法实现复合随机场的超分辨率
- DOI:
- 发表时间:2009
- 期刊:
- 影响因子:7.8
- 作者:A. Kanemura;S. Maeda;S. Ishii
- 通讯作者:S. Ishii
Subspace selection for resolution synthesis
分辨率合成的子空间选择
- DOI:
- 发表时间:2008
- 期刊:
- 影响因子:0
- 作者:A. Kanemura;S. Maeda;S. Ishii
- 通讯作者:S. Ishii
Superresolution from Occluded Scenes
- DOI:10.1007/978-3-642-10684-2_3
- 发表时间:2009-12
- 期刊:
- 影响因子:0
- 作者:Wataru Fukuda;Atsunori Kanemura;S. Maeda;S. Ishii
- 通讯作者:Wataru Fukuda;Atsunori Kanemura;S. Maeda;S. Ishii
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
兼村 厚範其他文献
脳磁図を用いた日常動作における手先の動きの再構成 (Decoding hand movements in everyday activities from magnetoencephalography)
从脑磁图解码日常活动中的手部动作
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
平山 淳一郎;鹿内 友美;中村 泰;前田 新一;竹之内 高志;兼村 厚範;川鍋 一晃;石井 信 - 通讯作者:
石井 信
NIRSを事前情報としEEGから推定された皮質電流からの空間注意のデコーディング (Decoding of spatial attention from cortical currents estimated from EEG with NIRS prior)
利用 NIRS 先验从脑电图估计的皮质电流中解码空间注意力
- DOI:
- 发表时间:
- 期刊:
- 影响因子:0
- 作者:
森岡 博史;兼村 厚範;森本 智志;吉岡 琢;川鍋 一晃;石井 信 - 通讯作者:
石井 信
兼村 厚範的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('兼村 厚範', 18)}}的其他基金
意図推定のための脳波の時系列モデル構築と信号復元
用于意图估计的脑电图时间序列模型构建和信号恢复
- 批准号:
23K11268 - 财政年份:2023
- 资助金额:
$ 0.77万 - 项目类别:
Grant-in-Aid for Scientific Research (C)














{{item.name}}会员




