MaskClipがCEATEC2025にて「CEATEC AWARD 2025」デジタル大臣賞を受賞

https://www.iii.u-tokyo.ac.jp/news/2025102423547

東京大学大学院情報学環 暦本研究室と株式会社村田製作所との共同研究成果である MaskClip (CEATECでの出展名 mask voice clip) が、CATEC2025にて「CEATEC AWARD 2025」デジタル大臣賞を受賞しました。

概要:
MaskClipは、医療環境や感染症発生時に不可欠なマスクが引き起こす音声コミュニケーション問題を解決するデバイスです。マスク着用は特に背景ノイズのある環境で音声明瞭度と認識精度を大幅に低下させます。MaskClipでは、高感度なピエゾセンサーを用いてマスク表面の振動を検出し、着用者の声のみを捉える手法を提案しています。ステンレス製のクリップに最適な位置で取り付けられたピエゾ電気センサーが音声振動を選択的に捉え、周囲のノイズを本質的にフィルタリングします。

評価実験では、ノイズの多い環境でも文字誤り率(CER)が6.1%と従来のマイクの19.7%に比べて優れた性能を示しました。102名の参加者による主観評価でも高い満足度スコアが得られています。

このアプローチは、医療施設、クリーンルームなど、保護具を着用しながら明確な音声コミュニケーションを維持する必要がある場面での応用が期待されます。

MaskClip プロジェクトページ:
https://lab.rekimoto.org/projects/maskclip/

CEATEC出展内容:
https://www.murata.com/ja-jp/events/ceatec

CEATEC AWARD 2025 審査委員会による選評:
騒がしい環境でも話者の声だけを正確に捉える、音源選択性とノイズ耐性とを構造的に両立させているという特徴を持つ。マスクの内側に取り付けられたセンサが発話の振動を直接検出することで、高品質な音声信号の取得を可能にしている。騒音環境下で音声認識の向上など、話者の声だけを認識することにより既存のノイズキャンセル技術を上まわる音声入力の向上が期待できる。製造業や病院といった、騒音環境下やマスク着用が必要な状況での音声入力の次世代インターフェースとして、その活用性が大きく評価された。これまではマスク着用時の発話、音声認識において課題があったが、本デバイスによりマスク着用がネガティブ要素にならないほか、マスクデバイス以外でのソリューションやサイレントスピーチへの応用など、将来的な可能性にも期待が寄せられた。

「CEATEC AWARD 2025」 デジタル大臣賞について:
CEATEC AWARD 2025は、事前に応募された作品の中から、2025開催テーマである「Innovation for All」に合致し、あらゆる業種・産業を網羅した「Society 5.0のショーケース」「デジタルイノベーションの総合展」としての、最も優れたプロジェクト、技術、製品、サービス、またはそれを支えるソフトウェア、アプリケーション、コンポーネント、デバイス等を表彰するものです。「デジタル大臣賞」は、デジタル社会において、個々人の多様な幸せを実現する仕組みやサービスなど、今後に向けた豊かな暮らしと強靭な社会づくりに最も寄与すると評価される応募者を表彰するものです。

参考文献:

  • Hirotaka Hiraki and Jun Rekimoto, MaskClip: Detachable Clip-On Piezoelectric Sensing of Mask Surface Vibrations for Real-Time Noise-Robust Speech Input, Augmented Humans 2025
  • 平城裕隆, 暦本純一 マスク表面の振動計測による着脱可能なリアルタイム音声強調手法の提案 第84回UBI研究会 (学生奨励賞受賞)

Best Paper Award at the IEEE VR 2025 Workshop on VR-HSA

The paper titled “NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses” received the Best Paper Award at the 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA), held as part of IEEE VR 2025 from March 8 to 12, 2025.

2025年3月8日から12日にかけて開催された IEEE VR 2025 の一環として行われた The 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA) において、「NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses」が Best Paper Award を受賞しました。

Best Paper Award:

NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses
Yuto Nakamura, Kazuki Nishimoto, Akira Yui, Takuji Narumi, Jun Rekimoto

NoseKnowsNorth is a device that provides directional cues by applying vibration stimuli to the sides of the nose. By leveraging the nose’s high tactile sensitivity, it enables users to sense directions without relying on visual or auditory cues. The device can be embedded in the nose pads of eyeglasses or smart glasses, making it suitable for everyday use. For example, when riding a bicycle or driving a car, users can check directions without shifting their gaze to a smartphone, enabling safer navigation.

NoseKnowsNorthは、鼻の側面に振動刺激を与えることで方向を提示するデバイスです。鼻の高い触覚感度を活用することで、視覚や聴覚に依存せずに方向の伝達を実現しています。このデバイスは眼鏡やスマートグラスの鼻パッド部分に組み込むことが可能で、日常生活においても手軽に使用できます。これにより、例えば自転車や自動車を運転する際に、地図を確認するためにスマートフォンへ視線を向ける必要がなくなり、より安全なナビゲーションが可能になると期待されます。

インタラクション2025で最優秀論文賞など3件受賞

2025年3月2日から3月4日に開催された情報処理学会インタラクション2025において、「ClothTalk:騒音環境下でもGPU不要でリアルタイムにクリアな音声入力を実現する導電布マイクロフォン」が最優秀論文賞、最優秀発表賞、インタラクティブ発表賞(PC推薦)の3件を受賞しました。

受賞名
情報処理学会 インタラクション2025 最優秀論文賞、最優秀発表賞、インタラクティブ発表賞(PC推薦)

発表タイトル
ClothTalk:騒音環境下でもGPU不要でリアルタイムにクリアな音声入力を実現する導電布マイクロフォン

著者
平城裕隆(学際情報学府・産総研)、金澤周介(産総研)、三浦貴大(産総研)、吉田 学(産総研)、持丸正明(産総研)、暦本純一(情報学環・ソニーCSL)


研究の概要
ClothTalkは、従来の高性能な音声強調システムで必要とされるGPUなどの計算資源を用いずに、ウェアラブルデバイスとして実現された新型マイクロフォンです。導電布を用いた柔軟なダイアフラムと、独自の回路設計により、周囲の雑音に左右されずに利用者の声を正確に捉えることができます。これにより、オンライン会議やスマートデバイスでの音声入力、さらには騒がしい公共の場など、さまざまなシーンでの利用が期待されます。

関連リンク

研究の紹介動画(30秒):
https://youtu.be/kkm_Dr-cuX0?si=4Bx3rFoq6mjC4a_D

インタラクション2025:
https://www.interaction-ipsj.org/2025/award/
https://www.interaction-ipsj.org/proceedings/2025/data/pdf/INT25001.pdf

Multiple paper awards at the Augmented Humans 2024 International Conference

The following paper awards were received at the Augmented Humans 2024 International Conference held in Melbourne, Australia from April 4-6, 2024. This conference featured research on augmenting human capabilities through advanced technologies:

2024年4月4日〜6日にオーストラリア・メルボルンで開催された人間拡張に関する国際学会 Augmented Humans 2024 で以下の論文賞を受賞しました

hm

Best Paper Honorable Mention:

Serendipity Wall: A Discussion Support System Using Real-time Speech Recognition and Large Language Model
Shota Imamura, Hirotaka Hiraki and Jun Rekimoto.

This research focuses on AI activating human discussions by dynamically searching for context-relevant information based on participants’ free speech recognized through voice recognition. It presents a user interface that displays discussion-relevant information summarized by a large language model on a large display without interrupting the discussion.

人間の議論をAIが活性化させるための研究で、参加者の自由発話による議論を音声認識し、議論の文脈に近い関連論文を動的に検索します。大規模言語モデルによって論文内容を要約し、議論をしている場所の大型ディスプレイに表示するなど、議論をさまたげずに関連情報を提示するユーザインタフェースが実現されています。

Best Poster Award:

Aged Eyes: Optically Simulating Presbyopia Using Tunable Lenses
Qing Zhang, Yoshihito Kondoh, Yuta Itoh and Jun Rekimoto.

This enables reproducing and simulating visual phenomena like presbyopia using liquid lenses that can dynamically adjust eyeglass degree, contributing to realizing the universal design.

眼鏡の「度」を動的に調整できる液体レンズを利用して、老眼などの視覚現象を再現して疑似体験することを可能にします。これによりユニバーサルデザインの実現に貢献します。