At MoibileHCI 2025, we will present the following research:
SynVoice: Integrating Synlogic Interactions into Asynchronous Voice Messaging (Late-Breaking Work)
Saki Fujimura, Jun Rekimoto [DOI]
At MoibileHCI 2025, we will present the following research:
SynVoice: Integrating Synlogic Interactions into Asynchronous Voice Messaging (Late-Breaking Work)
Saki Fujimura, Jun Rekimoto [DOI]
At ICCV 2025, we will present the following work:
Multimodal Viewer Responses to Japanese Manzai Comedy Dataset for Affective Computing
Kazuki Kawamura, Kengo Nakai , Jun Rekimoto
ICCV 2025 Workshop: Affective & Behavior Analysis in-the-wild (ABAW)
At 27th ACM International Conference on Multimodal Interaction (13-17 Oct 2025), we will present the following research :

At ACM CHI 2025, we will present the following research:
Interactivity (Demo)
Late-Breaking Work
Workshop (#GenAICHI2025)

Professor Jun Rekimoto has been awarded membership in the IEEE VGTC Virtual Reality Academy. He received this honor from the IEEE Computer Society and will be formally recognized at IEEE Virtual Reality 2025, held in Saint-Malo, France, beginning March 8.
The IEEE VGTC Virtual Reality Academy is a prestigious academy that highlights the accomplishments of the leaders in the field. Since awards are limited in number, the field should recognize significant contributions and the academy is a mechanism for recognizing such contributions. The goal is to recognize those in the field who exceed or augment the criteria of existing VGTC awards.
Professor Rekimoto received this award for his pioneering work in augmented reality and his groundbreaking contributions to human-computer interaction and ubiquitous computing.
暦本純一教授は、IEEE Computer SocietyからIEEE VGTC Virtual Reality Academyを授与され、3月8日からフランスのSaint-Maloで開催されるIEEE Virtual Reality 2025で表彰されました。
IEEE VGTC Virtual Reality Academyは、その分野のリーダーの業績を称える権威あるアカデミーです。受賞者の数には限りがあるため、分野内で重要な貢献が認められた場合にアカデミーがそのような貢献を表彰するための仕組みとなっています。目的は、既存のVGTC賞の基準を上回る、または補完する業績を有する人物を認識することです。
暦本教授の受賞理由:
拡張現実における先駆的な研究およびヒューマン・コンピュータ・インタラクションとユビキタスコンピューティングにおける画期的な貢献に対して
The paper titled “NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses” received the Best Paper Award at the 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA), held as part of IEEE VR 2025 from March 8 to 12, 2025.
2025年3月8日から12日にかけて開催された IEEE VR 2025 の一環として行われた The 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA) において、「NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses」が Best Paper Award を受賞しました。
Best Paper Award:
NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses
Yuto Nakamura, Kazuki Nishimoto, Akira Yui, Takuji Narumi, Jun Rekimoto
NoseKnowsNorth is a device that provides directional cues by applying vibration stimuli to the sides of the nose. By leveraging the nose’s high tactile sensitivity, it enables users to sense directions without relying on visual or auditory cues. The device can be embedded in the nose pads of eyeglasses or smart glasses, making it suitable for everyday use. For example, when riding a bicycle or driving a car, users can check directions without shifting their gaze to a smartphone, enabling safer navigation.
NoseKnowsNorthは、鼻の側面に振動刺激を与えることで方向を提示するデバイスです。鼻の高い触覚感度を活用することで、視覚や聴覚に依存せずに方向の伝達を実現しています。このデバイスは眼鏡やスマートグラスの鼻パッド部分に組み込むことが可能で、日常生活においても手軽に使用できます。これにより、例えば自転車や自動車を運転する際に、地図を確認するためにスマートフォンへ視線を向ける必要がなくなり、より安全なナビゲーションが可能になると期待されます。

Naoto Nishida, Yoshio Ishiguro, Jun Rekimoto, and Naomi Yamashita
https://dl.acm.org/doi/10.1145/3708359.3712115

Augmented Humans 2025 Presentations
Papers
Poster
2025年3月2日から3月4日に開催された情報処理学会インタラクション2025において、「ClothTalk:騒音環境下でもGPU不要でリアルタイムにクリアな音声入力を実現する導電布マイクロフォン」が最優秀論文賞、最優秀発表賞、インタラクティブ発表賞(PC推薦)の3件を受賞しました。

受賞名
情報処理学会 インタラクション2025 最優秀論文賞、最優秀発表賞、インタラクティブ発表賞(PC推薦)
発表タイトル
ClothTalk:騒音環境下でもGPU不要でリアルタイムにクリアな音声入力を実現する導電布マイクロフォン
著者
平城裕隆(学際情報学府・産総研)、金澤周介(産総研)、三浦貴大(産総研)、吉田 学(産総研)、持丸正明(産総研)、暦本純一(情報学環・ソニーCSL)
研究の概要
ClothTalkは、従来の高性能な音声強調システムで必要とされるGPUなどの計算資源を用いずに、ウェアラブルデバイスとして実現された新型マイクロフォンです。導電布を用いた柔軟なダイアフラムと、独自の回路設計により、周囲の雑音に左右されずに利用者の声を正確に捉えることができます。これにより、オンライン会議やスマートデバイスでの音声入力、さらには騒がしい公共の場など、さまざまなシーンでの利用が期待されます。
関連リンク
研究の紹介動画(30秒):
https://youtu.be/kkm_Dr-cuX0?si=4Bx3rFoq6mjC4a_D
インタラクション2025:
https://www.interaction-ipsj.org/2025/award/
https://www.interaction-ipsj.org/proceedings/2025/data/pdf/INT25001.pdf
You must be logged in to post a comment.