CHI 2026 presentations

At ACM CHI 2026, we will present the following research:

Papers

  • NasoVoce: A Nose-Mounted Low-Audibility Speech Interface for Always-Available Speech Interaction, Jun Rekimoto, Yu Nishimura, Bojian Yang [program]

Posters

  • Pinching Tactile Display: End-to-End Vibration Transmission of Fabric Roughness via Electrostatic Adsorption, Takekazu Kitagishi, Qing Zhang, Jun Rekimoto [program][project page]

Rekimoto Lab Research Archive 2007-2026

「暦本研究室 研究集録 2007-2026」を公開いたします。
本資料は、東京大学大学院 情報学環・学際情報学府 暦本研究室が「革命的ロマン的研究室」として歩んだ20年間の研究成果、および活動の軌跡を編纂したアーカイブ資料です。
暦本純一教授の最終講義にて配布いたしました冊子のデジタル版(PDF)となります。
以下のボタンからダウンロードいただけます。

We are releasing the “Rekimoto Lab Research Archive 2007-2026,” an archive documenting 20 years of research and milestones from the Laboratoire Révolutionnaire et Romantique at the Graduate School of Interdisciplinary Information Studies, The University of Tokyo.
This is the digital (PDF) version of the commemorative booklet distributed at Professor Junichi Rekimoto’s final lecture.
It is available for download below.

暦本純一教授 最終講義

東京大学情報学環暦本純一教授は、本年度をもって東京大学を退官されます。
つきましては、下記のとおり最終講義が行われますので、ご案内申し上げます。

日時: 2026年2月28日(土) 15:00-17:15 (受付開始14:30)
(第一部 最終講義 : 15:00-16:00, 第二部 パネルセッション : 16:15-17:15)
会場: 東京大学 伊藤国際学術研究センター 伊藤謝恩ホール

第一部最終講義の演題、および第二部パネルディスカッションの登壇者は以下の通りです。

第一部 演題「Homo Cyberneticus:Human–AI Integrationの時代へ」
第二部 登壇者 「玉城絵美, 石黒祥生, 落合陽一, Adiyan Mujibiya, 张鑫磊, 西條柚, 暦本純一(司会:茂木健一郎)」

本イベントは事前登録制となっております。
参加される方は、下記ページより登録をお願いします。
https://peatix.com/event/4747229?lang=ja-jp

なお、会場の都合上、人数超過の場合は2月28日よりも前に参加登録を締め切らせていただく場合がございますので予めご了承ください。

皆様のご来場、お待ちしております。

Rekimoto Lab. × Ishiguro Lab.Open House 2025

2025年11月15日(土) 13:00-18:00 , 11月16日(日) 11:00-18:00 の2日間で、暦本研究室・石黒研究室合同のオープンハウスを開催いたします。

両日ともに、17:00から教員陣による講演会・パネルディスカッションを予定しております。2日目、16日(日)の18:30からは、懇親会も開催されます(有料)。

暦本研究室最後のオープンハウスとなりますので、ぜひお立ち寄りいただけますと幸いです。

なお本イベントは事前登録制となっております。参加される方は、下記ページより登録をお願いします。

特設サイト:https://rkmtlab.github.io/openhouse2025/

参加登録:https://rkmt-ishiguro-openhouse-2025.peatix.com

ICMI 2025 presentation

At 27th ACM International Conference on Multimodal Interaction (13-17 Oct 2025), we will present the following research :

  • Pinching Visuo-haptic Display: Investigating Cross-Modal Effects of Visual Textures on Electrostatic Cloth Tactile Sensations, Takekazu Kitagishi, Chun Wei Ooi, Yuichi Hiroi and Jun Rekimoto

CHI 2025 presentations

At ACM CHI 2025, we will present the following research:

Interactivity (Demo)

  • Demonstrating Pinching Visuo-haptic Display: A Dynamic Cloth Texturization Via Visually Enhanced Tactile Sensation, Takekazu Kitagishi, Chun Wei Ooi, and Jun Rekimoto, [DOI]
  • SilentWhisper: inaudible faint whisper speech input for silent speech interaction, Hirotaka Hiraki, Jun Rekimoto, [Project Page] [DOI]
  • HoloArm: A Face-Following 3D Display Using Autostereoscopic Display and Robot Arm, Koya Dendo, Yuta Itoh, Émilie Fabre, Jun Rekimoto [Project Page] [DOI]

Late-Breaking Work

  • More-than-Human Storytelling: Designing Longitudinal Narrative Engagements with Generative AI, Émilie Fabre, Katie Seaborn, Shuta Koiwai, Mizuki Watanabe,Paul Riesch [DOI]

Workshop (#GenAICHI2025)

  • SakugaFlow: A Stagewise Illustration Framework Emulating the Human Drawing Process and Providing Interactive Tutoring for Novice Drawing Skills, Kazuki Kawamura, Jun Rekimoto

Best Paper Award at the IEEE VR 2025 Workshop on VR-HSA

The paper titled “NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses” received the Best Paper Award at the 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA), held as part of IEEE VR 2025 from March 8 to 12, 2025.

2025年3月8日から12日にかけて開催された IEEE VR 2025 の一環として行われた The 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA) において、「NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses」が Best Paper Award を受賞しました。

Best Paper Award:

NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses
Yuto Nakamura, Kazuki Nishimoto, Akira Yui, Takuji Narumi, Jun Rekimoto

NoseKnowsNorth is a device that provides directional cues by applying vibration stimuli to the sides of the nose. By leveraging the nose’s high tactile sensitivity, it enables users to sense directions without relying on visual or auditory cues. The device can be embedded in the nose pads of eyeglasses or smart glasses, making it suitable for everyday use. For example, when riding a bicycle or driving a car, users can check directions without shifting their gaze to a smartphone, enabling safer navigation.

NoseKnowsNorthは、鼻の側面に振動刺激を与えることで方向を提示するデバイスです。鼻の高い触覚感度を活用することで、視覚や聴覚に依存せずに方向の伝達を実現しています。このデバイスは眼鏡やスマートグラスの鼻パッド部分に組み込むことが可能で、日常生活においても手軽に使用できます。これにより、例えば自転車や自動車を運転する際に、地図を確認するためにスマートフォンへ視線を向ける必要がなくなり、より安全なナビゲーションが可能になると期待されます。