
At SIGGRAPH ASIA 2025, we will present :
Tactile Data Recording System for Clothing with Motion-Controlled Robotic Sliding, Michikuni Eguchi, Takekazu Kitagishi, Yuichi Hiroi, Takefumi Hiraki, SIGGRAPH ASIA 2025 (poster)


2025年11月15日(土) 13:00-18:00 , 11月16日(日) 11:00-18:00 の2日間で、暦本研究室・石黒研究室合同のオープンハウスを開催いたします。
両日ともに、17:00から教員陣による講演会・パネルディスカッションを予定しております。2日目、16日(日)の18:30からは、懇親会も開催されます(有料)。
暦本研究室最後のオープンハウスとなりますので、ぜひお立ち寄りいただけますと幸いです。
なお本イベントは事前登録制となっております。参加される方は、下記ページより登録をお願いします。
At MoibileHCI 2025, we will present the following research:
SynVoice: Integrating Synlogic Interactions into Asynchronous Voice Messaging (Late-Breaking Work)
Saki Fujimura, Jun Rekimoto [DOI]
At 27th ACM International Conference on Multimodal Interaction (13-17 Oct 2025), we will present the following research :

At ACM CHI 2025, we will present the following research:
Interactivity (Demo)
Late-Breaking Work
Workshop (#GenAICHI2025)
The paper titled “NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses” received the Best Paper Award at the 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA), held as part of IEEE VR 2025 from March 8 to 12, 2025.
2025年3月8日から12日にかけて開催された IEEE VR 2025 の一環として行われた The 1st International Workshop on Virtual Reality for Human and Spatial Augmentation (VR-HSA) において、「NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses」が Best Paper Award を受賞しました。
Best Paper Award:
NoseKnowsNorth: Directional Cueing using Nose Vibration Stimulation for Smart Glasses
Yuto Nakamura, Kazuki Nishimoto, Akira Yui, Takuji Narumi, Jun Rekimoto
NoseKnowsNorth is a device that provides directional cues by applying vibration stimuli to the sides of the nose. By leveraging the nose’s high tactile sensitivity, it enables users to sense directions without relying on visual or auditory cues. The device can be embedded in the nose pads of eyeglasses or smart glasses, making it suitable for everyday use. For example, when riding a bicycle or driving a car, users can check directions without shifting their gaze to a smartphone, enabling safer navigation.
NoseKnowsNorthは、鼻の側面に振動刺激を与えることで方向を提示するデバイスです。鼻の高い触覚感度を活用することで、視覚や聴覚に依存せずに方向の伝達を実現しています。このデバイスは眼鏡やスマートグラスの鼻パッド部分に組み込むことが可能で、日常生活においても手軽に使用できます。これにより、例えば自転車や自動車を運転する際に、地図を確認するためにスマートフォンへ視線を向ける必要がなくなり、より安全なナビゲーションが可能になると期待されます。

Naoto Nishida, Yoshio Ishiguro, Jun Rekimoto, and Naomi Yamashita
https://dl.acm.org/doi/10.1145/3708359.3712115
2025年3月2日から3月4日に開催された情報処理学会インタラクション2025において、「ClothTalk:騒音環境下でもGPU不要でリアルタイムにクリアな音声入力を実現する導電布マイクロフォン」が最優秀論文賞、最優秀発表賞、インタラクティブ発表賞(PC推薦)の3件を受賞しました。

受賞名
情報処理学会 インタラクション2025 最優秀論文賞、最優秀発表賞、インタラクティブ発表賞(PC推薦)
発表タイトル
ClothTalk:騒音環境下でもGPU不要でリアルタイムにクリアな音声入力を実現する導電布マイクロフォン
著者
平城裕隆(学際情報学府・産総研)、金澤周介(産総研)、三浦貴大(産総研)、吉田 学(産総研)、持丸正明(産総研)、暦本純一(情報学環・ソニーCSL)
研究の概要
ClothTalkは、従来の高性能な音声強調システムで必要とされるGPUなどの計算資源を用いずに、ウェアラブルデバイスとして実現された新型マイクロフォンです。導電布を用いた柔軟なダイアフラムと、独自の回路設計により、周囲の雑音に左右されずに利用者の声を正確に捉えることができます。これにより、オンライン会議やスマートデバイスでの音声入力、さらには騒がしい公共の場など、さまざまなシーンでの利用が期待されます。
関連リンク
研究の紹介動画(30秒):
https://youtu.be/kkm_Dr-cuX0?si=4Bx3rFoq6mjC4a_D
インタラクション2025:
https://www.interaction-ipsj.org/2025/award/
https://www.interaction-ipsj.org/proceedings/2025/data/pdf/INT25001.pdf
INTERACTION 2025 (2025/3/2 – 3/4 開催)にて、以下の論文を発表します:
(01👑) ClothTalk: 騒音環境でも GPU なしでリアルタイムに綺麗な声を入力可能な導電布マイクロフォン
平城裕隆 (東京大学/産総研),金澤周介,三浦貴大,吉田学,持丸正明 (産総研),暦本純一 (東京大学/Sony CSL)
(16) GazeLLM: 視覚情報を利用するマルチモーダル LLM
暦本純一 (東京大学、ソニーCSL)
(25) 遠隔コミュニケーション環境における脳波同期現象の成立要件
ライ シンユ,李 万慧,天野 薫 (東京大学),暦本 純一 (東京大学/ソニーコンピュータサイエンス研究所)
(1B24★) NoseKnowsNorth: 鼻背側面への振動刺激を用いた方向提示デバイス
仲村 友杜,西本 和貴,由井 陽,鳴海 拓志 (東京大学),暦本 純一 (東京大学/ソニーCSL)
(1B51★)ClothTalk: 騒音環境でも GPU なしでリアルタイムに綺麗な声を入力可能な導電布マイクロフォン
平城裕隆 (東京大学/産総研),金澤周介,三浦貴大,吉田学,持丸正明 (産総研),暦本純一 (東京大学/Sony CSL)

東京大学大学院 情報学環(所在地:東京都文京区 学環長:目黒 公郎)総合分析情報学コース 暦本研究室(担当教員:暦本 純一)は、株式会社ZOZO NEXT(本社:千葉県千葉市 代表取締役CEO:澤田 宏太郎)の研究開発組織「ZOZO研究所」とクラスター株式会社(本社:東京都品川区 代表取締役CEO:加藤 直人)の研究機関であるクラスターメタバース研究所とともに、衣服の着心地の計測・数値化に関する共同研究を2024年12月より開始しました。
<本共同研究実施の背景>
これまで東京大学暦本研究室とZOZO研究所において、衣服の着心地の数値化に関する検討をおこなってきました。
実店舗において衣服を購入する際は、実際に触れることで着心地を直接確認することが可能です。しかし、ECでは着心地の確認が難しく、商品の画像や生地の素材表示、レビューを参考に着心地を推測する必要があります。また、自身のお気に入りの素材感を持つ製品を探すための手段が十分に整備されていないため、購入した商品が期待にそぐわない場合、購買体験の質が低下してしまう可能性があります。
本共同研究では、これらの課題を解決するため、東京大学暦本研究室とZOZO研究所が開発した布の触感を確認できるシステムを活用し、ファッションに関する莫大な情報資産を基に研究開発をおこなってきたZOZO研究所と、繊細なデータを取得できる視触覚データ取得システムのノウハウを持つクラスターメタバース研究所とともに、好みの着心地の衣服を探すためのシステムについて研究をおこないます。
<期待される研究成果>
本共同研究を通じて、衣服の着心地を計測・数値化するための機械学習および情報入出力手法の知見獲得を目指します。将来的には、着心地の計測・数値化を通じて、ユーザーの好みに合った着心地の服選びを手助けすることにより、ユーザーの衣服への愛着を醸成し、より満足度の高いECでの購買体験を提供することを目指します。
You must be logged in to post a comment.