Tokyo Tech Talks #3:現実をレンダリングする
4月28日、恵比寿Build+にて開催。データや動き、光、空間の情報を、人が知覚できる体験としてどう立ち上げるのかを考える夜です。
Tokyo Tech Talks #3 の開催をお知らせします。
前回は、現実世界をどうデータとして捉えるかを考えました。今回のテーマは、その逆方向にあります。データや信号、動きや光を、どうすれば人が知覚できる体験として立ち上げられるのか。今回のテーマは Rendering Reality です。
イベント詳細
- 日時: 2026年4月28日(火)
- 時間: 19:00 - 21:00(JST)
- 会場: Build+、MARIX恵比寿ビル6F、東京都渋谷区恵比寿4-4-6
- Google マップで見る
スケジュール
- 19:00 - 20:00: トーク — 信号を視覚・空間・リアルタイムの体験へ変えていくビルダーによるショートプレゼンテーション
- 20:00 - 21:00: ドリンク&ネットワーキング
テーマ:現実をレンダリングする
レンダリングというと、最後の出力工程を思い浮かべる人も多いかもしれません。でも実際には、そこで初めて見えてくる設計の判断がたくさんあります。
何を見せるのか。何をあえて見せないのか。空間や時間、人のふるまいに対して、システムはどう応答するべきなのか。ソフトウェアが静的な画面の中だけで完結せず、部屋やカメラや身体、ライブな入力に反応し始めたとき、レンダリングは単なる表示処理ではなく、体験そのものの設計になります。
今回のイベントで考えること
今回は、生の信号を人が見て、感じて、解釈できるものへ変えていくプロセスに関心のあるビルダーが集まります。
信号を体験に変える
動き、音、位置情報、カメラ入力、環境データ。そうした入力を、人にとって直感的で意味のある表現へどう変えていくのか。生データと知覚のあいだをつなぐ設計を見ていきます。
空間の中で動くリアルタイムシステム
いま面白いのは、完成したものをただ見せるだけのソフトウェアではありません。その場の状況や観客のふるまいに応じて変化する、応答性のあるシステムです。空間や時間と一緒に立ち上がる表現について考えます。
表現の設計が知覚を変える
レンダリングは、現実を正確に再現することだけではありません。どこを強調し、どこを省略し、どんな感覚を残すのか。表示の設計は、そのまま知覚の設計でもあります。
こんな方におすすめです
- リアルタイムシステムやインタラクティブなソフトウェアに関心のあるエンジニアやデベロッパー
- 映像、空間、インタラクションの接点で仕事をしているデザイナーやクリエイティブテクノロジスト
- ソフトウェアと物理世界のつながりを探っている研究者やビルダー
- 計算によって現実がどう立ち上げ直されるのかに興味があるすべての方
ご案内
参加に興味がある方は、こちらから登録してください。
ソフトウェアが体験になる瞬間に関心がある方は、ぜひ会場に来てください。短いトークのあとに、実装と表現のあいだを行き来する会話が続く夜にしたいと思っています。