空中に光の絵（立体像）を描いて、さわってインタラクションすることができる…そんな素敵なテクノロジー｢Fairy Lights in Femtoseconds｣（フェアリー・ライト・イン・フェムトセカンド）。

世界中を驚かせ、動画再生数は公開後すぐに60万回を超えました。

メディアアーティストで、筑波大学助教の落合陽一さんを中心として、宇都宮大学の熊谷幸汰さん、名古屋工業大学、東京大学の研究チームが開発したこの技術は、空中に光の粒を立体配置することで絵を描くというもの。

この光の粒の正体はプラズマ。プラズマは空気が電離することにより発光している状態で、集中照射されたレーザーの強力な電場によって引き起こされています。

レーザー光をレンズで絞って焦点に集中照射。空気がプラズマ化して光の粒となる

どんな絵を描くか、デザイン案はコンピューターであらかじめ計算され、空間光変調器（SLM）にプログラムされています。これにレーザーを通すことで、ホログラフィーとして絵の設計図が生成されます。この設計図のとおりに絵（立体像）ができあがるようにレーザーの焦点位置を振り分けていくのが、ガルバノミラー（XY方向の焦点位置を調整）とバリフォーカルレンズ（Z方向を調整）です。

この絵はさわることができます。さらにプラズマと指の接触をカメラによって画像認識しているので、リアルタイムにさわったことを感知して絵を変える、なんてこともできるんです。

空中にチェックボックスを作ることだって可能

高度なテクノロジー、たしかにそうなんですが、この｢Fairy Lights in Femtoseconds｣はそれよりももっとアートの側面を持った感動体験に近い気がします。

実現される次の世界として｢デジタルネイチャー｣を掲げ、未来へ全力ダッシュするビジョナリー、落合陽一さんに聞きました。

＊＊＊

さわれるホログラフィー｢Fairy Lights in Femtoseconds｣

｢Fairy Lights in Femtoseconds｣が起こした、これまでの空中ディスプレイやホログラム研究におけるもっとも大きなブレイクスルーって何でしょうか？

落合陽一さん／メディアアーティスト、筑波大学助教（デジタルネイチャー研究室を主宰）として日々"人間性を捧げ"研究に没頭するかたわら、Pixie Dust Technologies CEO、VRコンソーシアム理事などもつとめる。

ことですね。空中に絵を描くこと自体は日本のチーム（産総研や慶応大）が以前から研究していましたが、2006年以来なかなか進展がなかった。そこにインタラクションや触覚像を加えて、ディスプレイ以上のシステムを組み上げることでレーザー研究の幅を広げようと思いました。いろいろな見方で研究すると業界は盛り上がります。

｢レーザーで作ったプラズマに触る｣と聞くと危ないような気がしてしまうのですが…。

たしかにこれまでの研究では、ディスプレイ以上のことは考えて作っていなかったんです。だから使っていたのはピコかナノオーダーのレーザーで、（今回使ったレーザーより）1,000倍から100万倍遅い。そうするとプラズマを起こすために必要なエネルギーの積分値は1,000倍から100万倍になりますから、指で触ると一瞬で焼けます。試しに同程度の出力のレーザーで革を焼いてみたら、0.02秒くらいで焼けました。これはさすがにさわれないです（笑）。

今回メインで使っているフェムト秒レーザーは相当速いレーザーで、30フェムト秒（100兆分の3秒）。このくらいの時短パルスレーザーは、非常にプラズマを起こしやすいので必要なエネルギーが少なく、指で触ってもダメージはほとんどない。さらに、プラズマ発生部分をカメラで認識しておいて、指がさわった瞬間にレーザーを切ってやればいいですよね。カメラは60フレーム毎秒で撮ってるので、じゅうぶん間に合います（1/60秒＜2秒）。時間的に切るっていうシステムへ発想の転換をしたんです。

プラズマに触ったときの触覚のフィードバックってどのくらいあるんでしょうか。

表皮が若干削れるので、紙やすりみたいな感じかもしれません。ぱつん、か、ざらざら。静電気は電気が流れるので全体に触感がくるけど、プラズマは指先だけに一瞬ざらっときます。

他にもアップデートされたことってありますか？

どういった機器構成のレーザー描画手法にどれだけエネルギーがかかり、どのようなシステムデザインができるのかという指針を検証したことかな。個別のシステムを作った報告はあっても、材質と機器構成をちゃんと検証した描画デザインの研究って意外とないんですよ。

例えば、プラズマ化するためのエネルギーの閾値は（空中、水中、蛍光板中などの材質によって）異なるんです。実験してみると、水中だと空中の100分の1、蛍光板だとさらに100分の1程度のエネルギーで済みます。現状で空中に出せる像は1センチメートル立方ですが、機器構成はまったく同じままでも、水中では大体その100倍のサイズの像が出せる。蛍光板中だとさらにその100倍くらい出せるので、用途によって材質をどう変えるかが重要なわけです。さらに水中だと像の色を変えられるから（※ プラズマの特性から空中では白色）、プールのシンクロナイズドスイミングの横でカラフルな絵を描くことなんかもできます。

同時に、むしろプラズマの発生閾値を変えられたらいいなと思って実験もしています。今｢Fairy Lights in Femtoseconds｣のエネルギーは1Wなんでそんなに危なくはないんですけど、できれば1mW（1,000分の1）くらいで、10センチ立方の像が描けるようになれば、それがいい。（閾値を下げるのに）考えられる技法は、空気の密度。あとは熱かな。たぶん単純なのは湿度とか、熱だろうなあ…。熱って拡散するんですけどね…とかまあ頑張っていろいろ考えてるわけです（笑）。

伝わってきました（笑）。

現状で空中ディスプレイにするとなると、もっとパルスの短い、数フェムト秒レベルのレーザーが要るんですよね。今使っているのは30フェムトですが、数フェムトになると像がもっと明るく大きくなるんです。そのくらいになると実用可能になってきます。

未来のレーザーは、より速くなっていくんじゃないかなと思います。ただ発振するための素材の問題があるかもしれません。30フェムトのレーザーはチタンサファイヤを使っているので、装置がかなり大きい（軽自動車の半分くらい）んです。 チタンサファイヤ素材だと、光学回路のほかに除湿のための機器などが必要になるためです。

ディスプレイよりもレーザーソースが大きくなってしまう…。

そうそう、はるかに（大きい）。加えて、除湿や低温化などのメンテナンスがどうしても必要で、コンシューマー用途には向いてないですよね。乾燥させてからシャットダウンするとか、30分暖機運転するとか…んですよ。実験しようとしたら動かないこともあります、5回に1回くらい。

レーザーソースの開発が進まないと｢Fairy Lights in Femtoseconds｣のディスプレイへの応用は難しいということですか？

いやむしろ逆です。フェムト秒レーザーの使い道って、レーシック手術とか、研究用に金属をナノパーティクルにするとかそのくらいで、ヒットするものがなかったんです。でも｢Fairy Lights in Femtoseconds｣の動画を見たら、これ広告で使いたいなーとか、ひょっとしたら未来のUIになるかもしれないって、みんなが思うわけじゃないですか。そうしたらレーザーソースも使い道ができて、価格もどんどん安くなっていくはずですよ。んです。

｢デジタルネイチャー｣な世界

あと最近は空中触覚について、もっと詳細な研究をしてます。その辺は来年くらいに出てくるかなあ？

以前にも増して、バリバリ研究なさっている感じですね。

最近は自分の研究室（筑波大学・デジタルネイチャー研究室）を持ったので、もっと自由に研究できてるんですよ。うちの研究室の共通テーマは、どうやったら、1. コンピューターの研究がモノでなく場のデザインとして語れるようになるか、2. 人間とコンピューターの区別がない世界を考えられるか、3. 時間と空間の解像度を再定義するような研究ができるか、その結果、｣です。

んです。例えばアナログの紙のほうがいいって言ってるおじさんだってワードで作った書類を使っているような状態。手書きの手帳も罫線はDTPで作ってるし、富士の樹海にある看板ですらPCで作られている。自然景観だなあと思ってる中にも、あらゆるデジタルがどんどん含まれていってる。これがデジタルネイチャーです。これを受け入れたうえで、んです。｢人間かコンピューターか｣も能力の問題でしかなくて、コンピューター基準になれば時間と空間の解像度ももっと上がっていくし、イメージの共有は物質の共有に変わっていく。

わかりやすい例えは、Uber。乗客がいるのでこっちへ行ってくださいっていう情報処理はコンピューターのほうが得意だからコンピューターがやる。人間は高性能なロボットで、パターン認識（雑多な情報の中から意味のあるものを抜き出す）能力が高いから、運転したり乗客を見つけたりするのは人間がやりますよね。そういうことっていっぱいあって、人間とコンピューターの棲み分けが…棲み分けっていうよりは、コンピューター、人間が社会全体で一体な状態はかなりデジタルネイチャーな感じです。

ヒューマンコンピューテーション的な協力体制ですね。ただこれからデジタルのコストが安くなっていくとコンピューターと人間は半々の役割というよりは…。

コンピューターの割合が増えるでしょうね。そうなると人間は、と思うなあ。デジタルネイティブは人間への形容詞なんですけど、です。なんとなく人間がコントロールされているような状況も指します。

Apple Watchに立てって言われたら立っちゃうみたいなことも現にありますもんね…（※ Apple Watchのスタンド機能：1時間座った状態が続くと、立つようにサジェストする）。

立つ立つ（笑）。もう世界全体がフラッシュモブ化してるんですよ、（Apple Watchに）｢ちょっと腰を振ってください｣って言われたらみんな踊るから。でもそれで健康に生きていけるならそれでいいんだよね、変に拒否反応起こさなくても。

ラクですもんね。世間は｢コンピューターに仕事が奪われるんじゃないか｣って悲観的な見方も盛り上がってますが…。

世界中の人が転職しやすくなるんじゃないですか。今は奪われるばかりが強調されているからダメで、コンピューターが苦手な仕事をあてがわれることも考えればそんなに暗くないと思いますよ。

この前スペインに行ったとき、スペイン料理が食べたいなと思って｢この辺で一番うまいスペイン料理の店教えて｣ってSiriに聞いたら、ほんとに教えてくれたの。あのときすごいびっくりして。｢Yelpでこのあたりで星がもっとも多いところを検索しました｣って言われて、お前って頭いいんだな意外と！って。そのまま｢電話番号を表示します｣って言われるままに電話かけたときに、ああ人工知能に完全にやられるなって思ったんですよね。あと、以前Uberをよんだらテスラの車がきて、ドアハンドルがウイーンって出てきたときの未来感。このまま自動運転にもやられるなって思いましたね。でも、人間がその中でロボットとして組み込まれている様子は｢ああ、そういう生き方もあるな｣って、おもしろかった。

アーティストにとって苦しい時代が来る

アクチュエーターになったデジタルネイチャー時代の人間はどうなるんでしょうか？

世界がコンピューター化したとき、人間はもっと自由になると思うんですよね。ただですよ、なかなかコンピューター（の思想のフレームワーク）倒せないからね。

俺たちがはっとするような、心からびっくりするようなものっていうのは、テクノロジーのほうからどんどん生まれてくるようになってきている。｢アートはもうテクノロジーでしかなくなる｣というのが俺の持論なんです。技法やメディアの発明はアートの表現を加速してきたけど、今ってすごい速度で発明が起こるじゃない。そしたらコンテンツよりもテクノロジーが重要になってしまう。

近い将来、コンピューターと実世界の区別がつかない時代が来たら、コンピューターの殻をどうやって破るか、どうやって認識の外の世界へ越境するかということがアートになるはずです。物理を使って｢Fairy Lights in Femtoseconds｣や｢Pixie Dust｣を作るのもそうなんですけど、"さらに外に踏み出すこと”がアートなんだとしたら、アーティストはその技法を生み出すために、工学とかわからなきゃいけなくなっちゃうもんね。大変ですよ。

ここ10年で加速したけど、どんな芸術祭でも表現はどんどんデジタルになってます。というか、エンジニアリングになってますよね。メディアと技法を同時に発明する人だけがアーティストとしてやっていけるっていう状態に、現になってるんです。

｢Pixie Dust｣（2014年発表。音響場で物体を浮かせる指向性スピーカー技術）

アートのことを、僕は｢｣ってよく言ってます。メディアアートって、メディアをつくるってことですもんね。だからメディアのための技術をどうやって作っていくかってことがすごく重要です、すごい重要。

例えば、尾形乾山っていう琳派の陶工は、当時一般的には丸かったうつわに｢花の絵を描くなら花の形にうつわを変えればいいじゃないか｣っていう手法を取り入れたんです。これって当時のメディアアートなんですよ。｢みんなが丸い皿使ってるなら、俺は中に描くメディアの形によって皿の形を変えるよ｣と。そういう思想が、今みんなが2次元コンピューター使ってるんだったら、じゃあ俺は自分の絵が描きたいから3次元コンピューター作るよっていう話になるんです。世界の形をコンテンツに合わせて技術的にアップデートしていくのが、古典的なメディアのアップデートの手法です。

今の時代はどうやったら、そのための技術をどう作るかっていうのをアーティストがやってかなきゃいけないんじゃないかな。だってちょっと絵描いてニコニコ動画とかに載せたぐらいだと、まあバズるかもしれないけど、それって俺たちの明日からの生活に何も関わりないじゃないですか。アートってがすごい重要で、それってんじゃないかなと思います。

30、40年の間ずっと3D空中ディスプレイ技術自体は研究されてきたけど、多くの人にとっては興味や感動にはつながらなかったはずです。でも今回落合さんがそれを手がけて提示して、世界中から桁違いの｢これはすごい！｣っていう反響がありました。新しいアートのあり方、メディアと技法の同時発明ってこういうことですね。

まさにそうです。そのために研究してるんです。要は、世界には｢｣っていう状態（のテクノロジー）がいっぱいあって、そこを頑張って考えるのがうちの研究室なんです。。これをいかにやるかがポイントです。

｢Fairy Lights in Femtoseconds｣もフェムト秒レーザー使って絵描いてみたらなんかいい感じになったんだけど｢（空中に）描くだけだったら普通だけどなー移動するのも普通だなー｣と思っていました。あとワンホップないと全然ダメだろうなと。それで、｢これってさらったら危ないんですか？｣って聞いたら｢さあ、やってみたらいいんじゃないですか｣って言われて、さわってみたらパチンってなって｢あっ大丈夫だった｣って。それで決めたんですよ、安全性の実験もしっかりやってさわれるように作ろうと。

まず物理的に克服して、コンピューター的にジャンプすることで、なんか違う世界を見せるっていうのが使命かなと思ってます。

バイオハックはもう次のフェーズへ

音・光の分野でジャンプして、違う世界を見せてきましたが、次のブルーオーシャンは見えていますか？

。去年くらいからずっと言ってるんですけど今はまだ手探り。最近だと、グーグルのATAP研究チームがやっている電波インタラクションの研究｢｣。これをアップデートする新しいみたいなものが作れると、人間の入力にも出力にも使えますよね。あれでLEDを点けようとか彼らは思ってないかもしれないけど、そんなワンホップが加わったらおもしろい。そういう研究を今やってます。

グーグルATAPの｢Project Soli｣

さまざまな物理的な波動や場は、コンピューターで設計できるんですよ。だから興味がわく。最近は電波で、センシング以外のこともたくさんしたい。今あるテクノロジーにどうやってワンホップ、ツーホップを加えて別物にできるかはやってみないとわからないです。

バイオについてはどうでしょうか？

けっこう興味ありますね。最近はだいぶやってますよ。来年あたりうちのラボからよくわかんないものがいっぱいでてくるかもね。

落合さんご自身の視力が2.0超えたというお話を聞いたんですが…。

茶目の上になんかのってるの見えますか？ まだあんまりメジャーじゃないけどこれです。レーシックより光学収差が少ないのですごくくっきり見えるんです。よく見えるもんだから、もん。これ付けてると自分の目で見たほうが綺麗に見えるっていう状況になるんですよ。

それっておもしろいですよね。たいていの20歳を超えてる人間って、目は悪くなってきてるんで、一眼レフで撮った写真のほうがきれいに見えるんですよね。（自分も撮った写真を）きれいじゃんこれって思ってたんですけど、このレンズを埋め込んだら｢あれ俺の目のほうがF値も発色もちょうどいい｣って（笑）。

（インプラントレンズは）すぐに変わるなあとも思ってるんです。目の横あたりに無線給電の電極がついてればいいだけの話ですからね。電磁誘導使って、すぐズームレンズにできるなあと。十分の厚さもあるんですよここに（眼球）。

で、これも高度なコンピューテーションによるデジタルネイチャーなんですよ。人によって視力も眼球も違うけど、今は計測器が進歩したから人間の視力を数値化して、それを補うためにデジタル技術を駆使して製造したものを目に突っ込めるようになったんです。普段は電気が流れないだけで、やってることだいぶデジタルですよね。昔の計測器ってちゃんと合わせて測るのにすごくコストがかかった。だけど今はもう眼球の中にある、わずか数ミリの厚みの中にそれを閉じ込められるくらいに世界は進歩した。それってもう完全にデジタル化された技術の恩恵なんです。

眼鏡かけるとかコンタクトつけるって、コンピューターとぜんぜん違う感じするじゃないですか。でもあれだってコンピューターの計算でできてるんですよね。それを考えると、アナログ・デジタル、電化・非電化問わず、そういったものが身体の中にどんどん増えていくと、デジタルネイチャーな世界になっていくと思うんですよね。

スタンフォードバニー

次はバイオってよくわからない根拠で言ってる人が多いんですけど、俺の中で根拠はあって。俺たちコンピューターグラフィックス（CG）の研究者はどうやったら スタンフォードバニー （CGの試験用モデル）の36万点を世の中に再現するかとか、スタンフォードドラゴンの270万点をレンダリングするかってことに興味があったんですけど、次は18億くらいいけると思うんですよね。

スタンフォードバニー、スタンフォードドラゴンときたら、次はショウジョウバエのDNA。これを全部コンピューター出力するんです。そうするときっと虹色のハエとかできますよね。ひょっとしたら頭に電極付いた状態で生まれてくるかもしれないし、人の言語を位置情報に翻訳するチップを載せれば、言ったところへ飛んでいくハエができるかもしれないですよね。そういうようなバイオハックが、次の10年でやりたいことです。…うーん、できるよね、わかんないけど、やるしかないよね。やるしかないって言ってるとなんかひらめく気もする…たぶんね。

バイオハックのレベルが｢ 義足のほうが優れていたら脚を切って義足に変えるか？ ｣とかそういうことではなくなってきているんですね。もっと次の段階というか…。

そう、。義足かっこいいけどね。ただバッテリーに問題があると、ちょっとなあとは思います。足がもう一本生えたりしないかな？ 足の裏の感覚がけっこう好きで、これを失いたくはないので、感覚がある義足があれば欲しい。その辺の問題を全部ひっくるめて作りたいですけどね。あとは足より、指（手）がもう2本ぐらいあるといいなと思います。肩のあたりからもう2本ぐらいあるといいな。ロボットアームつけるみたいなインタラクションもありですね。

バイオハックとか、人間と人間のコントロールみたいな話はおもしろい。まだまだやりたいこと、いっぱいあるんだけどなあ（笑）。やっぱり研究するのは楽しいっすね！

ありがとうございました！

＊＊＊

今やっている研究やこれからやりたいこと、コンピューターについて、アートについて考えていることを、包み隠さず終始フラットに、そして大きな熱量を持って話してくれた落合さん。メディアアート、ひいてはイノベーションを生み出す手法として｢ひたすら実験と検証を繰り返す｣と、さらっと当たり前のように語った姿に、研究者＋アーティストであることの本質と、その2つが融合していく未来が見えました。

ラップトップは新型MacBookのゴールド。Apple Watchの盤面はミッキーだそう

惜しみなく自らのビジョンを発信しつつ、計り知れないほどの研究を繰り返して、次々と魔法を現実のアートとして提示し続ける、まさに未来に一番近い場所で身を削って走るビジョナリーだと感じました。

source: Digital Nature Group、落合陽一

（斎藤真琴／撮影：長谷憲）