アリゾナ州ツーソンを目指して、州間高速道路10号線を南東に走っている。路肩では、オレンジのつなぎとヘルメットを着用した男たちが働いている。駐車されたトラックの後ろには、「囚人作業中」と書かれている。

心のなかで好奇心や哀れみ、嫌悪などが渦巻く光景だが、ロボットは男たちの素性について何も記録しない。ロボットはただ、駐車されたトラックと、自身のコードに記されたルールについて考えている。路肩に何かを感知したら、隣の車線に移動するというルールだ。

そこでロボットは隣の車線を確認し、素早くハンドルを切った。そして18輪トラックで4人の乗客とともに、車線を区切る白の破線を横切る。

この車線変更は、TuSimple（トゥーシンプル、中国名は図森未来）の自動運転トラックが見せてくれた素晴らしい運転の一部にすぎない。高速道路にスムーズに合流して再び一般道に出るまでの間、トラックは落ち着いて走行し、人が運転する周囲のクルマに合わせて速度や位置を調整していた。

コンピューターヴィジョンの専門家が創業

見事な運転を支えているのは、ライダーを用いた2つのレーザースキャナー、前方を向いたレーダーなど、トラックのあちこちに取りつけられたセンサー類だ。システムの鍵を握るのは、前後左右に向けられたいくつかのカメラである。競争が激化するロボットトラック分野でTuSimpleが頭ひとつ抜けられるかどうかは、これらのカメラにかかっている。

TuSimpleの最高技術責任者（CTO）である侯暁迪（ホウ・シャオディ）によると、同社のカメラは競合各社の3倍近い1,000m先まで見渡せるという。候はこのカメラで、自律走行車の開発に取り組む技術者たちが直面している難題のひとつを解決しようとしている。

中国・北京生まれの候は、カリフォルニア工科大学の大学院生だったころからコンピューターヴィジョンの研究を行ってきた。2014年に博士号を取得すると学問の世界から抜け出し、コンピューターヴィジョンをオンライン広告に応用する会社を立ち上げた。

この会社はすぐに倒産した。候は自分のスキルを自動運転トラックの開発に役立てようと、15年9月にTuSimpleを創業した。

TuSimpleはサンディエゴと北京に本拠を置き、ツーソン郊外にテスト施設がある。ここにテスト施設をつくったのは、アリゾナ州は晴天が多く、規制が緩いからだ。

LiDARの制約をカメラで克服

都市でロボットカーを動かすことはいまでもかなりの難題だが、高速道路で動かすことは比較的容易だ。「トラックを動かすシナリオは比較的簡単なもので済みます」と候は話す。

大型トラックはほぼすべての時間を高速道路で過ごすので、交差点や歩行者、自転車が複雑に絡み合う都市を走ることについては、それほど心配する必要がない。「トラックは信頼性を極限まで高められる可能性を秘めています」

ただしそれも、周囲の環境を適切に感知できればの話だ。知覚はおそらく自律走行の最も難しい部分だが、近年はレーザーをベースにしたLiDAR（ライダー）が最高のツールとみなされている。しかしLiDARには距離の制約がある。最も強力なシステムでも、250～300m先の物体を検出するのが精いっぱいだ。

TuSimpleの計画では、2019年末までにソフトウェアを完成させ、準備が整ってから生産を開始することになっている。PHOTOGRAPH COURTESY OF TUSIMPLE

一方、カメラはもっと遠くまで見渡すことができ、LiDARの開発に付きまとうハードウェアやコストの問題も少ない。LiDARより信頼性が高く、遠くまで視認でき、解像度も優れている。

ただし、カメラならではの課題がある。カメラが生成する2Dデータを、3Dの現実世界に変換するのが難しいのだ。物体からの反射と影を見分けたり、物体と物体の境界を認識したりできるソフトウェアの開発は、途方もなく難しい。

交通整理のために置かれた人形と、道路を渡ろうとする人を区別するといったことを、カメラで正確にできるかどうかもわかっていない。しかし候の技術は、少なくとも今回の試乗では、高速道路を走ったり物体を識別したりといったそれほど複雑でない課題を、カメラを使ってこなしていた。

カメラの映像から周囲のクルマを認識

ツーソンの中心部に入ると、州間高速道路10号線は複雑になる。車線は4つに増え、ほかの高速道路に分岐する。クルマの出入りも頻繁になる。それでも、TuSimpleのトラックは落ち着きを保っている。

試乗では運転席の真後ろに座っており、その左に候がいる。右側には小型冷蔵庫くらいの黒い箱があり、複数のケーブルが接続されている。箱にはサーヴァーが入っており、カメラの映像をコンピューターが認識可能なデータに変換している。運転席にはセーフティー・ドライヴァー、助手席にはTuSimpleの技術者が座っている。

候はトラックに何が見えているかを教えてくれた。後部座席に置かれたモニターには周囲のクルマが映っており、フルーツキャンディーのように（ランダムに）色分けされている。

時速105km前後で走行するトラックは、この映像から各車との距離や速度差を知ることができる。そして経験豊富な運転手のように、これらのデータを基に判断を下す。自分より遅いクルマが高速道路に合流できるよう減速したり、緊急車両のために道を空けたり、遅いクルマを安全に追い越したりといった具合だ。

制動距離を稼げることの価値

1,000m先まで見えるカメラというのは、少々過剰な性能といえる。ほかのクルマやカーヴの関係で、1,000m先まで視界が開けている状況は、実際にはほとんどないからだ（ただし、上り坂の直線道路で、約900m先のクルマを検出したことが1度だけあった）。

しかし、300mより遠方まで見えることは、明らかに価値がある。時速100km超で走行している場合、約10秒で300m先に到達する。動きが機敏とはいえないトラックが、交通事故や車線規制、停止した消防車などを検出し、制動や車線変更の判断を下して実行するのに、10秒は決して十分な時間ではない。もし3倍先まで見えれば、30秒もの余裕が生まれる。

ヴェンチャーキャピタル（VC）はすでに、候のヴィジョンの価値を認めている。「Crunchbase」によれば、TuSimpleはVCから8,310万ドル（約93億円）の出資を受けているという。

TuSimpleは現在、技術の実用化を目指し、運送会社やトラック会社、メーカー、サプライヤーとの関係を構築している。順調にいけば、19年末までにソフトウェアの準備が整う予定だ。

突然の“フリーズ”に驚いた

今回の試乗では、解決すべき課題も浮き彫りになった。40分間の自律走行が無事に終わったあとで、コンピューターが突然われわれの会話をさえぎったのだ。「自動運転を終了します」。そしていつのまにか、セーフティードライヴァーが運転を交代していた。

セーフティードライヴァーは候に「映像がフリーズしました」と報告し、「安全のためシャットダウンします」と言った。

おそらくトラックの振動が原因でサーヴァーのネットワークが切断され、システムのヒューマン・マシン・インターフェースがフリーズしたのだ。これによって動作プラニングを行うデータと、コマンド実行を行うデータのつながりが遮断された。

結局、セーフティードライヴァーが20分にわたってハンドルとペダルを操作し、高速道路を降りてTuSimpleのガレージまで戻った。素晴らしい始まり方をした試乗会は、コンピューターのクラッシュで損なわれてしまったわけだが、もっとひどいクラッシュは起きないで済んだとも言える。