しま★りん.blog @ayurina

そこはかとない日常を綴るブログ

Googleの自動運転カーが難しそうな件。

time 2014/09/04

なんか自動運転カーは難しそう、って記事がありました。

グーグルの無人自動車、障害物の回避が難題―実用化には遠い道のり (ウォール・ストリート・ジャーナル) – Yahoo!ニュース
……。これらはすべて …
やっぱり、ですよねーって感じです。認識工学を多少かじった身として、この辺のニュースを見ていて違和感を感じたのは、知識獲得のモデルの技術的な話がざっくりと抜け落ちているという点です。それともどこかに公開されているのかしら。

一方で、こんな情報もあります。

Googleの自動運転カーは毎秒1GBのデータを処理、これがGoogleカーから見た世界 – GIGAZINE
大量の情報を処理しています。ビッグデータですって。

さて、このビッグデータに関連する技術について、個人的に、ですが、正直ついて行けていません。なぜなら、ビッグデータの処理系って、人間の思考とミートしないから、直感的に理解できないんです。

人間の思考ってある意味非常に効率的にできている。例えば命に関わるような大きな事故にあった場合に、「時間の流れがゆっくりに感じた」なんて話は良くある。これは、危機的な瞬間にあって、感覚が研ぎ澄まされ、通常取り込まないような大量の情報を一気に処理しようとしたために起こる現象です。つまり、普段、僕らは、多くの情報を落として、効率的に処理をしている。「忘れる」とか、人間てなんて不便なんだろう、と思うこともありますが、それは人間という生き物が、利用可能なエネルギーの中でどれだけ効率的に生き長らえるか、という生存戦略そのものと言えます。

翻ってビッグデータ。技術の進歩により、従来、限られたリソースでしか考えられなかった処理系について、容量、時間、それぞれの面で、その限界が大きく突破されたことによって実現されてきた技術です。

ビッグデータの本質は何か、という問いがたまにありますが、私の持論としては、「情報の価値があとで決まる概念」だと思っています。従来、情報は、限られた単価の高い記憶領域に保存しなければならないため、正規化、量子化などの手法により、「事前に決められた価値基準によって」保存されていました。この過程で抜け落ちたデータは再現することはできませんから、データの表現力は設計で決まってしまう。

容量の限界が取っ払われると、とりあえずなんでも保存しておいて、情報にはあとから意味付けをし、あるいはその意味付けのルールをあとから考えれば良い、という発想になります。これがビッグデータの一つの側面です。

話を自動運転カーに戻します。大量の情報に基づき、車を適切に運転する。これはこれで正しいように聞こえます。ただ、このアプローチだと、再現なく情報が必要になり、また、情報の価値基準をどのように与えていくのかが難しくなる。

どう難しいのかというと、我々人間の運転技術をモデル化するとイメージしやすい。人間は、歩く、走る、自転車で移動する、バイクで移動する、車で移動する、新幹線で移動する、飛行機で移動する、といったように、様々なスピードでの移動にさらされている。その中で、たとえば、これくらいのスピードで転ぶとこれくらい痛いとか、これくらいの段差はこれくらいスピードを落とさないと危ないとか、そういう連想的な知識を長い時間をかけて獲得している。

そもそもにおいて、人間は、自転車以上のスピードでの移動になると、情報を処理しきれなくなる。なぜなら、人間は、歩いて、走る生き物だから。生き物として最適化されたモデルがそこにある限り、それ以上の移動速度では、なんらか知覚に不都合が出る。それを連想的な知識と選択集中型の感覚器で乗り越えているのが、車の運転などの活動、ってことです。

これを自動運転カーに「教えることができるのか」ということです。

ビッグデータ的なアプローチで言えば、要するにそれを大量のデータと大量の処理時間で解決しようという、非常に機械的なアプローチで考えているように見えます(あくまで、勝手な憶測です)。翻って、過去人類が経験的に編み出してきた手法は、どちらかというと人間が考える、あるいは”正しい”と認識しやすい「ヒューリスティックなモデル」を機械化、モデル化することによって、人間的な処理を機械で実現してきているというのが実情。音声認識とか画像認識とかね。多次元ベクトルの距離解析とか、実は非常に人間的な処理なんだなぁ、と、今更ながらに思います。

これから自動運転カーがどのように課題を解決していくか、興味深いポイントがここにあります。IoT技術とかもそう。大量にデータがあれば、僕らが欲しい処理系は実現できる、と、単純に考えていると、意外に足元を救われるんじゃないかと。知識の獲得をどのようにすべきか、あるいは、この場合の「知識」と呼ばれるものが、人間が思い描くようなもので良いのか、という根本的な議論もあるでしょう。どちらかを否定するようなものではない、と。

技術が進歩することで、人間とコンピューターの距離が実は”離れてしまっている”のではないか、というのが、私の勝手な懸念です。コンピューターがコンピューター的に、進化していくのが最も正しい道なのかもしれない。そんな時代になってしまったのかも・・・。

そういえば、もうすぐ、CPUの集積率が上がって、プロセッサ当たりの演算素子の人の脳細胞の数を超えるとか。そしたら人間を超えるコンピューターができるのか?と、思われる方も居るかもしれませんが、前述の通り、それは人間と同じ知識獲得手法を取った場合の話です。人間と同じ、入力手段と出力手段、出力に対するフィードバック等を、情報として与えられるようになった場合に、もしかしたら、人間と同じことができるかもしれない・・・って、それって人間そのものだったりしますよね。ああ、宗教的。

なので、できないんです。きっと。

だいたい、もう21世紀になって、20年くらい経つのに、空飛ぶ車も出てきてないし。でも一方で、スーパーコンピュータ並の処理デバイスを僕らは下手すれば1人で複数台持っていたりする。その先にある未来の純粋進化の方向性は、結局、機械は人間を補佐するものにしか成り得ない、ということです。人間が作っている限り、この箍は外れないのでしょう。

だらだらと結論もなく書きつられましたが、ビッグデータでみんなが幸せになるって、そんな単純な話じゃないってことを書きたかった気がします。実はみんな気づいてたんじゃないかと。この辺の話題の流れ、なんか最近多くて、ちょっと不思議です。タブレットでみんな幸せになった?とかね。「進化した技術は魔法にしか見えない」。もはや僕らの周りには魔法が溢れているんです。だから、本当にそれが有益なものかどうか、って、気をつけないといけないなぁと改めて思いました。

sponsored link

down

コメントする






sponsored link

アーカイブ