囲碁の世界チャンピオンをグーグルの「アルファ碁」が破るなど、今、世界的に盛り上がりを見せる人工知能(AI)。ビッグデータ解析や機械学習の進展を背景に、各国で競ってAI研究が行われている。一方、2045年にはAIがシンギュラリティ(技術的特異点)を迎えて人間の能力を超え、人々の仕事を奪うとする脅威論もある。そうした現在のAIブームの狂騒を冷静に見つめ、AIの真の可能性を示唆するのが西垣通氏だ。1980年代にAI研究に関心をもち、その後も研究の動向を注視してきた西垣氏に、歴史的変遷と価値、これからのめざすべき方向性について聞く。
画像: 西垣 通 氏 東京経済大学 コミュニケーション学部 教授。東京大学名誉教授。工学博士。 1948年東京都生まれ。東京大学工学部計数工学科卒業。日立製作所に入社、コンピュータ・ソフトの研究開発に携わる。その間、スタンフォード大学で客員研究員、その後、東京大学大学院情報学環教授などを経て2013年より現職。専攻は情報学・メディア論。著書に『集合知とは何か』(2013年)、『ビッグデータと人工知能』(2016年)など多数。

西垣 通 氏
東京経済大学 コミュニケーション学部 教授。東京大学名誉教授。工学博士。
1948年東京都生まれ。東京大学工学部計数工学科卒業。日立製作所に入社、コンピュータ・ソフトの研究開発に携わる。その間、スタンフォード大学で客員研究員、その後、東京大学大学院情報学環教授などを経て2013年より現職。専攻は情報学・メディア論。著書に『集合知とは何か』(2013年)、『ビッグデータと人工知能』(2016年)など多数。

コンピュータ誕生当初から始まったAI研究

ーー2016年7月、西垣先生は『ビッグデータと人工知能-可能性と罠を見極める』(中公新書)を上梓されましたが、現在のAIブームについて冷静な分析を示されるとともに、AIがめざすべき方向性について言及されていて、大変興味深く拝読しました。反響はいかがですか?

西垣
かなりありますね。感想は大きく分けて二つあって、一つはAIへの正しい理解が深まったというポジティブなもの。もう一つは、AIに夢を抱いていたのに、人間を超えるようなシンギュラリティは訪れないと知り、がっかりしたという声でした。

今、AIは第三次ブームを迎えていると言われています。確かに、コンピュータの性能の劇的な向上に加え、ビッグデータ解析や機械学習の進展を背景に、AI研究は目覚ましい成果を上げています。しかし、私はシンギュラリティは訪れないと考えています。シンギュラリティとは技術的特異点を指しますが、米国の発明家レイ・カーツワイル氏が、2045年にはAIが人間の脳を上回るとする仮説を打ち立てたことから大きな議論を呼んでいます。

もちろん、とうの昔からコンピュータの能力は部分的には人間の能力を超えています。だからといって人間のように思考する機械がつくれるかというと、そこには大きな技術的な障壁が横たわっています。本書はその点を明らかにしたことから、納得されたり、がっかりされたりした方がいらしたのでしょう。私が第二次ブームと呼ばれた1980年代にAI研究に少し関わっていたこともあり、説得力があったようです。おおむね好意的な感想が多いですね。

画像: (出典 西垣通『ビッグデータと人工知能』P.172)

(出典 西垣通『ビッグデータと人工知能』P.172)

ーー確かに、現在、AIについてはさまざまな意見が聞かれ、何を信じたらいいのかわからない状況です。AIを正しく理解するためには、その技術の変遷を知る必要がありますね。まず、なぜ第一次、第二次ブームが起こったのか、そしてなぜ挫折したのか、教えてください。

西垣
AIとは、平たく言えば「人間のような知能を持つコンピュータ」のことで、AI研究は、コンピュータが誕生したすぐ後の1950年代からすでに始まっていました。つまり、決して新しいものではないんですね。

なぜ、コンピュータの誕生とほぼ時を同じくしてAI研究が始まったのか。それは、コンピュータの生みの親とされるフォン・ノイマンもアラン・チューリングも、もともとコンピュータを単なる計算機ではなく、人間みたいに思考する「人工知能機械」として開発しようとしていたからです。

その背景には、19世紀後半から20世紀前半にかけて、近代西洋の思想・哲学を背景に登場した「論理主義」がありました。これはドイツの哲学者で数学者でもあるゴットロープ・フレーゲが、1879年に『概念記法』で提示した述語論理がベースで、対象をすべて記号で表し、その形式的操作によって客観的に世界の事象を正しく記述できる、という考え方です。

その論理主義の結実とも言えるのが、バードランド・ラッセルとアルフレッド・ノース・ホワイトヘッドが数学の基礎について記した『数学原理』(1910〜1913年)です。実は、人工知能という言葉が初めて登場した1956年のダートマス会議では、この『数学原理』に書かれた諸定理の自動証明を行うデモンストレーションが実施されたんですよ。ダートマス会議に集まった研究者たちは、コンピュータは論理機械であり、正確な論理操作をすれば決して間違えない、だから優れた人工知能たり得る、と考えたわけです。

ところが、実際の人間の思考は、論理だけで成り立っているわけではありませんよね。医者も法律家も経営者も、経験と知識と勘を頼りに判断を下しているわけで、単純な論理操作だけで解決できる問題は、簡単なゲームかパズルくらいしかありません。結局、「論理」を軸とした最初のAI研究はすぐに行き詰まってしまいました。

画像: コンピュータ誕生当初から始まったAI研究

第二次ブームを衰退へ追い込んだ「知識」の落とし穴

西垣
この挫折から約25年を経て、今度は、多くの「知識」を蓄積しておいて、それらを組み合わせて推論するという発想が出てきました。これが1980年代に起こった第二次AIブームです。その代表が、スタンフォード大学のエドワード・ファインゲンバウム教授が提唱した「エキスパート・システム」でした。これはいわゆる、人間の専門家(エキスパート)の代わりを務めるAIです。例えば「マイシン(MYCIN)」と呼ばれるエキスパート・システムがありましたが、これは細菌性血液感染症という病気を診断するAIで、それなりの好成績をあげたことから大きな反響を呼びました。

実は、その頃、私はスタンフォード大学に客員研究員として留学していて、まさに、第二次ブームの真っ只中にいたのです。もともと、私は1970年代に日立製作所で汎用大型コンピュータのオペレーティング・システム(OS)の研究開発に従事し、とくにシステムの性能や信頼性をコントロールするための方式設計を手掛けていました。そしてこのテーマで博士論文を書く際に指導してくださったのが、AIの大家である東京大学の大須賀節雄先生です。大須賀先生に影響を受け、私がAI研究に惹かれたのは自然の成り行きでした。そうしたことから、スタンフォード大学では、熱気溢れるAIの講義やゼミなどによく顔を出していました。

その後、帰国してすぐに私は、国が500億円以上もの予算を投じて臨んだ「第五世代コンピュータ開発プロジェクト」に、OSの専門家として短い期間ながら関わることになりました。これは、「欧米をしのぐ世界一の斬新なコンピュータをつくる」という壮大な目的を掲げたプロジェクトで、具体的には「人間の言葉を理解し、人間とコミュニケートしながら問題を解決するコンピュータ」という、まさにAIそのものをめざすものでした。その実現のため、高速に推論する並列処理のプロセッサとソフトウェアの開発に挑んだのです。

ところが、日本の第五世代コンピュータは大失敗に終わります。同様にエキスパート・システムも一部で採用されたものの、衰退していきました。エキスパート・システムの挫折の原因は、知識命題だけから必ずしも正解が得られないことにありました。例えば、検査データと病名を結びつける医学知識の中には曖昧さが潜んでいて、ときに誤診を招きます。ただ、人間の医者であれば、検査データだけでなく、患者の顔色や問診の内容なども踏まえて総合的に判断を下すことができますが、コンピュータにはそれができません。だから先述の細菌性血液感染症を診断する「マイシン」も、専門医の正答率には及ばなかったそうです。

さらに根底に横たわるのが、AIの難問と言われる「フレーム問題」です。問題の論理的なフレーム(枠組み)が明確でないと、コンピュータには関連した知識の選択ができないのです。適切な知識を選択できなければ、演繹推論もできません。だから、AIで動くロボットには、ハンバーガー店に行って、ただハンバーガーを買うだけのお使いすら困難です。ロボットにあらかじめ、道順や値段を教えていても、道路工事をしていたり、ハンバーガーが値引きしていたりと、少しでも与えられた条件と変わってしまうと、もうお手上げです。

第五世代コンピュータプロジェクトは、ある意味、第一次ブームの論理機械に真っ向から挑んだ試みでした。しかし、フレーム問題や人間の曖昧な言語コミュニケーションの本質に目を背けたまま、ただ推論操作の高速化だけに注力しても、うまくいくはずがなかったのです。

画像: 第二次ブームを衰退へ追い込んだ「知識」の落とし穴

今振り返ってみると、真の意味での第五世代コンピュータは、インターネットとパソコンという、当時、日本がめざそうとした方向とは真逆のやり方で実現されたと言えます。つまり、第五世代コンピュータが、知識命題をコンピュータの内部に貯め込み閉じた環境の中で高速に推論処理を行うのに対して、インターネットはオープンに人々を結び、コミュニケートしながら論理処理を行います。結果として、「人間とコミュニケートしながら問題を解決するコンピュータ」ではなく、「機械を介した、人間と人間のコミュニケーション」というインターネットの理念に置き換えられたのです。日本のAI研究者たちはその根本的相違を直視して、きちんと反省しなければならないと思います。

第三次ブームを支える「統計」の力

ーーフレーム問題にしても、人間の言語コミュニケーションをコンピュータで再現することも、いまだに解決したわけではありませんよね。それなのになぜ、第三次ブームが起きたのでしょうか。

西垣
その背景にあるのは、ビッグデータ解析の進展であり、それを支える統計処理の存在です。正確な答えを求めるのが難しいのなら、たくさんのデータを集めて、その中からおよそのルールやパターンを見出して、それに基づいた統計処理により、データの分類や認識をして答えを導き出そうというのです。

実はこの考え方自体は、第二次ブームの終了後、自動翻訳などで用いられてきたもので、データベースの中にある訳語について、コーパス(用例)を統計的に分析して、一番確率が高いだろうと推定されるものを出力するという方法が探られてきました。当然、データ量が増えれば精度は上がります。現在、この手法は、人間が使っている英語や日本語などの自然言語をコンピュータに処理させる自然言語処理技術の主流となっています。

そうした中、とくに大きなブレークスルーをもたらしたのが、画像や音声などのパターン認識において革新的な成果を挙げているディープラーニング(深層学習)です。有名なのが2012年に発表された「グーグルの猫認識」で、動画投稿サイト「ユーチューブ」の1,000万の動画から猫の動画を自動的に取り出したとして、大きな反響を呼びました。

画像: 第三次ブームを支える「統計」の力

ディープラーニングとは、コンピュータにルールやパターンを学ばせる機械学習と呼ばれる手法の一つです。機械学習とは、大量の訓練データをもとに学習を行い、訓練データ相互の相関関係から内部パラメータを定め、そのルールをもとにパターンの分類をするという技術のことです。例えば、郵便番号の認識システムも機械学習によるもので、数字の「4」の場合、手書きの4の形はさまざまだとしても、画像パターンとして「下部に交点がある」という類似点を見出して統計的に4を認識するというわけです。

いうなれば、第三次ブームへの道を拓いたのは、論理を追求するのは諦めて、「だいたい合っていればいいだろう?」と居直ったことにあります。ただ、もうお気づきのように、コンピュータは論理的正確さには長けていますが、統計処理的な手法では誤りが含まれることを避けられません。正確性に欠けるということです。そこに現在のAIが抱える影があり、シンギュラリティが起こり得ない理由の一つがあるのです。

(取材・文=田井中麻都佳/写真=秋山由樹)
(第2回につづく)

This article is a sponsored article by
''.