人間を超越する凄いAIが現れた!【 FAKE File3】田中潤
田中潤の「これ変でしょ!」AIフェイクニュース

 

「AIに作業を代行させることで2万時間の圧縮に成功しました」
「このAIは人間を大幅に上回り、およそ85%の精度を担保します」
「AI導入以降、稼働ラインは8人から3人へ圧縮することに成功しました」

 

2018年、AIに関するIRやPRがリリースされ無い日はありません。特に多くのベンチャー企業からリリースされているように感じています。どこかの企業が「うちのAIは凄い」と誇り、マーケットは反応し、ソーシャル上は「SUGEEEEE!」とバズっている。それほどまでにAIは市民権を獲得して、日常に浸透していると言えます。

 

しかし、こんなにAIに関するIRやPRが相次いでリリースされているのに、どうして日本は米国や中国に対してAI開発競争で負け続けているのでしょうか。「人工知能は人間を超えるか」の著者で知られる松尾豊先生は、現状を「日本敗戦」とまで厳しく断罪しています。

 

AI開発の現場で、今何が起きているのでしょうか?

 

========================

 

AIに関するIRやPRが多いのは、日本に限りません。世界中でAIに関するリリースが飛び交っています。量が多過ぎて、その全てを把握できている人は恐らくいないでしょうね。

 

しかし、全てを知っておく必要もありません。なぜなら玉石混淆で、単なる「導入してみました」という結果報告や、「やろうとおもいます」という意気込みしか書かれていない場合もあるからです。そういうのは無視してしまって問題ありません。

 

ややこしいのは、まっとうなAIに見えて、実はそもそもAIでは無い場合です。例えば、イギリスの大手一般新聞であるガーディアン紙が、AIが自動で行っていると見せかけて実は隠れて人間が行っていたことを「ウソAIの登場」と大々的に報じて話題になりました。

 

The rise of ‘pseudo-AI’: how tech firms quietly use humans to do bots’ work

 

チャットボットのはずが、人間が返信している。文字を自動認識しているはずが、目視で読み書きしている。ちゃんとしたAIが完成するまで投資家やユーザーを欺いている事例が多数報告されました。

 

“ウソAI ニュース”が生まれるのは仕方がない

 

「ウソAI」のような“バッタもん”が市場に流通してしまうのは止むを得ません。その理由を4点、挙げておきましょう。

 

1.検証方法が元々曖昧
企業が発表する情報が本当かどうか、確かめようがありません。例えば85%の精度が出たと言われても、データが変われば同じ精度を保てるかわかりません。企業側も、そこまで検証しきれていない。

 

したがって、そのサービスを使っても85%の精度が出なかった場合は、営業が満面の笑みで「すいません、御社のような特殊な環境では70%程度の精度が限界のようです。それでも十分に素晴らしいことではありませんか?」と説明すれば「そんなもんか」と受け止めてしまうでしょう。でも、それって許されるんでしょうか? なぜ、それちょっとおかしいよ、と誰も言わないんでしょう。

 

2.「それ変だよ」と言う人が少ない
加えて、そうした「ウソAI」を咎める人が多くない。研究者もあわよくば研究費が取れると思っている人もいるので、誰も止めませんよね。2014年にソフトバンクが、ラップをするペッパーくんを紹介しました。あの辺からから、誇張が当たり前になりましたよね。2017年には汎用AI ができたと謳った上場企業も登場してきて、平然とデタラメなマーケティングがまかり通っています。

 

3.投資家も黙っている
彼らも出資している以上は何らかのリターンが欲しいのか、何も言わないんです。彼らは最終的にキャピタルゲインが手に入ればいいんですから、市場がウソで塗れようとも関係ありません。これは世界的なトレンドです。

 

4.話題先行のネット記事
ネット記事なんかPV至上主義で、デマであってもPVさえ稼げれば問題視しない場合が多い。裏付けが取れていないから、ほとんどウソAIが垂れ流されていますね。僕の場合、最新テクノロジーについては、ネットが発信源だとフェイク前提で読むようにしています。

 

1.~4.の状況がしばらく続いた結果、どのAIが「ウソAI」なのか「本当のAI」なのかが分からない状況が生まれてしまいました。

 

File.2で紹介した「チューリングテスト」なんか、未だに信じている人が大勢居るのではないでしょうか。フェイクニュースは、こういう場所を通じて「フェイクだ!」と発信し続けないといけませんね。

 

既存メディアの弱体化は大問題

 

本来、何か間違った情報で溢れ返っているなら、それを指摘し、報道するのがメディアの役割です。その意味ではガーディアン紙は貴重な存在だと言えます。このコンテンツを書いたOlivia Solon記者も、AIについてよく分かっています。

 

一方、日本のメディアはどうでしょうか。何が間違っているか指摘できず、企業と一緒になって「AIだAIだ!」と踊っているだけです。

 

 

「記者は現場」だと言いますが、現場に出てその目で考えようとも、知識が無いから何も分からない。相手の言っている内容を鵜呑みにして垂れ流すだけじゃ意味無いです。ずいぶん昔に「UFO」とか「徳川埋蔵金」とか流行りましたが、これらの技術版くらいに見てもらえばよいかと思います。

 

Githubのことを「設計図共有サイト」と表現してしまうような既存メディアに期待することが間違っているのでしょうか? しかし、嘘をウソだと言える人も、媒体も、本来なら極めて貴重です。そうした人や場所を育てていかなければいけませんね。

AIフェイクニュース

田中潤/著 松本健太郎/構成

田中潤(たなかじゅん)
Shannon Lab 株式会社代表取締役。アメリカの大学で数学の実数解析の一分野である測度論や経路積分を研究。カリフォルニア大学リバーサイド校博士課程に在籍中にShannon Lab を立ち上げるため2011 年帰国。人工知能の対話エンジン、音声認識エンジンを開発。開発の際は常にPython を愛用。本連載の構成者・松本健太郎との共著『間違いだらけの人工知能』(光文社新書)。編著に『Python プログラミングのツボとコツがゼッタイにわかる本』(秀和システム)がある。
松本健太郎(まつもとけんたろう)
龍谷大学法学部政治学科、多摩大学大学院経営情報学研究科卒。さまざまなデータを駆使して政治、経済、文化などを分析・予測することを得意とし、テレビやラジオ、雑誌で活躍している。近著に『グラフをつくる前に読む本』(技術評論社)がある。
こちらもCHECK!
田中潤×松本健太郎「人工知能ってそういうことだったのか会議」
関連記事

この記事が気に入ったら
いいね!しよう

最新情報をお届けします

Twitterで「本がすき」を