akane
2018/11/09
akane
2018/11/09
「今現在の技術では実現しないし、2~3年先も開発の目処が立っていない人工知能技術」を、なぜか「できる!」「すごい!」と世界中で報道されています。そんなニュースを『誤解だらけの人工知能』著者・人工知能開発者の田中潤が「間違っている!」とズバリ斬りこみます!
2018年4月。ニューヨーク州で行われたカンファレンスで、脳内の神経伝達物質「セロトニン」が機械学習にも重要な意味を持つとZachary Mainen氏が発表して話題となりました。海を渡った日本では「AIも鬱病になり、幻覚を見るようになる」というタイトルで詳細が報道され、ネット上が一時期騒然としました。
マウス実験の結果、セロトニンは「学習能力」に大きな影響を与える可能性が分かったようです。例えば、脳内でセロトニンレベルが上昇すると、マウスは状況を考えるような素振りを見せたようです。ほかにも、セロトニンを抑制する物質を注射すると、学習速度が如実に低下したようです。
これらのことから、人工知能を作るにあたっても「セロトニン(のようなもの)」が大切だ…というのがMainen氏の主張です。
しかしセロトニンは量が低下してくると、鬱病などメンタルに影響する可能性が指摘されている神経物質です。もしセロトニン(のようなもの)が人工知能に搭載されれば、大量投与により学習速度が増し、その副作用でウツっぽくなる…可能性はあるのでしょうか。
========================
話になりません。フェイクニュースです。
国内で「AIがうつ病になる!」と発表しても恐らくは眉唾扱いでしょうが、国外のカンファレンスで発表されると報道するマスメディアがいるのは、本当に不思議です。日本人は舶来モノに弱いですね。
うつ病になるには、憂鬱な気分や食欲や睡眠欲などの意欲の低下などの心理的症状が現れる「心」が必要でしょう。心を作るには自我が必要です。きっとシンギュラリティ以降でしょうから、もし本当にAIがうつ病になるにしても、30年、50年以上先です。
今回の内容については、さすがに世界中の研究者の誰かから「おいおい」とツッコミが出ているはずですが、改めて私からもフェイクな点を指摘しておきましょう。
未だに多くの人が「人工知能」を、ホルマリン漬けの脳を開発して人造人間に移植するような、まるで人間を造るための研究と勘違いしています。
「誤解だらけの人工知能」でも述べましたが、人工知能とは「知能」の再現であって「人間」の再現ではありません。人間の脳自体を模倣・再現するという観点では、ディープラーニングのような主流な技術だけでは全く足りません。そもそも人間の脳自体、どういう風に機能しているか自体が、いまだに全然分かっていないのですから。
ディープラーニングは人間の脳の仕組みを再現していると言われています。簡単に言ってしまえば、元となるニューラルネットワークは、脳に見られるいくつかの特性の表現を目指した数学モデルです。恐らく、ニューラルネットワークと脳の関係性を表す言い回しが「誤解」を生んでしまうんでしょうね。
人工知能は、生物学や神経科学のような自然科学とは異なります。どちらかと言えば形式科学です。そもそも住んでいる世界が違います。
こうした誤解を指摘するのに一番手っ取り早いのは、提唱者に「それ、どうやって実装すんの?」と質問することです。
「仮説レベルだが、◎◎という実装をすれば可能ではないか?」と答えたなら、まだ信憑性はあります。ですが「それは分からないけど、論理的に考えれば可能なはず」「〇〇が本来持っている役割を考えれば、実現は十分に考えられる」と曖昧な受け答えに終始していたら、怪しんだ方が良いでしょう。
できるはず、やれるはずでは人工知能は作れません。
Zachary Mainen氏がどのような発表をしたのかは海外メディアで確認できます。こちらの媒体ではYoutubeで公開されているプレゼン内容もセットで紹介されているので、読んでみて下さい。
Future AI may hallucinate and get depressed — just like the rest of us
また、Zachary Mainen氏がScienceからのインタビューに答えている内容も公開されています。
Could artificial intelligence get depressed and have hallucinations?
内容を読んで貰えれば分かりますが、もともとの研究発表はマウス実験です。つまり、本来は神経科学領域の研究発表なのです。
Zachary Mainen氏自身はAIのアルゴリズムを研究することでうつ病などの患者を知ることができると主張していますが、マウス実験の結果からAIに展開するのはあまりに論理が飛躍しているでしょう。
ただし、科学的な考察として、今回提示された方法を参考にして鬱っぽいように振る舞うチャットボットを作るならば、これから10年くらいで実現する可能性はあるかもしれませんね。鬱っぽい振る舞いをするチャットボットのチューリングテストは出来たら、科学的には面白いですね。
2018年のノーベル生理学・医学賞を受賞した本庶佑教授は、受賞の記者会見で何度も「信じない」という言葉を口にしました。また、「ネイチャーやサイエンスに出ているものの9割は嘘で、10年経ったら残って1割」というセリフを語り、大きな話題を呼びました。
権威よりも目の前の事実。当たり前を疑う。それができない人からフェイクニュースに引っ掛かっていくんでしょう。
連載の著者お二人の著書もオススメ!
『誤解だらけの人工知能 ディープラーニングの限界と可能性 』光文社新書
田中潤 ・松本健太郎/ 著
株式会社光文社Copyright (C) Kobunsha Co., Ltd. All Rights Reserved.