人工知能(AI)で大量失業の時代

急発達の人工知能
 将棋、チェスに比べて囲碁でコンピュータが勝つには数年先だろうと思われていたが、人工知能(AI)を駆使することにより人間に勝つコンピュータが出現した。
 驚異的なのは、このコンピュータの思考アルゴリズムで、様々な事例を予め入力して自ら学習を繰り返して最適解を求めること。つまり、自己増速型の行動決定が出来る。予め人間が指示するのでは無く、事例から自ら学び結論を出す仕組みになっている。人間には結果が予想不可能になる。
 いわゆる「目的」を与えておけば「戦略」も「戦術」も外部からの手助けを借りずに「目的」を実現する、モーレツ・サラリーマンも及ばない「目的実現行動」を取る機械が生まれるってことだ。
 ここで、アシモフの考えたロボット憲章が思い出される。
 第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条
ロボットは人間から与えられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りではない。
第三条
ロボットは、前掲第一条および第二条に反するおそれのない限り、自己を守らなければならない。
 ゲームの勝敗と言えど上記の第一条「危害を加えてはならない」に抵触しないだろうか。勝負に勝つと言うのは「危害」を加えた結果なのではないか。
 人工知能(AI)の研究は、フランケンシュタインを生み出すことにならないのか。未来が気になるところだ。

情報の偏り結果の偏り
 人工知能(AI)と失業については最後に述べるとして、昨今のネットワーク社会を流れる情報とその入手方法の偏りについて考えてみたい。
 学業とネット検索を比べてみよう。四角い教室に机を並べて何の役に立つんだか解らない講義を聴いている。一方、家に帰ればスマホを駆使して自分が興味のある情報をより深く検索して取得する。この両者を比べると後者に決定的欠陥がある。
 藤原正彦氏は「論の破綻」の話の中で、「論点の起点が間違っていれば、それに永遠と続く論理展開は全て破綻する。故に、論理的であることは必ずしも正解にたどり着く手法では無い」と述べている。
 四角い教室で行われている講義は、先人の知恵によりフラットな論点の展開を行う基礎知識教育に集約される。もちろん、広く浅い情報にならざるを得ない。
 一方、スマホを駆使して検索を行えば広く深い情報が入手できる。何となく後者が優位な気がする。
 しかし、実は後者は起点がフラットであったにしても(既に、偏っている場合の方が多いが)、検索を繰り返して深さが増すにつれ、本来触れなければいけない情報は無視され、都合の良い、もしくは知ってる情報の延長線上にある情報にだけ辿り着く。つまり、収集された情報は全て偏っている情報群になる。
 学業教育の質の低下がネット検索重視に陥るが、そもそも、目的が違い、学業教育は正しい水辺に連れて行くことで、そこから個々の学生は自ら水を飲むべきである。
 日教組がやり玉に挙げられるのは、児童・生徒に「水を飲ませる」からで、教育は水辺の広さと水の深さを教えることを主眼としていなければならない・
 さて、その事を教えられない(広義の情報教育は個人任せが文科省の発想らしいので)若者は「スマホさえあればなんでもござれ」となって、情報に接する方法が限定的で偏る。
 そして、その情報を「起点」として物事を考えた気になる(正確には、自ら考えた気になっているが、他人の意見の受け売りだ)。
 実はヒットラーが考えたのが、このような情報の偏りによる民衆の制覇で、とても「安倍首相はヒットラーだ」と言っている層が、この手法に取り付かれているのは皮肉な話だ。


人間は考える葦である
 人工知能(AI)の暴走を食い止める新ボロッボ憲章のような動きは「千葉大学ロボット憲章 」のようなものがある。読んでみると研究者と開発者を対象にしている。
 先に書いたように、自ら最適解を選択する人工知能(AI)ロボットでは、使う側の論理も問題になってくる。そもそも、自動運転の自動車が人を傷付けた時の責任の所在が不明確な段階で、人工知能(AI)ロボットが自爆テロして人間を殺傷した場合(この場合、人間は自爆テロを命じていないとして)の責任はどうなるのか。まだまだ、不完全な憲章と言える。
 しかし、コントロール化にある人工知能(AI)ロボットは多くの生産設備で使われるだろう。かなり自動制御に近い単機能の機械から監視業務を行う人工知能(AI)ロボットまで広範囲に渡って導入される。工場の生産最適化などのジャンルにも使われるだろう。電力のスマートグリッド化も多様な発電設備と多様な消費設備が数多く接続されると予め決められたアルゴリズムでは最適化が難しく、人工知能(AI)活躍の場となるだろう。余談だが40年前の電気工学の大学教育ではコンピュータを使った火力発電の最大経済運転の対象は3台の火力発電所だった。実は、これすら凄く難解なアルゴリズムを必要としたのだ。
 この時代に人間は何をするか。人工知能(AI)の一歩先を考え、人工知能(AI)が目的達成のための行動がコンプライアンスに合致するか判断する仕事は人間が担う。
 これすら人工知能(AI)がやれば良いと言うかもしれないが責任の問題である。航空機の衝突防止装置(ADS-B)は衝突の恐れを表示するが、操縦桿はパイロットが訓練に従い動かす。ロボット憲章の第一条からすれば、自動回避は憲章に違反するからだ。また、そのためにパイロットは訓練されている。何でも機械に任せるのが安全保持では無い。
 さて、人工知能(AI)が活躍する工業生産の現場(実は、一部の飲食店でも導入可能になる)で人間は「考える」仕事が出来ないとならない。そして、機械の行動の合理性を瞬時に判断するには知識だけでは無く経験も必要になる。この「経験」は日々考える人間にしか身につかない。
 難しい話を書いているようだが、実は企業の中で要不要が語られてる「管理職」だが部下の行動の是非を判断する役職だ。売上数値を管理するのも業務の一部だが、何をするか解らない部下をコントロールする業務ってこれから人工知能(AI)対応で必要になるだろう。
 解らないことがあったらスマホで検索って人間は「経験」が蓄積されないので、活躍する場が無くなる。
 人間の仕事が機械に置き換わるのだから、人間は「考える葦」しか仕事が無くなる。つまり、大量失業の到来である。現在と逆で、人工知能(AI)を使いこなす管理職が求められる。が、それは新卒には無理だ。そのため、就労の断面からは人口減少(労働力人口減少)は良い結果をもたらすかもしれない。


button  プリウスの自動制御におけるロボット憲章の矛盾
button  デマンドメディアの使い方


2016/03/23
Mint