人工知能とシンギュラリティ

ai 2 - 人工知能とシンギュラリティ

1. 人工知能とシンギュラリティ

「シンギュラリティ」という言葉を耳にすることがあると思います。

少なくともこの記事をサイト検索から見に来て頂いた方は、興味がある言葉なのかもしれません。「シンギュラリティ」とは、技術的特異点という意味です。

 

人工知能の分野から広まった言葉ですが、人工知能が爆発的・加速度的成長を遂げることで、一つのコンピュータの知能が人類の知性の総量を上回ると言われています。この「シンギュラリティ」をコンピュータの進化によって超えたとき、どんなことが起きるのでしょうか?また、その時のコンピュータの位置付けはどんな風になっていくのでしょうか?

2. 人工知能の分野におけるコンピュータの位置付け

今後のコンピュータの進化・位置付けなどは色々と考えられますが、まず考えられるのはコンピュータが自分自身を賢くすることでしょう。もちろん、現在の人工知能は自分自身だけで賢くなるために、自身を改良することはできません。必ず人間の手を介入することになります。

なぜなら、現在のプログラムは自分自身(コンピュータ)を変更・追加するようなことを想定した作りにはなっていないからです。

 

しかしながら、まだまだ赤ちゃんレベル(それでもすごい技術だと思います)ですが、「プログラムを記述するプログラム」としてディープラーニングと呼ばれる手法の一つで機械学習を行えるようになりました。

さらには、プログラムの実行結果を予想するディープラーニングさえ出現しました。これらのコンピュータの動向を観察していると、シンギュラリティは必然だと考えます。

 

最近では、藤井聡太四段の話題で盛り上がっている将棋がありますが、この将棋に関しても2000年代に入って「将棋はチェスと違い、まだ人工知能に負けることはない」と言われていましたが、2017年になってみると将棋の名人が敗北するほどまでになりました。線形的ではなく、指数関数的に成長する人工知能は、人類に追いついた途端、一瞬ではるか先まで成長してしまうのです。

それが、これからの社会のありとあらゆる分野で発生し、シンギュラリティに繋がると思います。

3. ある事例から考えられる人工知能の考え方

この記事を書くにあたって、参考にした本やサイトがあります。内容がとても面白かったので、私の意見も交えながら綴ろうと思います。

 

ここで、1つの事例を紹介します。

googleでは、写真管理アプリであるgoogleフォトがあります。これは、ユーザーが管理しやすいように自動的にタグをつけるサービスです。簡単にいうと、管理している写真に対して、これはどんな写真なのかキーワードを振るわけです。

コンピュータの写真であれば「コンピュータ」、人の写真であれば「人間」のようなイメージです。ところが、肌の黒い人が写っている写真を人工知能が「ゴリラ」と誤ってタグをつけてしまい、googleの担当者が慌てて陳謝するという事件がありました。

 

さて、この事例を記事を読んでくださっているあなたはどう解釈しますか?

「機械学習であるディープラーニングを利用した判定でもそういったミスはあるのかな?」

こんな風に考えた方もいるかもしれません。

 

写真を見せられて、肌が黒い人とゴリラを見間違える人はいないでしょう。しかし、画像認識そのものは、人工知能はすでに人間のレベルを超えているといっても過言ではありません。画像認識に関する事例はたくさんありますが、人間が触れることができないあまりにも膨大な量を人工知能は解析し、画像認識時に判断しています。

であるならば、コンピュータがこのレベルの問題を間違えるというのは何かがおかしいわけです。

 

では、なぜコンピュータは間違えたのでしょうか。

googleは該当の事件に関する人工知能のアルゴリズムの詳細は発表していませんが、大筋では以下のようなものだと考えられます。

 

ディープラーニングでタグをつけるとするならば、膨大なデータが必要となります。通常であれば、それらのデータに事前に人が介入し、タグをつけます。しかし、googleは人工知能を利用して、インターネット上にクローラーを走らせ、大量の写真データとそれに関連する文書データを収集しています。それらのデータを活用し、おそらくは文章中に出てくる単語をキーワードとしてタグ付けを行なったと考えられます。

 

このようにすれば、様々な場面で人手でタグをつけるよりもはるかに速く、さらにコストも削減(人件費という意味で)しつつ、大量のデータを確保することができます。

この時、残念なことに、「間違い」なのか「悪意がある」のかわかりませんが、インターネット上で肌が黒い人を「ゴリラ」と揶揄している情報もその文書データの文字通りに吸収した結果、上記のような事件に繋がったわけです。

googleの例だけでなく、MicrosoftのAIボットがツイッター上で差別的な言動を大量に収集してしまった結果、AIボットの応答で差別的な言動を繰り返してしまうといった事件もありました。

4. 人工知能の「知能」や「知性」は誰が与えるのか

人工知能のはじめは、必ず開発者をはじめ様々な人の手が介入して、その関わった人々の考え方を基に学習します。そして、これには人間の先入観や勘違いも含まれているわけです。

このように、人間の結果を模倣して学習するプログラムは、人間の間違いも学習するわけです。実際に、このような考えが一概にコンピュータに反映されているかはわかりませんが、少なくともシンギュラリティを超えた時の人工知能は人間から学習した時の名残があると思います。

 

つまり、人工知能は倫理観も人間が残したデータから学習するわけです。少なくとも今後の人工知能の倫理観は人間が様々なところで残したデータから生まれてくるわけです。

facebookでの投稿記事やツイッターのツイート、ブログサイト、サイト検索の内容までも利用されているわけです。上記で紹介した事例のようなことは、これから多発するのかどうかはわかりません。人工知能のシステムエラーであれば、セキュリティやシステム障害に関することなので、プログラムの見直しをすれば良いと思います。

 

ですが、人間と人工知能がビジネスやプライベートでコミュニケーションを図る機会があれば、人工知能の倫理観はとても重要なファクターになると考えます。今後、人間と人工知能がうまく共存するためには、人間が残すこれからのデータが非常に意味を成すということを言いたかった記事でした。

 

それでは!

 

 

機械学習や分析の分野に興味があり、pythonを学びたいと思っている方は是非こちらもどうぞ↓

誰でも30日間で習得出来るpython学習法

Pythonチュートリアル公開中です。

 

ABOUTこの記事をかいた人

sugi

大学卒業後、IT企業に就職を果たす。システム開発・人工知能に触れながら大手企業と業務をこなす。2年半後脱サラし、現在フリーランス活動中。 2019年2月から起業する予定。 自社サービス及び製品を開発し、売り上げを立てている。