ディープラーニング実現に至る、これまでのAI開発の流れ「AI(Artificial Intelligence:人工知能)」という言葉が誕生して約60年。そもそも、「AIとは何か」という定義すら専門家の間でも統一されていないのが実情です。
それでも、多くの専門家が「ディープラーニングは、AI誕生以来のブレークスルーになり得る」と考えています。
その理由を簡潔に言えば、「これまでのAIにはなかった、ある特性を獲得したから」ということになります。
具体的にはどういうことか――。人工知能の過去3回のブームの概要と共に説明していきましょう。
第一次AIブームは「推論」「探索」
まず、最初の人工知能のブームは1950年代後半~1960年代に起こりました。
当時のAI研究は、主に「推論」「探索」といったアルゴリズムにより、ゲームやパズルを解くことに成果を挙げました。
ただし、ゲームなどはよくても、「現実の問題を解決するのは難しそうだ」という議論に至り、ブームは終わります。
第二次AIブームは「知識」
2度目のブームは、1980年代。今度は「知識」をベースとしたエキスパートシステムがビジネスで役立ちそうだ、ということでAIが盛り上がります。
エキスパートシステムとは、「経営」「会計」「法務」などの限られた分野に限定し、その分野に関する知識をすべてルール化してコンピュータに入力することで、コンピュータを当該分野の専門家にしてしまおう、というものです。
コンピュータが特定分野の専門家になれば、その分野において支援をさせたり、意思決定すら行えるようになるのではないか、と期待されました。
しかしながら、限られた狭い領域ではうまく行くケースも見られたものの、総じて成果は限定的でした。
比較的うまく行ったエキスパートシステムの事例としては、血液疾患の患者を診断する医療システムなどが挙げられます。
しかし、少しでもエキスパートシステムの対象範囲を広げる=汎用化しようとすると、とたんにコンピュータに入力しなければならないルール(知識)の量が大きくなりすぎて、とても人間に書ける量ではなくなってしまいました。
また、汎用的にすればするほど、ゼロかイチか、白黒ハッキリした内容しか受け付けないコンピュータに理解させることが難しい知識も出てきました。
たとえば、「頭がぼおっとする」という状態(知識)は、コンピュータにどのようにインプットすればよいでしょうか。
このように、人間にとっては当たり前の状態(知識)のなかで、コンピュータに教え込むのが難しいものが無数にある、ということも分かってきました。
さらに、多大な工数をかけてコンピュータに専門分野の知識を入力しても、時間とともに最新知識はどんどん変わっていくので、メンテナンスがまったく追いつかない、という弊害も見えてきました。
もちろん人海戦術で入力すれば対応できなくもないでしょうが、そうなると、結局、「AIは使わず、専門家一人雇った方がコストパフォーマンスがよい」という話になります。
つまり、ビジネス的に全くペイしない、ということが分かってきました。
以上のような理由があり、第2次AIブームも沈静化していったのです。
AI冬の時代を終わらせた「機械学習」
1990年代以降、2回目のAI冬の時代を迎えますが、そのなかで注目され始めたのが「機械学習」という技術です。
機械学習では、それまでの「AIに対して、人間が知識を教える」といった方向性とは180度異なる、「AIが自分で学習する」という考え方を取り入れています。
この機械学習の研究が実用化されるようになった背景には、
①コンピュータの処理能力の大幅な向上
②インターネットの登場による、利用可能なデータの急増
の2点が挙げられます。
機械学習とは、簡単に言えば
「大量のデータを読み込み、AI自身がルールや関係性を見つけて正しく分類したり判断したりできる技術」
のことです。
対象となるデータは、音声・言語・画像など多岐にわたりますが、たとえば画像であれば、「多くの動物の画像の中から犬の画像を選び出す」ことなどをAIが出来るようになります。
機械学習の流れとしては、まず人間が「“イヌ”という対象を正しく選び出すためには、対象のどこに注目すればよいか(これを特徴量といいます)」をAIに指示し、その後、AIが大量の画像データを読み込んで、正しくイヌの画像だけを選択できるように学習していきます。
AIの画像認識の精度が上がらなければ、人間が特徴量のパラメータを操作して、またAIに大量のデータを読み込ませる、といったことを繰り返し、精度を上げていきます。
以上のように、「大量のデータを元に、AI自身が学習をする」という点で従来の欠点を補った機械学習ですが、大枠として「人間の指示に従って動く」という点は変わりませんでした。