AIに始まり機械学習やディープラーニングという言葉も身近なものになりました。
AIの要素として機械学習、更に機械学習の要素としてディープラーニングがあります。
意外と正しく説明できる方は少ないのではないでしょうか。
また説明できても少し詳しくとなると悩む方もいらっしゃるかもしれません。
今回は最低限知っていると今後の理解の助けになる、AI、機械学習、ディープラーニングの違いについて解説します。
AI、機械学習、ディープラーニングの違い
AI、機械学習、ディープラーニングはそれぞれ別ものではないため、理解が難しくなっています。
一言で説明すると、 「AIの要素として機械学習があり、機械学習の要素としてディープラーニングがある」 です。
つまり大分類や小分類した時の名称を指しているだけなのです。
違いを図解
「AIの要素として機械学習があり、機械学習の要素としてディープラーニングがある」という説明には以下の有名な図解があります。

形は違えど似たものはどこかで見たことがあるかもしれません。
ただ、それぞれの要素ということはAIや機械学習に別の要素は無いのかと考えたことはないでしょうか。
人により分類の仕方は分かれると思いますが、以下のような構成になっていますので参考にしてください。

以降はそれぞれの項目について簡単に解説します。
AIの要素
AIの要素として機械学習がありますが、その他にはどのようなものがあるのでしょうか。
そもそもAIはデジタル技術などを用いて人の知能を人工的に表現するものを指しますので種類も様々です。
AIに関する定義は有識者の間でも分かれており決まったものはありません。
イメージだけ掴んで頂ければそれで良いと思います。
この項については人工知能学会の認識を参考に致しました。
また各項目は機械学習の発展に伴い進化しており、機械学習が多方面に影響を及ぼしています。
推論・探索
推論・探索は1960年代の第一次AIブームの火付け役となった技術です。
分岐問題に対する人間の思考パターンを分解して迷路やパズルなどを高精度に解けるようになりました。
エキスパートシステム
エキスパートシステムは1970年代の第二次AIブームの火付け役となった技術です。
事前にコンピュータへ知識にあたるデータを入力して覚え込ませます。
第一次AIブームの時と比べて性能は向上しましたがデータにしづらい曖昧表現に弱いなど一定水準までしか性能向上は見込めませんでした。
この後、ディープラーニングがきっかけで第三次AIブームが訪れます。
知識表現
知識表現は人間の知能を機械で理解できるように表現するための手法です。
いわゆる機械語が該当します。
知識表現により人工知能が的確に内容を理解できるようになります。
感性処理
感性処理は温かさや冷たさといった人間の感性をコンピュータで表現するための分野です。
認知科学や人間工学の知見を活用します。
後述するヒューマンインターフェースとも大きなかかわりがあります。
ヒューマンインターフェース
人間は視覚、聴覚、触覚、嗅覚、味覚の五感を使って認識し、反対に外界へは五感に訴える形で伝えます。
ヒューマンインターフェースはAIが外界とのやり取りをするための中継役というイメージで、例えばセンサーがここに該当します。
対話システム
対話システムは音声認識、言語認識、言語生成など人間同士の対話に関する分野です。
スマートスピーカーが良い例です。
例えば会話の場合、大きく分けて以下の工程になります。
- 音声をテキストに変換
- テキストの意味を理解
- 返答するためのテキストを生成
- テキストを音声に変換
特にディープラーニングの発展に伴い進化した分野でもあります。
ロボティクス
ロボティクスはAIとロボット工学を組み合わせた分野を指します。
機械工学、電気電子工学、制御工学など広い分野が組み合わさって構成されています。
そこにAIを組み合わせることでより人間らしい柔軟性のある動作へと繋げます。
機械学習
人間が経験から学習することにより改善する様を表現した分野です。
この分野については以降で細かく解説します。
機械学習の要素
ここではAIの要素である機械学習について見ていきます。
基本的には図解の中に示された手法について簡単に解説しています。
線形回帰
線形回帰は2つの要素に対する比例関係を学習し、予測に繋げます。
有名なのがExcelでも作成できる最小二乗法を用いた線形回帰です。
ロジスティック回帰
ロジスティック回帰はYesかNoかといった2値分類問題に使用されます。
線形回帰を分類問題に対しても応用できるようにしたというイメージで構いません。
ランダムフォレスト
ランダムフォレストは決定木を複数用いて多数決で最終判断を下します。
決定木は分類や回帰のための条件をツリー上に順番に行い、分類や回帰を行う手法です。
どんどん二股に結果が広がっていく様が木のようであることから決定木、その決定木を集めたものであるためランダムフォレストと呼ばれています。
SVM
SVMはサポートベクターマシーンと呼ばれる分類を行うための手法です。
各要素に対して散布図を作成し、そこに直線を引いて分類します。
その際に各データと直線との距離が一番離れるように線を引くことで、どのクラスターとも適度に離れるように分類されます。
これを回帰に応用したサポートベクトル回帰(SVR)もあります。
k-近傍法
ある未知のデータを得た時に、既に分類されているデータ値に近いものへ分類する手法です。
近くに複数の分類されたデータがあることも多く、未知データの周辺近辺k個と設定しその中で多数派の分類先を選択します。
k-means法
最初にk個に分類すると決め、散布図上にk個の基準点をランダム配置します。
各データは一番距離が近い基準点に分類され、k個のクラスターが作成されます。
作成したクラスターの重心に基準点を動かし、基準点が動いたことから改めて各データの分類を再作成します。
これを繰り返すことで似た特徴を持つデータを分類することが出来ます。
ニューラルネットワーク
ニューラルネットワークは脳の神経回路の一部を模倣した数理モデルです。
この分野については以降で細かく解説します。
ニューラルネットワークの要素
ここではディープラーニングの要素であるニューラルネットワークについて各要素を解説します。
単純パーセプトロン
単純パーセプトロンは複数の入力データそれぞれに対して重み付けをして出力する手法です。
この重み付け構造が単層になっているものを単純パーセプトロンと呼びます。
文字通りニューラルネットワークの一番単純な構造です。
重み付け構造が3層以上になったものを多層パーセプトロンと呼びます。
これがディープラーニングです。
オートエンコーダ
オートエンコーダは次元削減を行うための手法です。
入力したデータを処理して再度同じ入力データを出力するという作業を行います。
意味があるのか?と思われるかもしれませんが、入力と出力の間の処理工程を理解することでデータの特徴を抽出することができます。
そのためオートエンコーダを利用してパーセプトロンの重みを初めに推定するために用いられます(事前学習)。
最近では事前学習を行わないことも多くなり、オートエンコーダはノイズ除去のような分野で使用される程度になりました。
ディープラーニング
既に単純パーセプトロンの時にも解説しましたが、重み付け構造が3層以上になっているパーセプトロンをディープラーニングと呼びます。
単層から多層に変わることで非線形な問題を解くこともできるようになりました。
またディープラーニングは汎用性が高く、対話システムのような別のAI分野へも貢献しています。
まとめ
今回はAI、機械学習、ディープラーニングの違いとそれぞれの項目について簡単に解説しました。
これらの分野は日々進化し、互いに影響し合い、新たな手法も次々と現れます。
ただ今回紹介した内容は大きく変わらず、周囲に派生し広がる内容ですので全体的に理解しておくと良いと思います。
今回紹介した機械学習やディープラーニングはデータサイエンティストが主に使う分野となります。
データサイエンティストに興味があれば必要なスキルを以下にまとめていますので参考にしてください。