G検定

G検定対策に役立つ!②人工知能の動向4選(探索・推論~ディープラーニング)

はじめに:人工知能をめぐる動向とは?

人工知能をめぐる動向」とは、AI(人工知能)分野の主要な技術的流れやトレンドを指します。G検定ではこのセクションで、AIの発展を支えてきた代表的な手法やシステムについて問われます。具体的には 「探索・推論」「知識表現とエキスパートシステム」「機械学習」「ディープラーニング」 の4つが重要項目として挙げられています。これらはそれぞれAIの歴史上、異なるアプローチやブームを象徴する分野でもあります。

初期のAI研究(第1次AIブーム)では、コンピュータが問題を探索し論理的に推論することで解決策を見つけようとする手法が中心でした。次に1980年代(第2次ブーム)には、人間の知識を蓄えて推論するエキスパートシステムが注目されました。しかし膨大な知識を扱う難しさから一時停滞します。その後、2000年代以降の第3次AIブームでは、ビッグデータの活用と計算資源の向上により機械学習が飛躍的に実用化し、さらにディープラーニング(深層学習)が登場してAIは再び脚光を浴びました。

本記事では、この4つの領域それぞれについてわかりやすく解説します。また、G検定で押さえるべきポイントを太字で示し、重要事項を整理していきます。それでは見ていきましょう!

探索・推論 ~問題解決のための道筋を探るAI~

「探索」とは、AIにおいて解決すべき問題の解答を求めて可能な選択肢や状態を系統立てて試みることです。一方、「推論」とは、与えられた知識やルールから論理的に新たな結論を導き出すことを指します。初期の人工知能は、この探索アルゴリズムと論理推論エンジンによって、パズルやゲームなどの問題を解こうとしました。例えば迷路を解くプログラムでは、ゴールに至るまで道を幅優先もしくは深さ優先で次々探索し、論理矛盾のないルートを推論する、といった具合です。

1950~60年代には、こうした手法で「トイ・プロブレム」(簡易な課題)を解く研究が盛んでした。有名な例に、塔の上の円盤移動パズルである「ハノイの塔」や、チェスや将棋の指し手を読むゲーム木探索があります。ミニマックス法αβ(アルファベータ)法といったアルゴリズムは、ゲームにおける最善手を探索するために開発され、現在のボードゲームAIの基礎となりました。例えばミニマックス法は自分と相手の手を交互に完全探索し、αβ法は不要な枝刈りを行って効率化することで、人間と対戦できるAIを可能にしました。また、当時の研究者テリー・ウィノグラードが開発したSHRDLU(シュルドゥル)というシステムは、積み木の仮想世界で人間の指示を理解し、ブロックを動かすという実験的プログラムでした。SHRDLUは限定された世界の中で高度な自然言語理解と推論を示し、コンピュータが論理的に振る舞う一例となりました。

もっとも、第1次AIブームで期待された探索・推論アプローチも、現実世界の複雑な問題には歯が立ちませんでした。当時は計算資源が限られていたため、可能な手を片っ端から試す探索は組み合わせ爆発を起こしがちで、少し複雑な問題で処理が追いつかなくなったのです。例えばハノイの塔でも円盤の数が増えると急速に手順の数が増大します。また、論理推論も現実には考慮すべき知識が多すぎて対応しきれませんでした。その結果、「探索と推論」で解けたのはごく限られた条件下の問題(トイプロブレム)だけで、第1次ブームは停滞に向かったのです。

G検定で押さえるべきポイント:

  • 探索アルゴリズムの基本:幅優先探索(BFS)と深さ優先探索(DFS)の違いや特徴を理解しましょう。BFSは解までの最短経路を見つけやすく、DFSはメモリ消費が少ないなどの利点があります。
  • ゲーム木探索の手法:ミニマックス法とαβ法による推論の仕組み(全探索と枝刈りによる効率化)を把握します。またモンテカルロ法(ランダムシミュレーションで評価)など、探索の発展手法にも触れておくと良いでしょう。
  • 初期AIの例:STRIPS(自動計画システム)やSHRDLU(自然言語と推論)など、古典的AIプログラムの名前と概要も試験に出る可能性があります。特に「SHRDLU」のように限定的な世界で成功した例は、AI黎明期の成果として知っておきましょう。

知識表現とエキスパートシステム ~知識を教え、専門家のように答えるAI~

「知識表現」とは、現実世界の事実や概念、関係性をコンピュータが利用できる形式で表すことです。例えば、「犬は哺乳類である」「医者は患者に診断を下す」といった知識を、論理式やネットワーク、フレームなどの形で保存します。意味ネットワークでは「ノード(概念)とリンク(関係)」で一般常識を表現し、ノード間の「is-a(〜は〜の一種)」や「part-of(〜は〜の一部)」といった関係で推論を助けます。知識表現により、コンピュータは単なる文字列ではなく意味を持った情報としてデータを扱えるのです。

この知識表現を活用して、特定の分野の問題を人間の専門家のように解決しようという試みがエキスパートシステム(専門家システム)です。エキスパートシステムは主に2つの部分で構成されます。1つは蓄えた知識(ルールや事実)の集まりである知識ベース、もう1つはその知識を使って推論を行う推論エンジンです。推論エンジンは知識ベース内の「もし〜ならば〜」形式の規則を用いて、新たな結論や診断を導き出します。例えば医療分野のエキスパートシステムでは、「もし患者に発熱と咳があるなら肺炎の疑い」など多くのルールを知識ベースに持ち、それを推論エンジンが適用して診断を下す仕組みです。

具体的な例として、1970年代に開発された医療診断システムMYCINは血液感染症の診断において専門医並みの性能を示したと言われます。また、化学分析のためのDENDRAL(デンドラル)は有機化合物の構造推定に成功しました。これら初期のエキスパートシステムは、第2次AIブームを支える大きな成果となり、AI技術が現実の課題に適用され始めた例として知られます。1980年代には企業でも専門知識をコンピュータに蓄えて活用しようという動きが活発になり、エキスパートシステムが事業に導入されました。

しかし、エキスパートシステムには大きな課題も露呈しました。それは「知識の獲得と維持」の難しさです。人間の専門家が持つ膨大な知識をすべて正確に入力し、更新していく作業は想像以上に困難でした。常識や暗黙知(経験則など言語化しづらい知識)まで考慮すると、インプットすべき情報が膨大すぎることが第2次AIブーム終焉の一因となりました。実際、米国で進められた常識巨大知識ベースのCycプロジェクトは、何十年もかけて常識を入力し続けていますが、未だに人間の常識全てを網羅するには至っていません。また、一度構築した知識ベースも世の中の変化に応じてメンテナンスが必要で、その手間も無視できません。この「知識獲得のボトルネック」により、エキスパートシステム中心のAIアプローチは限界が見え、次第に下火となっていきました。

それでも知識表現とエキスパートシステムの研究は、その後のAIに多大な貢献をしています。知識ベースと推論エンジンの概念は現在のルールベースAIチャットボットの知識グラフにも受け継がれていますし、IBMのWatsonのようにクイズ番組で人間チャンピオンに勝利したシステムでは、大量の知識データと高度な推論・検索技術の組み合わせが威力を発揮しました。知識とデータを融合したAIの重要性は今も変わっていません。

G検定で押さえるべきポイント:

  • 知識表現の手法:代表的な知識表現として、命題論理・述語論理による表現、意味ネットワーク(is-a関係やpart-of関係)、フレーム(スロットに属性値を持つ構造)、オントロジー(概念の体系的分類)などがあります。これらが何を目的にした手法か説明できるようにしましょう。
  • エキスパートシステムの仕組み知識ベース推論エンジンに分かれた構造を理解します。特に「もし~ならば~」形式のルールを蓄える知識ベースと、前向き推論・後向き推論(順推論・逆推論)でルールを適用する推論エンジンの役割がポイントです。
  • 代表的なシステム名:G検定ではMYCINやDENDRAL、Cyc、Watson、そして日本のプロジェクトである東ロボくん(東大入試に挑戦したAI)など、歴史的または話題になったエキスパートシステムの名称と概要が問われることがあります。どの分野の問題に使われたAIか、一言で説明できるようにしておきましょう。

機械学習 ~コンピュータに学習させるという発想~

「機械学習(Machine Learning)」とは、人間がルールをプログラムする代わりに、コンピュータがデータからパターンや規則を学習し自ら問題解決能力を獲得する技術です。米国の計算機科学者アーサー・サミュエルは1959年に機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」と定義しました。すなわち、プログラムが自律的に経験を積み、性能を向上させていく仕組みです。

エキスパートシステムが「知識を教え込む」アプローチだったのに対し、機械学習は「データを与えて統計的に学習させる」アプローチと言えます。その典型がスパムメールのフィルタリングです。かつて迷惑メールを除去するには、メール本文中のNGワードを人間がルール化して対応していました。しかし新種のスパムにはイタチごっこでキリがありません。機械学習を用いれば、大量の過去メール(スパム・非スパムのサンプル)からコンピュータが特徴量を学び、スパム判定モデルを自動生成してくれます。一度モデルが訓練されれば、新しいメールもそのモデルで判定可能です。このように機械学習では、データとアルゴリズムによる自動ルール獲得が鍵となります。

機械学習の手法は目的や学習形態によって様々な種類があります。正解ラベル付きデータから学ぶ教師あり学習(分類や回帰問題)、ラベルなしデータから構造を見出す教師なし学習(クラスタリングや次元削減)、試行錯誤を通じて最適な行動方策を学ぶ強化学習などが代表的です。それぞれ詳細は別セクションで扱われますが、機械学習全体として言えるのは「大量のデータからモデル(関数やルールのようなもの)を構築し、新たなデータに適用する」という流れです。モデルの性能は経験を積むほど向上し、時に人間には発見しづらいパターンも捉えることがあります。

では、なぜ機械学習は2010年代に入って注目を浴びるようになったのでしょうか?その背景には主に2つの要因があります。1つはインターネットやセンサの普及で膨大なビッグデータが入手可能になったことです。データは機械学習の燃料であり、量と質がものを言います。もう1つはコンピュータの計算能力向上、とりわけGPUなど並列計算デバイスの発達です。これにより、以前は非現実的だった大規模データの学習が可能になりました。例えば数千万件のデータを扱うレコメンデーションエンジン(商品推薦システム)も、ビッグデータと高速処理基盤があって初めて実用化できたのです。こうした土壌の上に、優れたアルゴリズム研究も実を結び、機械学習は様々な分野で成果を上げ始めました。第3次AIブームのキーテクノロジーが機械学習であると言われる所以です。

もっとも機械学習にも課題はあります。データに偏りや誤りがあればモデルにもそれが反映されてしまうバイアスの問題、次元(特徴量)が増えるほど学習が難しくなる次元の呪い、そして充分なデータがない場合の性能限界などです。それでも、画像認識や音声認識、自然言語処理といった領域で機械学習は飛躍的な進歩を遂げ、人間に匹敵あるいは凌駕する精度を達成するタスクも現れました。

G検定で押さえるべきポイント:

  • 機械学習の定義と目的:プログラムがデータから学ぶ仕組みであること、ルールベースとの違い(人がルールを作るのではなく、データから自動獲得する)を説明できましょう。メリット(自動化・高精度)とデメリット(大量データや計算資源が必要、ブラックボックス化のおそれ)も整理しておくと安心です。
  • 機械学習が注目された背景:キーワードはビッグデータ高性能計算です。2010年前後からのデータ爆発とクラウド・GPUの普及が機械学習ブレイクスルーの原動力になったことを押さえましょう。
  • 機械学習の応用例:スパムメールフィルタ、自動翻訳、レコメンデーション(通販サイトの商品おすすめ)など、身近な応用例をいくつか挙げられるようにします。特に試験では「この技術の典型的な用途は?」と問われることがあるため、「スパム検知=教師あり学習の分類問題」「レコメンド=ユーザ行動データの分析(協調フィルタリング)」など対応付けて覚えると良いでしょう。

ディープラーニング ~層の深いニューラルネットワークが起こすAI革命~

「ディープラーニング(深層学習)」は、機械学習手法の一種であり、多層構造の人工ニューラルネットワーク(ディープニューラルネットワーク, DNN)を用いてデータから高度な特徴を自動的に抽出し学習する手法です。人間の脳神経回路を模したニューラルネットワークを深く(多層に)積み重ねることで、画像や音声、言語などの複雑なパターン認識を可能にしました。従来の機械学習では特徴量を人間が設計する必要があるケースが多かったのに対し、ディープラーニングでは入力データから階層的に特徴を学習してくれる点が画期的です。例えば画像認識の分野では、浅い層がエッジや色といった低レベル特徴を捉え、深い層になるほど「目」「顔」など高レベルの抽象的特徴を表現するようになります。

ディープラーニング自体のアイデアは1980年代から存在していました(日本でも第五世代コンピュータの時期に「ネオコグニトロン」という多層ネットワークが提案されています)が、真価を発揮したのは2010年代です。2012年のImageNetコンテストで、トロント大学のジェフリー・ヒントンらのチームが畳み込みニューラルネットワーク「AlexNet」で圧倒的な画像認識精度を達成したことが大きな転機となりました。この年、ディープラーニングモデルがそれまでの手法に比べてエラー率を一気に半分近くまで下げて優勝したことで、世界中の研究者が深層学習に注目し始めたのです。以降、画像認識のみならず音声認識や自然言語処理でも、次々とディープラーニングが既存最高精度を塗り替えていきました。

ディープラーニング成功の背景には、前述のビッグデータ・高性能計算資源に加えて、ネットワークの改良(活性化関数にReLUを採用、層を効率よく学習させる誤差逆伝播法の改良など)や新しいアーキテクチャの登場があります。画像分野ではCNN(畳み込みニューラルネット)、時系列データではRNN(リカレントニューラルネット)やその発展形のLSTM、そして近年では自己注意機構を用いたTransformerモデルが言語・画像双方で革新的成果を上げています。それぞれ詳細はディープラーニングの要素技術としてG検定でも問われうるため、用語だけでも把握しておきましょう。

ディープラーニングがもたらしたAIの実用化インパクトは計り知れません。例えば囲碁AIのAlphaGoはディープラーニングと強化学習を組み合わせ、人類トップ棋士に勝利して世界を驚かせました(2016年、李世ドル九段に4勝1敗)。また、文章の読み書き領域では大規模言語モデル(LLM)の登場が画期的です。LLMとは膨大なテキストで事前学習した深層学習モデルであり、少量の例示で多様な言語タスクをこなせるようになります。OpenAIのGPTシリーズに代表されるLLMは高度な文章生成や会話応答(例:ChatGPT)を可能にし、ビジネスにも大きなインパクトを与えています。G検定でもキーワードとして「大規模言語モデル」が追加されており、最新動向として押さえておく必要があります。

もっとも、ディープラーニングにも注意点があります。モデルが巨大化しがちなため学習に時間とコストがかかること、説明が難しいブラックボックスになりやすいこと、そして大量のデータがないと性能を発揮しにくいことです。そのため「少ないデータで学習するには?」「モデルを圧縮して軽量化するには?」といった研究も活発です。現在では転移学習(既存モデルを流用して学習データを削減)やモデル圧縮の技術も進みつつあり、ディープラーニングの実用範囲はますます広がっています。

G検定で押さえるべきポイント:

  • ディープラーニングの特徴:多層ニューラルネットワークを用いる点、特徴量抽出を自動化できる点を強調して説明できるようにします。また従来の機械学習との違い(例えば大量データによる精度向上、反面データ不足に弱いなど)も整理しましょう。
  • 発展の歴史と成果:2012年のImageNetにおけるAlexNetの躍進、2014年前後の音声認識精度向上、2016年のAlphaGoによる囲碁制覇、そして2020年代のGPT-3やChatGPTといったLLMの台頭など、ディープラーニングが起こした出来事を年代順に追えるとベストです。少なくとも「ImageNet 2012が転機」という点と、現在進行形のトレンドである大規模言語モデルについては問われる可能性大です。
  • 主要な応用分野:画像認識(例:物体検出や顔認識)、音声認識(音声アシスタント等)、自然言語処理(機械翻訳、文章要約)など、ディープラーニングが特に威力を発揮している分野を押さえます。G検定では「ディープラーニングの代表的な応用例は?」といった形で具体例を答えさせる問題も考えられるため、「画像認識=畳み込みネット」「ゲームAI=深層強化学習」「文章生成=大規模言語モデル」といった対応付けをイメージしておきましょう。

おわりに:AIの潮流を理解してG検定合格へ

以上、探索・推論知識表現とエキスパートシステム機械学習ディープラーニングという4つの観点から人工知能の動向を解説しました。これらはAI技術の発展を辿るうえで欠かせないキーワードであり、G検定でも頻出のテーマです。それぞれの概要とポイントを押さえておくことで、AI分野の全体像も掴みやすくなるでしょう。最後に、本記事の内容を表形式で整理しておきますので復習にお役立てください。

領域概要・代表技術例G検定での重要ポイント
探索・推論問題解決のための状態空間探索と論理推論。
幅優先探索深さ優先探索、ゲームAIのミニマックス法αβ法、自動計画のSTRIPSなどが例。
基本的な探索アルゴリズムの特徴(BFSとDFSの違い等)
ゲーム木探索手法(ミニマックス/αβ)
初期AIプログラムの名前と目的(SHRDLUなど)
知識表現とエキスパートシステム専門知識を形式化して蓄え(知識ベース)、推論エンジンで回答を導くシステム。
ルールベースの推論、意味ネットワークオントロジーによる知識表現。
代表例:MYCIN(医療診断)、DENDRAL(化学分析)、Cyc(常識知識ベース)
エキスパートシステムの構成要素(知識ベース+推論エンジン)
知識表現の手法(ルール、ネットワーク等)
第2次AIブームの限界(知識獲得のボトルネック)
機械学習データからパターンを学習してモデル構築。
教師あり/教師なし/強化学習などの手法区分。
応用例:スパムフィルタ、レコメンド、音声認識。
ルールベースとの違い(人が教える→コンピュータが学ぶ)
ビッグデータと高性能計算の重要性
代表的応用分野(分類、予測など)
ディープラーニング多層ニューラルネットによる機械学習の一種。特徴量も自動学習。
主なモデル:CNN(画像)、RNN/LSTM(時系列)、Transformer(言語など)。
応用例:画像認識(ImageNet/AlexNet)、ゲーム(AlphaGo)、文章生成(GPT系LLM)
深層学習の利点(高精度、自動特徴学習)と欠点(データ大量・ブラックボックス)
2010年代以降のブレイクスルー年表(2012年・2016年など)
最新トレンド:大規模言語モデルの台頭

解説は以上です。人工知能の動向を歴史の流れとともに把握することで、各技術の位置付けがクリアになったのではないでしょうか。最後までお読みいただきありがとうございます。G検定本番でも、本記事で整理したポイントを思い出しつつ落ち着いて問題に臨んでください。皆さんの合格を応援しています!

G検定

2025/5/4

G検定対策⑧:AI倫理・AIガバナンスの主要原則と重要用語をわかりやすく解説

AI倫理・AIガバナンスとは? AI倫理とは、人工知能の開発・利用において守るべき価値観や原則のことです。例えば「AIは人権を尊重すべき」「差別や偏りを生じさせないようにすべき」といった倫理的指針を指します。AIが社会に与える影響が大きくなる中で、何が「良いAI利用」で何が「悪い利用」かを判断する基準として、このAI倫理が重要になります。 一方でAIガバナンスとは、AI倫理を実践するための仕組みやルール作りのことです。企業や政府がAIの開発・運用に際し、適切な管理・監督体制を整え、AIを安全かつ倫理的に活 ...

G検定

2025/5/4

【G検定対策⑦】AIに関する法律と契約をやさしく解説!個人情報保護法からサービス契約まで

はじめに:AIの法律と契約を学ぶ意義 こんにちは!今回はG検定(ジェネラリスト検定)の合格を目指す皆さんに向けて、AIに関する主要な法律と契約のポイントを講義風にフレンドリーな文体で解説します。AI分野では技術だけでなく法的な知識も求められます。例えば、個人データの扱い方やAIで作った成果物の権利関係を知らないと、思わぬトラブルにつながるかもしれません。法律や契約と聞くと難しく感じるかもしれませんが、数学・法律初心者の方でも理解できるようにやさしく説明していきます。一緒に個人情報保護法からAIサービス提供 ...

G検定

2025/5/4

G検定初心者向け⑥:AIに必要な数理・統計知識の基礎をやさしく解説

G検定(ジェネラリスト検定)は、AIの基礎知識を問う試験ですが、数学が苦手な方にとってはハードルが高く感じられるかもしれません。ご安心ください。本記事ではAIに必要な数理・統計の知識を、数学初心者でも理解できるように解説します。確率分布の基礎からベイズの定理、分散と標準偏差、そして正規分布まで、G検定で押さえておきたい重要トピックを取り上げます。具体例や図表も交えますので、イメージしながら学んでいきましょう。それでは一緒に基礎を固めていきましょう! 確率分布とは?離散分布と連続分布の違い まずは確率分布の ...

G検定

2025/5/4

G検定対策講座⑤:AI社会実装プロジェクトの進め方とデータ分析プロセス徹底解説

はじめに: AIの社会実装とG検定 AI技術を実際のビジネスや社会に役立てる「AIの社会実装」では、技術面だけでなくプロジェクトの進め方やデータの扱い方が重要です。本記事では、講義風かつフレンドリーな口調で、AIプロジェクトの計画から実装までの流れと、データ収集・前処理・分析・学習のプロセスについて解説します。短時間でAI導入のポイントを掴みたいビジネスパーソンは参考にしてください。 1. AIプロジェクトの進め方 AIプロジェクトを成功させるには、明確な目的設定から始まり、段階的にリスクを管理しつつ価値 ...

G検定

2025/5/4

G検定対策に最適!④ディープラーニング基礎講座:ニューラルネットの概要から誤差逆伝播法・最適化手法まで

はじめに:ディープラーニングの概要 皆さん、ディープラーニング(深層学習)という言葉はもう聞いたことがありますよね?これは人工知能(AI)の一分野で、多層のニューラルネットワークを用いてコンピュータが自らデータから特徴を学習する技術です。従来の機械学習では、どの特徴に注目すべきか人間が設計していましたが、ディープラーニングでは層が深く重なったニューラルネットワークがデータから重要な特徴を自動抽出し、複雑なパターンも捉えられる点が画期的です。2010年代以降、計算資源(GPU)の発達とビッグデータの蓄積によ ...

-G検定
-, , , , ,