広告 G検定

【G検定100本ノック③】ディープラーニングの基礎と主要な手法編 - 頻出問題20選

はじめに

この記事はG検定合格を目指すための実践的な問題集「100本ノック」の第三弾です。 第二弾の「機械学習の基礎と主要な手法編」に続き、今回は第三次AIブームの中核技術である「ディープラーニングの基礎と、その主要な手法」に関する20問です。

この分野の理解なくしてG検定の合格はありえません。 それでは始めましょう。

関連記事

G検定

【G検定】G検定(2025年9月試験)の結果・傾向分析と今後の戦略

2025/9/29  

1. 試験結果の概要 受験者数: 7,927名 合格者数: 6,051名 合格率: 約76.3% SNS上では「過去一番で難化した」との声が多数見られたが、合格率は過去の試験とほぼ同水準で推移した。こ ...

G検定

【G検定100本ノック①】AIの歴史と法律・倫理編 - 頻出問題20選

2025/9/29  

はじめに この記事は、G検定合格を目指すための実践的な問題集「100本ノック」の第一弾です。 以前の【G検定完全攻略】記事で解説した通り、合格の鍵は、自らの「苦手分野」を特定し、そこを徹底的に潰すこと ...

G検定

【G検定100本ノック②】機械学習の基礎と主要な手法編 - 頻出問題20選

2025/9/29  

はじめに この記事は、G検定合格を目指すための実践的な問題集「100本ノック」の第二弾です。 第一弾の「AIの歴史と法律・倫理編」に続き、今回は、G検定の試験範囲の中核をなす「機械学習の基礎と、その主 ...

G検定

【G検定100本ノック③】ディープラーニングの基礎と主要な手法編 - 頻出問題20選

2025/9/29  

はじめに この記事はG検定合格を目指すための実践的な問題集「100本ノック」の第三弾です。 第二弾の「機械学習の基礎と主要な手法編」に続き、今回は第三次AIブームの中核技術である「ディープラーニングの ...

G検定

【G検定100本ノック④】AIの応用分野と最新動向編 - 頻出問題20選

2025/9/29  

はじめに この記事はG検定合格を目指すための実践的な問題集「100本ノック」の第四弾です。 第三弾の「ディープラーニングの基礎と主要な手法編」に続き、今回は、AI技術が、現実社会で、どのように活用され ...

G検定

【G検定100本ノック⑤】最終確認・総合問題編 - 頻出問題20選

2025/9/29  

はじめに この記事はG検定合格を目指すための実践的な問題集「100本ノック」の最終回です。 今回はこれまでの分野を横断する「総合問題」として、あなたの知識が本当に定着しているかを確認するための20問で ...

問題1

ニューラルネットワークにおいて、入力層から出力層に向かって信号が一方向にのみ伝播する、最も基本的な構造のネットワークを何と呼ぶか。

A. 畳み込みニューラルネットワーク(CNN)

B. 再帰型ニューラルネットワーク(RNN)

C. 敵対的生成ネットワーク(GAN)

D. 順伝播型ニューラルネットワーク(FFNN)

問題2

ニューラルネットワークの学習において、出力層で算出された誤差を、逆方向(出力層から入力層)に伝播させながら、各層の重みを効率的に調整するアルゴリズムを何と呼ぶか。

A. 勾配降下法

B. 誤差逆伝播法(バックプロパゲーション)

C. 遺伝的アルゴリズム

D. 主成分分析

問題3

ディープラーニングの学習において、層が深くなるにつれて、入力層に近い層の重みの更新量が極めて小さくなり、学習が進まなくなる問題のことを何と呼ぶか。

A. 勾配消失問題

B. 過学習

C. 次元削減

D. 未学習

問題4

主に画像認識の分野で高い性能を発揮するディープラーニングのモデルは何か。画像の空間的な特徴を抽出するための「畳み込み層」と「プーリング層」を持つことが特徴である。

A. 再帰型ニューラルネットワーク(RNN)

B. Transformer

C. 畳み込みニューラルネットワーク(CNN)

D. オートエンコーダ

問題5

畳み込みニューラルネットワーク(CNN)において、画像から特徴を抽出し、その位置ずれを吸収し、計算量を削減する役割を持つ層は何か。

A. 畳み込み層

B. 全結合層

C. プーリング層

D. ドロップアウト層

問題6

主に、時系列データや自然言語のような、連続的なデータのパターンを学習するのに適したディープラーニングのモデルは何か。内部に「ループ構造」を持ち、過去の情報を記憶しながら処理を行うことが特徴である。

A. 畳み込みニューラルネットワーク(CNN)

B. 再帰型ニューラルネットワーク(RNN)

C. 敵対的生成ネットワーク(GAN)

D. ボルツマンマシン

問題7

従来の再帰型ニューラルネットワーク(RNN)が苦手としていた、長期的な依存関係を学習するために考案されたモデルは何か。「忘却ゲート」や「入力ゲート」「出力ゲート」といった特殊なゲート機構を持つことが特徴である。

A. LSTM (Long Short-Term Memory)

B. MLP (Multi-Layer Perceptron)

C. SVM (Support Vector Machine)

D. PCA (Principal Component Analysis)

問題8

ニューラルネットワークにおける過学習を抑制するための手法の一つで、学習時に、ランダムに、一部のニューロンを「無効化」して学習を進める手法を何と呼ぶか。

A. 正則化

B. ドロップアウト

C. バッチ正規化

D. 早期終了

問題9

活性化関数に関する記述として、最も適切でないものを一つ選べ。

A. シグモイド関数は、出力を0から1の間に押し込めるため、確率の表現などに用いられる。

B. ReLU関数は、入力が0以下の場合に出力が0になるため、勾配消失問題を起こしにくい。

C. 活性化関数は、ニューラルネットワークに「非線形性」を導入する役割を持つ。

D. 活性化関数として、線形関数を用いることで、層を深くする意味が生まれる。

問題10

教師なし学習の一種であり、入力データを、一度、より低次元の中間層に圧縮し、その後、元のデータを復元するように学習することで、データの特徴量を抽出するニューラルネットワークを何と呼ぶか。

A. 敵対的生成ネットワーク(GAN)

B. オートエンコーダ

C. Transformer

D. ResNet

問題11

二つのニューラルネットワーク、すなわち、本物そっくりの偽データを生成する「生成器(Generator)」と、そのデータが本物か偽物かを見破る「識別器(Discriminator)」を、互いに競わせるように学習させることで、非常に精巧なデータを生成するモデルを何と呼ぶか。

A. オートエンコーダ

B. 敵対的生成ネットワーク(GAN)

C. ボルツマンマシン

D. サポートベクターマシン

問題12

自然言語処理の分野で、大きな成功を収めたモデルであり、「アテンション機構(Attention Mechanism)」を用いて、文中の単語間の、関連性の重みを学習することが特徴のモデルは何か。

A. LSTM

B. CNN

C. Transformer

D. Word2Vec

問題13

ニューラルネットワークの学習において、入力データを、小さな「ミニバッチ」に分割し、ミニバッチごとに、誤差を計算して、重みを更新する方法を何と呼ぶか。

A. バッチ学習

B. オンライン学習

C. ミニバッチ学習

D. 強化学習

問題14

学習済みの、大規模なモデル(例:画像認識モデル)を、ベースとして、その一部の層を、新しいタスクのデータで、再学習させる手法を何と呼ぶか。

A. スクラッチ学習

B. ファインチューニング

C. プルーニング

D. 量子化

問題15

ディープラーニングにおいて、学習率などの、人間が、事前に設定しなければならない、パラメータのことを、何と呼ぶか。

A. 重みパラメータ

B. バイアスパラメータ

C. ハイパーパラメータ

D. 損失関数

問題16

主に、画像認識の分野で、学習データの量を、人工的に増やす「データ拡張(Data Augmentation)」の手法として、適切でないものを一つ選べ。

A. 画像を、左右反転させる。

B. 画像を、ランダムに、回転・拡大縮小させる。

C. 画像の、明るさや、コントラストを、変更する。

D. 画像に写っている、物体のラベルを、別のものに、書き換える。

問題17

畳み込みニューラルネットワーク(CNN)の発展の歴史において、2012年の画像認識コンペティション「ILSVRC」で、圧勝し、第三次AIブームの、直接的な引き金となったモデルは何か。

A. LeNet

B. AlexNet

C. VGGNet

D. ResNet

問題18

畳み込みニューラルネットワーク(CNN)において、層を、非常に深くすることを可能にした、画期的な構造は何か。入力信号を、出力に、直接足し合わせる「スキップ接続」を持つことが特徴である。

A. Inceptionモジュール (GoogLeNet)

B. Residualブロック (ResNet)

C. バッチ正規化

D. ドロップアウト

問題19

ある単語を、その周辺の文脈から、予測できるように、単語を、低次元の「ベクトル」として、表現する、自然言語処理の手法として、最も有名なものを一つ選べ。

A. TF-IDF

B. Bag-of-Words

C. Word2Vec

D. One-hotエンコーディング

問題20

モデルの予測値と、実際の正解値との「ズレ」を、定量的に、評価するための関数を、何と呼ぶか。学習の目的は、この関数の値を、最小化することである。

A. 活性化関数

B. 損失関数(目的関数、コスト関数)

C. 評価関数

D. 正則化関数

-G検定