はじめに
この記事はG検定合格を目指すための実践的な問題集「100本ノック」の第三弾です。 第二弾の「機械学習の基礎と主要な手法編」に続き、今回は第三次AIブームの中核技術である「ディープラーニングの基礎と、その主要な手法」に関する20問です。
この分野の理解なくしてG検定の合格はありえません。 それでは始めましょう。
問題1
ニューラルネットワークにおいて、入力層から出力層に向かって信号が一方向にのみ伝播する、最も基本的な構造のネットワークを何と呼ぶか。
A. 畳み込みニューラルネットワーク(CNN)
B. 再帰型ニューラルネットワーク(RNN)
C. 敵対的生成ネットワーク(GAN)
D. 順伝播型ニューラルネットワーク(FFNN)
問題2
ニューラルネットワークの学習において、出力層で算出された誤差を、逆方向(出力層から入力層)に伝播させながら、各層の重みを効率的に調整するアルゴリズムを何と呼ぶか。
A. 勾配降下法
B. 誤差逆伝播法(バックプロパゲーション)
C. 遺伝的アルゴリズム
D. 主成分分析
問題3
ディープラーニングの学習において、層が深くなるにつれて、入力層に近い層の重みの更新量が極めて小さくなり、学習が進まなくなる問題のことを何と呼ぶか。
A. 勾配消失問題
B. 過学習
C. 次元削減
D. 未学習
問題4
主に画像認識の分野で高い性能を発揮するディープラーニングのモデルは何か。画像の空間的な特徴を抽出するための「畳み込み層」と「プーリング層」を持つことが特徴である。
A. 再帰型ニューラルネットワーク(RNN)
B. Transformer
C. 畳み込みニューラルネットワーク(CNN)
D. オートエンコーダ
問題5
畳み込みニューラルネットワーク(CNN)において、画像から特徴を抽出し、その位置ずれを吸収し、計算量を削減する役割を持つ層は何か。
A. 畳み込み層
B. 全結合層
C. プーリング層
D. ドロップアウト層
問題6
主に、時系列データや自然言語のような、連続的なデータのパターンを学習するのに適したディープラーニングのモデルは何か。内部に「ループ構造」を持ち、過去の情報を記憶しながら処理を行うことが特徴である。
A. 畳み込みニューラルネットワーク(CNN)
B. 再帰型ニューラルネットワーク(RNN)
C. 敵対的生成ネットワーク(GAN)
D. ボルツマンマシン
問題7
従来の再帰型ニューラルネットワーク(RNN)が苦手としていた、長期的な依存関係を学習するために考案されたモデルは何か。「忘却ゲート」や「入力ゲート」「出力ゲート」といった特殊なゲート機構を持つことが特徴である。
A. LSTM (Long Short-Term Memory)
B. MLP (Multi-Layer Perceptron)
C. SVM (Support Vector Machine)
D. PCA (Principal Component Analysis)
問題8
ニューラルネットワークにおける過学習を抑制するための手法の一つで、学習時に、ランダムに、一部のニューロンを「無効化」して学習を進める手法を何と呼ぶか。
A. 正則化
B. ドロップアウト
C. バッチ正規化
D. 早期終了
問題9
活性化関数に関する記述として、最も適切でないものを一つ選べ。
A. シグモイド関数は、出力を0から1の間に押し込めるため、確率の表現などに用いられる。
B. ReLU関数は、入力が0以下の場合に出力が0になるため、勾配消失問題を起こしにくい。
C. 活性化関数は、ニューラルネットワークに「非線形性」を導入する役割を持つ。
D. 活性化関数として、線形関数を用いることで、層を深くする意味が生まれる。
問題10
教師なし学習の一種であり、入力データを、一度、より低次元の中間層に圧縮し、その後、元のデータを復元するように学習することで、データの特徴量を抽出するニューラルネットワークを何と呼ぶか。
A. 敵対的生成ネットワーク(GAN)
B. オートエンコーダ
C. Transformer
D. ResNet
問題11
二つのニューラルネットワーク、すなわち、本物そっくりの偽データを生成する「生成器(Generator)」と、そのデータが本物か偽物かを見破る「識別器(Discriminator)」を、互いに競わせるように学習させることで、非常に精巧なデータを生成するモデルを何と呼ぶか。
A. オートエンコーダ
B. 敵対的生成ネットワーク(GAN)
C. ボルツマンマシン
D. サポートベクターマシン
問題12
自然言語処理の分野で、大きな成功を収めたモデルであり、「アテンション機構(Attention Mechanism)」を用いて、文中の単語間の、関連性の重みを学習することが特徴のモデルは何か。
A. LSTM
B. CNN
C. Transformer
D. Word2Vec
問題13
ニューラルネットワークの学習において、入力データを、小さな「ミニバッチ」に分割し、ミニバッチごとに、誤差を計算して、重みを更新する方法を何と呼ぶか。
A. バッチ学習
B. オンライン学習
C. ミニバッチ学習
D. 強化学習
問題14
学習済みの、大規模なモデル(例:画像認識モデル)を、ベースとして、その一部の層を、新しいタスクのデータで、再学習させる手法を何と呼ぶか。
A. スクラッチ学習
B. ファインチューニング
C. プルーニング
D. 量子化
問題15
ディープラーニングにおいて、学習率などの、人間が、事前に設定しなければならない、パラメータのことを、何と呼ぶか。
A. 重みパラメータ
B. バイアスパラメータ
C. ハイパーパラメータ
D. 損失関数
問題16
主に、画像認識の分野で、学習データの量を、人工的に増やす「データ拡張(Data Augmentation)」の手法として、適切でないものを一つ選べ。
A. 画像を、左右反転させる。
B. 画像を、ランダムに、回転・拡大縮小させる。
C. 画像の、明るさや、コントラストを、変更する。
D. 画像に写っている、物体のラベルを、別のものに、書き換える。
問題17
畳み込みニューラルネットワーク(CNN)の発展の歴史において、2012年の画像認識コンペティション「ILSVRC」で、圧勝し、第三次AIブームの、直接的な引き金となったモデルは何か。
A. LeNet
B. AlexNet
C. VGGNet
D. ResNet
問題18
畳み込みニューラルネットワーク(CNN)において、層を、非常に深くすることを可能にした、画期的な構造は何か。入力信号を、出力に、直接足し合わせる「スキップ接続」を持つことが特徴である。
A. Inceptionモジュール (GoogLeNet)
B. Residualブロック (ResNet)
C. バッチ正規化
D. ドロップアウト
問題19
ある単語を、その周辺の文脈から、予測できるように、単語を、低次元の「ベクトル」として、表現する、自然言語処理の手法として、最も有名なものを一つ選べ。
A. TF-IDF
B. Bag-of-Words
C. Word2Vec
D. One-hotエンコーディング
問題20
モデルの予測値と、実際の正解値との「ズレ」を、定量的に、評価するための関数を、何と呼ぶか。学習の目的は、この関数の値を、最小化することである。
A. 活性化関数
B. 損失関数(目的関数、コスト関数)
C. 評価関数
D. 正則化関数