広告 G検定

【G検定100本ノック②】機械学習の基礎と主要な手法編 - 頻出問題20選

はじめに

この記事は、G検定合格を目指すための実践的な問題集「100本ノック」の第二弾です。 第一弾の「AIの歴史と法律・倫理編」に続き、今回は、G検定の試験範囲の中核をなす「機械学習の基礎と、その主要な手法」に関する20問です。

この分野の理解度が、合否を、直接左右すると言っても、過言ではありません。 それでは、始めましょう。

関連記事

G検定

【G検定】G検定(2025年9月試験)の結果・傾向分析と今後の戦略

2025/9/29  

1. 試験結果の概要 受験者数: 7,927名 合格者数: 6,051名 合格率: 約76.3% SNS上では「過去一番で難化した」との声が多数見られたが、合格率は過去の試験とほぼ同水準で推移した。こ ...

G検定

【G検定100本ノック①】AIの歴史と法律・倫理編 - 頻出問題20選

2025/9/29  

はじめに この記事は、G検定合格を目指すための実践的な問題集「100本ノック」の第一弾です。 以前の【G検定完全攻略】記事で解説した通り、合格の鍵は、自らの「苦手分野」を特定し、そこを徹底的に潰すこと ...

G検定

【G検定100本ノック②】機械学習の基礎と主要な手法編 - 頻出問題20選

2025/9/29  

はじめに この記事は、G検定合格を目指すための実践的な問題集「100本ノック」の第二弾です。 第一弾の「AIの歴史と法律・倫理編」に続き、今回は、G検定の試験範囲の中核をなす「機械学習の基礎と、その主 ...

G検定

【G検定100本ノック③】ディープラーニングの基礎と主要な手法編 - 頻出問題20選

2025/9/29  

はじめに この記事はG検定合格を目指すための実践的な問題集「100本ノック」の第三弾です。 第二弾の「機械学習の基礎と主要な手法編」に続き、今回は第三次AIブームの中核技術である「ディープラーニングの ...

G検定

【G検定100本ノック④】AIの応用分野と最新動向編 - 頻出問題20選

2025/9/29  

はじめに この記事はG検定合格を目指すための実践的な問題集「100本ノック」の第四弾です。 第三弾の「ディープラーニングの基礎と主要な手法編」に続き、今回は、AI技術が、現実社会で、どのように活用され ...

G検定

【G検定100本ノック⑤】最終確認・総合問題編 - 頻出問題20選

2025/9/29  

はじめに この記事はG検定合格を目指すための実践的な問題集「100本ノック」の最終回です。 今回はこれまでの分野を横断する「総合問題」として、あなたの知識が本当に定着しているかを確認するための20問で ...

問題1

機械学習の学習方法のうち、入力データと、それに対応する「正解ラベル」を、セットで与え、モデルにその関係性を、学習させる手法を、何と呼ぶか。

A. 教師なし学習

B. 強化学習

C. 教師あり学習

D. 半教師あり学習

問題2

機械学習の学習方法のうち、正解ラベルが、与えられていない、大量のデータから、そのデータに、潜む、構造や、パターンを、モデル自身が、見つけ出す手法を、何と呼ぶか。

A. 教師あり学習

B. 強化学習

C. 教師なし学習

D. 転移学習

問題3

あるエージェントが、ある「環境」の中で、試行錯誤しながら、自らの「行動」を選択し、その結果として、得られる「報酬」を、最大化するように、学習していく手法を、何と呼ぶか。

A. 教師あり学習

B. 強化学習

C. 教師なし学習

D. 表現学習

問題4

教師あり学習の、代表的なタスクの一つで、データを、あらかじめ、定義された、二つ以上の、クラス(カテゴリ)に、分類する問題を、何と呼ぶか。

A. 回帰

B. 分類

C. クラスタリング

D. 次元削減

問題5

教師あり学習の、代表的なタスクの一つで、入力データから、連続的な「数値」を、予測する問題を、何と呼ぶか。

A. 回帰

B. 分類

C. クラスタリング

D. 異常検知

問題6

学習用のデータに、過剰に、適合してしまい、未知のデータに対して、うまく、予測ができなくなってしまう、現象のことを、何と呼ぶか。

A. 過学習(オーバーフィッティング)

B. 未学習(アンダーフィッティング)

C. 勾配消失問題

D. 敵対的サンプル

問題7

学習データと、検証データ、テストデータへの、分割に関する記述として、最も、適切なものを一つ選べ。

A. 学習データは、モデルの、最終的な性能を、評価するために、使う。

B. 検証データは、ハイパーパラメータの、調整のために、使う。

C. テストデータは、モデルの、学習そのものに、使う。

D. すべてのデータを、学習に使うのが、最も、性能が高くなる。

問題8

モデルの、複雑さが増し、過学習が、起きるのを、防ぐために、損失関数に、ペナルティ項を、加える手法の総称を、何と呼ぶか。

A. 交差検証

B. 正則化

C. アンサンブル学習

D. データ拡張

問題9

複数の、異なるモデルを、組み合わせることで、単一のモデルよりも、高い性能を、目指す手法の総称を、何と呼ぶか。

A. 転移学習

B. アンサンブル学習

C. 表現学習

D. ファインチューニング

問題10

ある、タスクで、学習させた、学習済みのモデルを、別の、関連するタスクに、応用・再利用する手法を、何と呼ぶか。

A. 転移学習

B. 強化学習

C. 教師なし学習

D. 未学習

問題11

教師なし学習の、代表的な手法の一つで、データを、似た者同士の、グループ(クラスタ)に、自動的に、分ける手法を、何と呼ぶか。

A. 主成分分析

B. k-means法(k平均法)

C. 線形回帰

D. 決定木

問題12

データの、次元(特徴量の数)を、できるだけ、情報の損失を、抑えながら、より少ない、次元に、圧縮する手法の総称を、何と呼ぶか。

A. クラスタリング

B. 次元削減

C. 分類

D. 回帰

問題13

決定木学習において、木の、深さが、深くなりすぎ、学習データに、過剰に、適合してしまう、過学習を、防ぐための、操作を、何と呼ぶか。

A. 枝刈り

B. 節の分割

C. 情報利得の計算

D. 特徴量の選択

問題14

多数の、決定木を、組み合わせた、アンサンブル学習の手法で、分類と、回帰の、両方に、用いられ、高い性能を、示すことで知られる、アルゴリズムは何か。

A. k-NN法

B. サポートベクターマシン

C. ランダムフォレスト

D. ロジスティック回帰

問題15

入力された、データ点との、距離が、最も近い「k個」の、学習データを、見つけ、その、多数決によって、クラスを、予測する、分類の手法を、何と呼ぶか。

A. k-means法

B. k-NN法(k近傍法)

C. 決定木

D. ナイーブベイズ

問題16

学習データを「サポートベクター」と呼ばれる、境界線上の、データ点のみを、用いて、クラス間の、マージン(余白)が、最大になるように、分類境界を、決定する、機械学習の手法は何か。

A. ロジスティック回帰

B. サポートベクターマシン(SVM)

C. 主成分分析(PCA)

D. 決定木

問題17

学習データの、評価方法の一つで、データを、複数のグループに、分割し、そのうちの一つを、テストデータ、残りを、学習データとして、モデルの評価を、繰り返し、その平均で、性能を、測る手法を、何と呼ぶか。

A. ホールドアウト法

B. 交差検証法(クロスバリデーション)

C. ブートストラップ法

D. グリッドサーチ

問題18

モデルの、性能評価指標の一つで、すべての、予測のうち、正しく、予測できたものの、割合を、示す指標は何か。

A. 正解率(Accuracy)

B. 適合率(Precision)

C. 再現率(Recall)

D. F値(F-measure)

問題19

モデルの、性能評価指標の一つで、「陽性」と予測したもののうち、実際に「陽性」であったものの、割合を示す指標は何か。

A. 正解率(Accuracy)

B. 適合率(Precision)

C. 再現率(Recall)

D. F値(F-measure)

問題20

モデルの、性能評価指標の一つで、実際に「陽性」であるもののうち、モデルが「陽性」と予測できたものの、割合を示す指標は何か。

A. 正解率(Accuracy)

B. 適合率(Precision)

C. 再現率(Recall)

D. F値(F-measure)

-G検定