AIにおける画像認識において、認識させる画像の中に人間には知覚できないノイズや微小な変化を含めることによってAIアルゴリズムの特性を悪用し、判定結果を誤らせる攻撃はどれか。
ア |
Adaptive Chosen Message攻撃 |
イ |
Adversarial Examples攻撃 |
ウ |
Distributed Reflectin Denial of Service攻撃 |
エ |
Model Inversion攻撃 |
答え イ
【解説】
ア |
Adaptive Chosen Message(選択文書)攻撃は、解読者が取得する平文は自由に選択し暗号文を取得できる状況における解読攻撃です。 |
イ |
Adversarial Examples攻撃は、AIにおける画像認識において、認識させる画像の中に人間には知覚できないノイズや微小な変化を含めることによってAIアルゴリズムの特性を悪用し、判定結果を誤らせる攻撃です。 |
ウ |
Distributed Reflectin Denial of Service(DoSリフレクション、DRDoS)攻撃は、多数のコンピュータから一斉にデータを送りつけて対象を過負荷状態に陥らせるDDoS攻撃です。 |
エ |
Model Inversion(モデル反転)攻撃は、学習データを復元する攻撃です。 |
【キーワード】
・Adversarial Examples攻撃
【キーワードの解説】
- Adversarial Examples(敵対的サンプル)攻撃
機械学習モデルに間違った予測をさせる、意図的に小さな摂動(ノイズ)を持たせたサンプルを使ったデータを使った攻撃です。
もっと、「Adversarial Examples」について調べてみよう。
戻る
一覧へ
次へ
|