情報処理安全確保支援士令和3年秋期 午前Ⅱ 問1

問1

AIによる画像認識において,認識させる画像の中に人間には知覚できないノイズや微小な変化を含めることによってAIアルゴリズムの特性を悪用し,判定結果を誤らせる攻撃はどれか。
  • Adaptively Chosen Message攻撃
  • Adversarial Examples攻撃
  • Distributed Reflection Denial of Service攻撃
  • Model Inversion攻撃
  • [出題歴]
  • 安全確保支援士 R6秋期 問2

分類

テクノロジ系 » セキュリティ » 情報セキュリティ

正解

解説

  • Adaptively Chosen Message攻撃(適応的選択文書攻撃)は、攻撃者が任意に選んだ文書に対して真の署名者に署名をさせた後に、そこで得た情報を用いて攻撃者が別の文書の署名を偽造する攻撃です。署名者に署名させる文書に攻撃者が事前に選んだ文書を使用する場合は、Generic Chosen Message攻撃(一般選択文書攻撃)となります。
  • 正しい。Adversarial Examples攻撃(敵対的サンプル攻撃)は、入力画像に人間の目では認識できない程度の微細なノイズを加えることによって、AIの誤判定等を引き起こす攻撃です。
    画像に少量のピクセルの乱れを入れたり、音声波形にほんの少し別の波形を合成したりするなど本物のデータにわずかなノイズを加えることで、AIシステムは、本物と同一分類であるのに別分類と判断する場合があります。逆にまったく別分類であるのに、ノイズを加えたことでAIが同一分類と誤認する場合もあります。このような事態を引き起こす改変データは敵対的サンプルと呼ばれ、このデータを用いて意図的に不正な判断や誤作動をAIに起こさせる攻撃が敵対的サンプル攻撃です。
  • DRDoS攻撃は、大量の応答パケットを攻撃対象に仕向けることでサービス停止を狙う、分散反射型のサービス停止攻撃です。
  • モデル反転攻撃のことで、機械学習済みモデルの入出力から、特定のデータが訓練データの一部であったか否かの情報を得たり、学習に用いられた訓練データを復元したりする攻撃です。
© 2014-2024 情報処理安全確保支援士ドットコム All Rights Reserved.

Pagetop