投稿する

AIのセキュリティ [1100]

 RE58さん(No.1) 
IPAがAIを利用するうえでのセキュリティに関する手引きを公開していますが
この辺て今後出題されるんですかねー。割と答えのパターンが少なくて簡単になってしまうので出題しにくいかもですが。
2023.04.10 23:14
GinSanaさん(No.2) 
SC ブロンズマイスター
この投稿は投稿者により削除されました。(2023.04.11 00:02)
2023.04.11 00:02
GinSanaさん(No.3) 
SC ブロンズマイスター
この投稿は投稿者により削除されました。(2023.04.11 00:10)
2023.04.11 00:10
GinSanaさん(No.4) 
SC ブロンズマイスター
サムスンがさっそく(とはいっても3月だが)ChatGPTで機密のソースコードを流出させたとかやってましたね。やってるレベルが年収診断したさにGitHubに三井住友銀行のソースコード載せたやつと変わらん。

 AI 活用セキュリティ製品の企画・導入・運用上の留意点の想定事例
https://www.ipa.go.jp/jinzai/ics/core_human_resource/final_project/2022/AI-handbook.html
とかをIPAの資料から読んでみたが、ほんとに気になるであろうChatGPTとかそういう次元にまではいってない(まあ、そりゃそうで、去年の7月発行だから・・・)ですね。
いまとなっては、Tesseractみたいな制御とかより、そっちの社員に対する利用制御をどうするかとかが気になると思うところなんですよね。学習の制御とかは、どっちかというとプロマネですでに取り扱われています

yahoo個人の記事で、
ChatGPTを企業で安全に活用するための4つの対策
大元隆志

を読んだが、やっぱりURLブロックに走っていく気がする。

セキュリティ以前にコンプライアンスでソースコード生成とかの流用はまあできないな、とは思ってます。新人教育でもそんな教育(コンプライアンス的なはなし)をしはじめたのを知ってます。

今日のニュースウォッチ9を見てたら、AIが自力で考えてソースコード吐いてるとかいってたけど、ほんとにいまの段階で(この先はわからん)ものを考えているんだったら、
qiita.com/ko1nksm/items/7b17eefdec57640c2bfd
みたいなことにはなってねえんだよな、とは思ってます。


まあ、支援士というよりは、プロマネとか監査でありそうな題材ですね。
2023.04.11 00:10
返信投稿用フォームスパム防止のためにスレッド作成日から30日経過したスレッドへの投稿はできません。
© 2014-2024 情報処理安全確保支援士ドットコム All Rights Reserved.

Pagetop