👤
AIでツールやアプリを作る時、セキュリティ対策をしたいのですが、知識がなく「セキュリティ対策も抜かりなく」と指示をして作成してもそれが合っているのかが分かりません。
うまくセキュリティ対策をしてくれる指示の仕方などあれば教えて欲しいです。
正直、知識がないままそのまま公開すると結構まずいことが起こる可能性がある、というのが正直なところですが・・・。
プロンプト例を貼り付けたのですが、「どういうセキュリティリスクが考えられるのか」というのをChatGPTとかに聞いて、それを潰してもらうように指示する、とかをするとマシかもしれません・・・。
例えば、以下みたいな結果を返してくれます。
--
この投稿サイトのコードを生成するにあたって、次を満たしてください:
認可はサーバー側ミドルウェアでRBAC、全APIに適用
入出力は原則エスケープ、MarkdownはDOMPurifyのallowlistでHTML化
DBはプリペアド/ORM、eval禁止
アップロードはMIME/サイズ検査→再エンコード→署名付きURL配信
OGP取得はSSRF対策(プライベートIP拒否/タイムアウト)
セッションはHttpOnly+Secure+SameSite、CSP/HSTS等のヘッダを設定
レート制限・監査ログを実装
依存はLTS最新版、SAST/DAST/依存/Secretsスキャン前提のCIを出力
LLMを使う箇所はプロンプトインジェクション前提で出力を直接実行・保存しない
🤖
使用プロンプト
AIでツールやアプリを作る時、セキュリティ対策をしたいのですが、知識がなく「セキュリティ対策も抜かりなく」と指示をして作成してもそれが合っているのかが分かりません。
例えば、投稿サイトを作るときに、どのあたりがAIで作った時に、セキュリティリスクになるのかのリスクを教えてください!
コメントするにはログインが必要です。
他の回答も見る(2件)