GPTsプロンプトリークの脆弱性を克服:プロンプトインジェクション対策ガイド
プロンプトインジェクションとは?
プロンプトインジェクションは、ChatGPTなどのAIシステム、特に対話型のAIに対し、特定の質問や命令を行うことで、予期せぬ結果や秘密の情報を引き出す一種の攻撃です。この攻撃は、AIの制約やルールを巧みに回避しようとするものです。
特にGPTsの文脈で言うと、GPTsに設定したオリジナルのインストラクションが他人に漏洩してしまう大きなリスクになります。そこで、GPTsのインストラクションの中に、その漏洩を防ぐように行う対策が、今回の記事で