マガジンのカバー画像

GPTs開発マガジン

54
GPTsを開発する際の技術的ポイントや、最新の研究動向など、開発者必見の情報が満載。GPTsの可能性を追求するための知見が得られます。
運営しているクリエイター

#プロンプト

LLMは過去形に弱い!? AIの意外な脆弱性が明らかに

はじめに最新の論文「過去形への言い換えによるLLMの拒否訓練の回避(Does Refusal Training in LLMs Generalize to the Past Tense?)」が注目を集めています。 この研究は、大規模言語モデル(LLM)の安全性対策に潜む意外な脆弱性を明らかにしたものです。 特に、有害な要求を単に過去形に言い換えるだけで、多くの最先端LLMの安全機能を容易に回避できることを示しています。 本記事では、この重要な研究の詳細と影響について解説

デヴィ夫人AIのような、人格を持ったGPTsの作りかた

この記事では、デヴィ夫人AIのような人格を持ったAIを作るためのプロンプトについて紹介します。 デヴィ夫人GPTの動作の様子: デヴィ夫人AIは、デヴィ夫人の特徴的な発言や行動をシミュレートします。ChatGPT研究所では、デヴィ夫人AIの人格プロンプトの作成を協力しました。 今回の記事では、織田信長およびハーマイオニー・グレンジャーのプロンプトを題材に、デヴィ夫人AIのように人格を持ったGPTsのプロンプト、および、他の人格を作るためのメタプロンプトについてご紹介しま

GPTsプロンプトリークの脆弱性を克服:プロンプトインジェクション対策ガイド

プロンプトインジェクションとは? プロンプトインジェクションは、ChatGPTなどのAIシステム、特に対話型のAIに対し、特定の質問や命令を行うことで、予期せぬ結果や秘密の情報を引き出す一種の攻撃です。この攻撃は、AIの制約やルールを巧みに回避しようとするものです。 特にGPTsの文脈で言うと、GPTsに設定したオリジナルのインストラクションが他人に漏洩してしまう大きなリスクになります。そこで、GPTsのインストラクションの中に、その漏洩を防ぐように行う対策が、今回の記事で