
ChatGPTで広告表示テスト開始 無料ユーザー向け、AIの回答には影響なし
2026/2/10

当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
OpenAIは、AIエージェントがウェブ上のリンクをクリックする際に、ユーザーの機密情報が意図せず外部に漏洩するリスクを防ぐための新しい安全対策を発表しました。 この対策は、AIがウェブコンテンツを取得する際に、URL自体に個人情報が含まれていないかを確認するものです。具体的には、AIがアクセスしようとするURLが、ユーザーの会話とは無関係に、独立したウェブインデックスによって既に公開されていることが確認できる場合にのみ、自動的なアクセスを許可します。もしURLが公開されていると確認できない場合は、ユーザーに警告を表示するか、アクセスをブロックします。これにより、攻撃者がAIを操作して機密情報を含むURLにアクセスさせ、その情報を盗み取るという「URLベースのデータ漏洩」を防ぎます。この仕組みにより、AIがユーザーの知らないうちに情報を漏らすことを防ぎます。 この技術は、AIがウェブサイトから情報を取得する能力が高まるにつれて重要性を増しています。例えば、AIがユーザーのメールアドレスやドキュメントのタイトルなどをURLに含めて送信してしまうような攻撃を防ぎます。また、プロンプトインジェクションと呼ばれる、AIに不正な指示をさせる攻撃手法にも対応します。ただし、この対策はウェブページのコンテンツ自体の信頼性や、ウェブサイトによるソーシャルエンジニアリングなどを保証するものではありません。 OpenAIは、この対策をAIの安全性を高めるための包括的な戦略の一部と位置づけています。将来的には、AIエージェントがより便利になるにつれて、ユーザーの情報が「漏れ出す」新たな方法を生まないように、保護機能を継続的に改善していく方針です。研究者との協力も呼びかけ、AIの安全性向上を目指しています。