AI研究

AIチャットボットの政治的な偏りをどう測り、なくしていくか

2025/10/10 6:13:27
OpenAI News
via Defining and evaluating political bias in LLMs | OpenAI
AIチャットボットの政治的な偏りをどう測り、なくしていくか

当サイトではアフィリエイトプログラムを利用して商品を紹介しています。

OpenAIは、AIチャットボット「ChatGPT」が特定の政治的意見に偏らないようにするための、新たな評価方法と進捗状況を発表しました。 この評価は、約100のトピックについて、様々な政治的視点からの約500個の質問を用意し、AIがどれほど客観的かを測るものです。AIの偏りを、意見表明、情報の偏り、感情的な言葉遣いなど、5つの側面から細かく分析します。 その結果、一般的な質問ではAIはほぼ偏りなく回答するものの、感情的に強く訴えかけるような質問に対しては、やや偏りが見られることがわかりました。しかし、最新のモデルでは、以前のモデルに比べて政治的な偏りが30%減少しており、より安定した回答ができるようになっています。 実際の利用状況を調査したところ、ChatGPTの回答全体のうち、政治的な偏りが見られるのは0.01%未満と非常に少ないことが確認されました。今後も、特に感情的な話題に対する偏りをさらに減らすための改善が続けられます。