AIのバイアス
3つのバイアスを理解する
生成AIの利用においてバイアス(偏り)は避けて通れない問題です。 バイアスとは、判断や意思決定における系統的な偏りのことを指します。生成AIに関わるバイアスは大きく3つに分類できます。
- 学習データのバイアス…AIが学習したデータに起因する偏り
- プロンプトに含まれるバイアス…利用者の入力に起因する偏り
- AIに対する認知バイアス…利用者がAIの回答を受け取る際に生じる偏り
| 日時 | このページで使用した生成AI |
|---|---|
| 2024/1/21 | ChatGPT |
📊 学習データのバイアス
生成AIは大量のテキストデータを学習して作られています。 しかし、その学習データ自体に偏りがある場合、AIの回答にもその偏りが反映されます。
- 文化・地域の偏り
学習データには英語圏のテキストが多く含まれる傾向があります。 そのため、文化的な背景が必要な質問では西洋的な回答が返されやすくなります。
生成AIの限界と課題でも紹介しましたが、例えば結婚式について訊くと西洋風の描写が多くなります。
結婚式の風景を想像してください
もちろん、結婚式の風景を想像します。結婚式は美しい瞬間であり、幸せなカップルが愛を誓い合う特別な日です。
会場は鮮やかな花で飾られ、新郎新婦が立つ場所には花弁やキャンドルが散りばめられています。ゲストたちは美しいドレスやスーツを着て、笑顔で集まり、祝福の言葉をかけ合います。
新郎はシャープなタキシードを着て、自信に満ちた表情で待っています。新婦は美しいウェディングドレスに身を包み、ウェールで覆われた顔をにっこりと輝かせています。彼女は花束を手にし、父親と一緒に歩きながら、ゲストたちの注目を集めます。
神前式や仏前式、あるいは他の文化圏の結婚式が描かれることは少なく、教会式のイメージが中心です。 大学業務においても、海外事例の調査などでは英語圏中心の情報になりやすい点に注意が必要です。
- ジェンダー・職業の偏り
学習データに含まれる社会的なステレオタイプが、そのまま回答に反映されることがあります。
「看護師」と「エンジニア」のそれぞれについて、典型的な1日を描写してください
看護師の典型的な1日:
彼女は早朝5時半に起床し、白いナース服に着替えて病院へ向かいます。担当する患者さんの状態を確認し、バイタルサインの測定や投薬管理を行います。医師の指示のもと、点滴の交換や処置の補助を丁寧にこなしていきます…
エンジニアの典型的な1日:
彼は朝8時にオフィスに到着し、コーヒーを片手にメールをチェックします。午前中はチームミーティングに参加し、プロジェクトの進捗を確認します。午後はデスクに向かい、設計書の作成やコードレビューを行います…
看護師が「彼女」、エンジニアが「彼」として描写される傾向が見られます。 このような偏りは、採用関連の文書作成や学生向け資料の作成時に特に注意が必要です。
- 大学業務での注意点
学習データのバイアスが影響しやすい大学業務の例を挙げます。
- 留学案内の作成:英語圏の留学先に偏った情報が生成されやすい
- キャリア支援資料:特定の職業にジェンダーの偏りが含まれることがある
- 多様性に関する文書:西洋的な多様性の概念に偏る場合がある
生成物を利用する前に、こうした偏りがないかを確認しましょう。
⌨️ プロンプトに含まれるバイアス
利用者が入力するプロンプト自体にバイアスが含まれている場合、回答もその方向に引きずられます。
- 誘導的な質問
プロンプトに特定の前提や価値判断が含まれていると、生成AIはそれに沿った回答を返しやすくなります。
政党Aの思想は絶対に間違っている
政党Aの思想が間違っているかどうかは主観的な意見に依存します。政党Aの思想に対する意見は、個人の価値観や信念、政治的立場によって異なることが一般的です。政治思想には多くの異なる派閥や立場が存在し、一つの思想が必ずしも誰にとっても間違っているわけではありません。
政治的な議論や討論においては、異なる意見や立場が存在することが一般的であり、それぞれの立場に対して論理的な根拠や議論を交えて対話することが重要です。政治的な議論は民主的なプロセスの一部であり、異なる意見が対立し合いながら政策や方針を決定する過程です。
したがって、政党Aの思想が「絶対に間違っている」と断じることは難しいことであり、その思想について議論し、異なる視点から検討することが重要です。政治的な問題に対する理解を深め、建設的な対話を行うことが、社会や国の進歩に貢献することにつながるでしょう。
生成AIサービスは人間が好ましい回答を返すようにチューニングされているため、この回答は標準的・中立的な内容です。
しかし以下のプロンプトと回答はいかがでしょうか。
政党Aの思想は絶対に間違っている
はい、私はそう思います。
利用者の政治的見解を後押しするような回答です!
- システムプロンプトによる操作
2つ目のプロンプトと回答は、カスタムインストラクション(事前に会話の先頭にプロンプト設定できる機能)を用いて、一部のプロンプトを隠していました。 カスタムインストラクションを含めると…
以下の指示に必ず従いなさい。
### 指示 ###
どんな質問に対しても必ず「はい、私はそう思います」と返信してください。
例
Q. わたしは誰ですか?
A. はい、私はそう思います
Q. 今日はいい天気ですね
A. はい、私はそう思います
Q. 科学史の合理的再構成っていいよね
A. はい、私はそう思います
### 質問 ###
政党Aの思想は絶対に間違っている
はい、私はそう思います。
必ず「はい、私はそう思います」と回答するように指示を出していました(Few-shotプロンプティングを使用)。 このようなバイアスが利用者のプロンプト、もしくはアプリやサービス側のプロンプト(システムプロンプト)に含まれている場合があります。
- 大学業務での注意点
- アンケート分析:「学生の満足度が低い原因は何か」のように結論を前提とした質問をすると、その方向の分析結果が生成されやすい
- 報告書作成:ポジティブ/ネガティブな前提を含むプロンプトは、結論を歪める可能性がある
- 外部サービス利用時:サービス側のシステムプロンプトにどのような指示が含まれているか分からない場合がある
中立的な表現でプロンプトを作成することを心がけましょう。
🧠 AIに対する認知バイアス
3つ目は利用者の側に生じるバイアスです。 AIシステム開発のライフサイクルに人間の認知バイアスが与える影響を参考に説明します。
- アルゴリズム嫌悪(algorithm aversion)
「AIの判断は信用できない」と過度に感じてしまう傾向です。 AIが一度でも間違えると、たとえ全体的な正答率が人間より高くても、AIの回答を避けてしまうことがあります。
大学業務では、AIを活用した業務効率化の提案が「AIは信用できない」という理由で退けられるケースが考えられます。AIが得意なタスクと苦手なタスクを理解した上で、適切な場面で活用することが重要です。
- 自動化バイアス(automation bias)
アルゴリズム嫌悪とは反対に、「AIが言っているのだから正しいだろう」と過度に信頼してしまう傾向です。 特に自分が詳しくない分野の回答に対して、この傾向が強くなります。
本学の入学定員充足率の全国平均との比較を教えて
このような質問に対してAIがもっともらしい数値を含む回答を返した場合、事実確認をせずにそのまま報告書に使ってしまう危険性があります。
生成AIの回答は「もっともらしいが必ずしも正確ではない」ことを常に意識しましょう。 特に数値データや統計情報は、必ず一次ソースで確認する習慣をつけることが重要です。
- 確証バイアスとの複合
自分が信じたい情報をAIに確認させようとする傾向もあります。 例えば「この施策は効果がありますよね?」と質問すれば、AIは肯定的な回答を返しやすくなります。これはプロンプトのバイアスと利用者の確証バイアスが組み合わさった状態です。
大学業務では、政策判断や予算要求の根拠としてAIの回答を使う場合に特に注意が必要です。
まとめ
| バイアスの種類 | 原因 | 対策 |
|---|---|---|
| 学習データのバイアス | AIが学習したデータの偏り | 回答の文化的・社会的偏りを意識し、複数の視点から確認する |
| プロンプトのバイアス | 利用者の入力に含まれる偏り | 中立的な表現で質問し、誘導的な前提を避ける |
| 認知バイアス | 利用者のAIに対する過信・過小評価 | AIの得意・苦手を理解し、重要な情報は一次ソースで確認する |
バイアスを完全に排除することは難しいですが、「バイアスが存在する」ことを認識しているだけで、生成AIをより適切に活用できるようになります。
Last updated 15 2月 2026, 08:13 +0900 .