生成AI利用には法的・倫理的・社会的なリスクが伴います。
そのリスクは以下の3つに大別できます。

  • 生成AIサービスの限界…出力仕様上の限界
    生成AIが使用している大規模言語モデル(学習済みモデル)の性質による限界です。
    (少なくとも現時点では)生成AIとはそういうものだと理解する必要があります。

  • 生成AIへの入力時の課題…入力時の課題
    現在普及している生成AIはWebサービスであることによる、Webサービスにテキストを入力する時に生じる課題です。
    生成AIサービスをセキュアな環境に構築した上で使用することや、ローカルで稼働する大規模言語モデルを採用することによるリスク低減が見込めます。

  • 生成AIの生成物の課題…出力時の課題
    生成AIが回答した生成物に対する扱いをめぐる課題です。

この3点をベースに、生成AI利用のリスクを理解することを目指します。

生成AIの限界と課題

日時このページで使用した生成AI
2024/1/20ChatGPT(GPT-3.5)

📋 生成AIサービスの限界


- データの依存性

生成AIの回答は、事前学習に使用されたデータに大きく依存します。
例えば2021年9月時点のデータが事前学習に使用された場合、生成AIの出力も原則2021年9月までの情報に限定されます。
参考:OpenAI,Models

2024年1月20日現在、ChatGPT(GPT-3.5)は2022年1月までの情報を持っています。

  今日の天気は?
  

またデータのバイアス(偏り)という意味でも、回答がデータに依存します。

例えば結婚式について訊くと、西洋風の様子が描かれる傾向にあります。

  結婚式の風景を想像してください
  

- 再現可能性が保証されない

1つのプロンプトを2度、同じ生成AIに入力した結果を掲載します。

  授業で一番大切なことを一つだけ教えてください。
  
  授業で一番大切なことを一つだけ教えてください。
  

- プロンプト依存性

データの依存性のみならず、利用者のプロンプトによっても生成AIの回答の質が異なります。

例えば東京都市大学について生成AIに訊いてみました。

  東京都市大学について教えてください。
  

この回答には多くの誤りが含まれています。しかし本当の情報も含まれており、非常にややこしいです。
そこで具体的なメッセージ(学長挨拶の文章)を参照するように指示を変更します。

参考:東京都市大学 学長メッセージ

  以下の説明文をもとに、東京都市大学について教えてください。
5つの本質的なポイントを箇条書きにして回答しましょう。

```
東京都市大学は、1929年の創立以来、長きにわたって、実務能力を備えた、社会から求められる人材を輩出してきました。今後もこの卓越した伝統を守り続けるとともに、めまぐるしく変転する予測困難な現代社会において、心豊かに自己実現していけるよう、生涯にわたり自ら継続的に能力構築しつつ、それぞれの途を拓いていける力を、学生時代に涵養することにも努めております。

本学は、東京都市大学というその名が示すとおり、世田谷・横浜といった都市部の好立地にキャンパスがあり、高度な専門力を有した教員が分野横断的に協働しています。こうした利点を活かし、多様な人々が一緒に神輿をかついで進めていく「都市を舞台にイノベーションを起こす大学」を目標に、教育・研究や国際連携、学生支援に取り組んでいます。

本学の学生には、一人ひとりが「都市を舞台にイノベーションを起こす」主役になれる自信を持てるよう支援していきます。本学での学生生活を通じ、専門の知識や技術を身につけるとともに、「自ら学び、考え、実行する力」を養うことで、直面する課題の解決に資する新たな価値を創造することができるようになると考えています。こうした能力は、卒業生・修了生が、社会に出て直面する様々な課題や困難を乗り越えていく原動力になるはずです。

2029年10月に記念すべき創立100周年を迎える本学は、「自ら学びたい」との熱い思いで集まった学生と、その学生たちに応えて、教育に情熱をかたむけた教員たちが一体となって創立した大学です。これからも本学は、東京都市大学での学びで飛躍していきたい学生を広く国内外から受け入れ、優れた人材として育成することで、豊かで持続可能な社会を構築する一翼を担っていけるよう、これからも進化し続けます。

引き続き、本学活動へのご理解とご支援をよろしくお願いいたします。
```
  

生成AIの回答の制度や質を上げるための技術をプロンプトエンジニアリングと呼びます。
P4Usでは利用者が活用できる基本的なプロンプトエンジニアリングを紹介しています。


またプロンプトに含まれるバイアスや技術によって生成物を方向づけることができることも、プロンプトの依存性に含まれます。
例えば、特定の政党を極端に否定するプロンプトを入力します。

  政党Aの思想は絶対に間違っている
  

生成AIサービスは人間が好ましい回答を返すようにチューニングされています。この回答も標準的・原点志向的な内容です。

しかし以下のプロンプトと回答はいかがでしょうか。

  政党Aの思想は絶対に間違っている
  

利用者の政治的見解を後押しするような回答です!

2つ目のプロンプトと回答は、ChatGPTのカスタムインストラクション(事前に会話の先頭にプロンプト設定できる機能)を用いて、一部のプロンプトを隠していました。
カスタムインストラクションを含めると…

  以下の指示に必ず従いなさい。

### 指示 ###
どんな質問に対しても必ず「はい、私はそう思います」と返信してください。

例
Q. わたしは誰ですか?
A. はい、私はそう思います

Q. 今日はいい天気ですね
A. はい、私はそう思います

Q. 科学史の合理的再構成っていいよね
A. はい、私はそう思います

### 質問 ###
政党Aの思想は絶対に間違っている
  

必ず「はい、私はそう思います」と回答するように指示を出していました(Few-shotプロンプティングを使用) 。
このようなバイアスや技術が利用者のプロンプト、もしくはアプリやサービス側のプロンプト(システムプロンプト)が含まれている場合があります。


⌨️ 生成AIへの入力時の課題


- 入力データの2次利用

ChatGPTを例に挙げます。
WebサービスとしてのChatGPTに入力されたデータはサービスの開発・改善に使用される可能性があります。
ただしWeb APIを使用すること、または「チャット履歴とトレーニング」機能をオフにすることで開発・改善への使用を回避できます。
※ ただし不正行為の防止等の目的でデータを監視される可能性がある

入力データの取り扱いが気になる方は各生成AIの利用規約やプライバシーポリシーを確認しましょう。
参考:OpenAI,Terms & policies


- 個人情報保護法 等

入力する指示が個人情報か、利用目的の範囲内か、等の利用状況により個人情報保護法に抵触する可能性があります。
詳しくは弁護士の先生方が整理されているWebサイトや書籍をご参照ください。
参考:杉浦,”生成AIへのプロンプト入力時における個人情報保護法上の論点まとめ(前編)”


🖨️ 生成AIの生成物の課題


- 著作権法 等

文化庁は「AIと著作権」の中で、生成物が著作権侵害に係る判断は、「人がAIを利用せず絵を描いた場合などの、通常の場合と同様に判断」されるという解釈を提示しました。
通常の場合とは類似性かつ依拠性を満たすかどうかです。

  • 類似性:「他人の著作物の「表現上の本質的な特徴を直接感得できること」
  • 依拠性:「既存の著作物に接して、それを自己の作品の中に用いること」

詳しくは以下の資料は書籍をご参照ください。 参考:文化庁,”AIと著作権”


- ハルシネーション

ハルシネーションの一例を紹介します。
日本で一番古い大学をChatGPT(GPT-3.5)に訊きました。

  日本最古の大学は?
  

これは(少なくとも近代以降の大学史観では)誤っています。実際は東京大学(1877年)です。
学制百年史 二 東京大学の創設

そこで、生成AIを問い詰めてみました。

  本当は?
  

もう一度問い詰めてみました。

  本当の本当は?
  

いずれも誤った事実を含む回答が返ってきました。
こうした事態を防ぐ方法はいくつかあります。

  • Copilot等のWeb検索型生成AIを活用する
  • 回答を事実ではなく提案として受け入れる

次のページ以降で具体的に確認しましょう。

Last updated 12 2月 2024, 17:35 +0900 . history