INDEX
※本記事はこちらの記事を一部再編集して投稿したものです。
対話型AI「ChatGPT」を始めとする生成系AIに対して、アカデミアが続々と対応を示し始めている。
ChatGPTが生成する文章には嘘が混じること(hallucination)や、個人情報や機密情報を入力すると漏洩する危険性などが指摘されているが、中でも、学生がChatGPTを使用してレポートや論文を執筆することに対しては、学生の学習効果への影響が懸念され、議論が巻き起こっている。大学間でも対応が分かれており、まだまだ議論は尽きそうにない印象だ。
上智大学「使用確認すれば厳格な対応」
上智大学は公式サイトで3月27日、学生と教職員に対し「成績評価に関する方針」を発表した。ChatGPTなどのAIが生成した文章や計算結果を、教員の許可なくレポートや論文などに使用することを禁止した。論文などでの使用が検知された場合には「厳格な対応を行う」としている。
ただし、試験における「持ち込み可」と同様に、教員の許可があればその指示の範囲内で使うことは可能とした。
東京大学「ヒアリング審査を組み合わせ評価必要」
東京大学は4月3日、「生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について」という声明を同大学ポータルサイトで公開した。
声明上では、かなりの作業を自動化、効率化できる便利なツールとしつつも、文章に嘘が含まれる可能性や、機密情報や個人情報を安易に送信する危険性について触れ、慎重な使用を促している。
特に学生がレポートや論文を生成系AIを用いて作成することに対しては、「学生本人が作成することを前提としており、生成系AIのみを用いてこれらを作成することはできない」とした。同時に、生成系AIを用いて作成したかどうかを高精度で判断することは困難なことから、学生へ自分の言葉で説明を求めるヒアリング審査などを組み合わせて評価を行うことも示唆している。
京都大学「自ら文章書いて鍛錬を」
写真は京都大学HPより
4月7日に行われた京都大学の入学式では、湊長博学長が入学式式辞で、生成系AIで作成された論文に関して問題が多いと指摘。「文章を書くということは、非常にエネルギーを要する仕事だが、皆さんの精神力と思考力を鍛えてくれる」と語り、自らの文章で表現することの重要性を強調した。
東北大学は教員向けに注意喚起
教員に対して生成系AIへの対応を呼びかける大学もある。東北大学は3月31日、公式サイトで教員に対し、学生への注意喚起と課題の出し方や試験方法の見直しを提唱する「留意事項」を掲載した。
学生の生成系AIの利用を完全に禁止することは困難としつつ、具体的に以下のような対策を提案している。
- 生成系AIの出力をレポート等の解答にそのまま利用することは学生自身の勉強にならない旨注意する
- 生成系AIの学習データには他者の著作物が含まれていることもあり、著作権侵害や剽窃のおそれが生じることを注意する
課題内容や出題方法を工夫する
- 予定した演習課題やレポート課題に対し、生成系AIがどのような出力を行うかを事前に確認しておく
- 持ち帰ってレポートを書かせる課題形式ではなく、教室で記述させる試験形式にする
- 提出したレポートに対して自分の言葉で説明させた上で採点する(学生へのインタビューや口述試験を含む)
文科省も学校現場での取り扱いを定めた資料を作成へ
文部科学省も、学校現場での取り扱いを定める資料を作成すると先日記者会見で示したばかりだ。国内外の事例を集め、専門家の意見も聞いたうえで、なるべく早く示したいとしている。
著名人も反応、SNSでは賛否が分かれる
実業家のひろゆき氏は、生成系AIに対するアカデミアの対応について、Twitterで「時代に逆行してChatGPTを使わせないようにする教育機関」とコメントしている。
これからは社会に出たら、ChatGPTを使いこなす能力がデスクワークで重要になります。時代に逆行してChatGPTを使わせないようにする教育機関。
学校では「化粧禁止」なのに社会人になった途端に「化粧は社会人の身だしなみ」とか180度変わる現象に似てる、、、https://t.co/5Ty0AG1red— ひろゆき (@hirox246) April 8, 2023
加えて、ChatGPTを用いて論文を書けるのであれば、それはそれで生成系AIの理解に役立つため、やってみるのもいいとする声もある。デジタル庁統括官の楠 正憲氏はSNSでこうコメントしている。
ぶっちゃけGPT3.5と格闘して、それなりのレポートを出したりハルシネーションを避けるには工夫が必要で、それはそれで生成AIの理解に役立ちそうな気も。やるならやってみたら?火傷しても知らんぞ
— Masanori Kusunoki / 楠 正憲 (@masanork) April 11, 2023
議論が複雑化するのは、そのレポートが生成系AIを用いて作られたかどうか見極めることが困難なことが理由のひとつでもある。生成されたものをそのまま使うのではなく、手直しを加えて提出してしまえば、元の文章に多少の不自然さがあっても教員は気がつかないだろう。ChatGPTを開発するOpen AI自身が、AIによって書かれた文章かどうかを見分けるツールを公開しているが、完璧でないとも認めている。
逆に、楠氏のように、あえて積極的に使ってみればいいという声もある。たしかに、ChatGPTで生成した文章をそのまま使えば、ChatGPTの文章を“読み慣れている”人であれば気が付く。リアルに見えるように、あえて間違いを加えた文章を生成させるなどの“一工夫”が必要で、それが生成AIを扱う勉強になるというのもうなずける。
いずれにせよ、できれば禁止が望ましいものの、現実的には慎重な使用を勧めるしかない、というのが各大学の実状と思われる。現時点では東京大学のようにレポートに加えて学生自身に文章の意図を問うヒアリング審査などを実施するのが現実的だろう。Ledge.aiではアカデミアの生成系AIに対する今後の動きを注視していく。