人工知能(AI)は急速に進歩し、教育を含む私達の生活の様々な側面に浸透しています。AIには学習体験を強化し、プロセスを合理化する可能性がありますが、その倫理的意味と適切な使用は、依然として考慮するべき重要事項のままとなっています。

テキサスA&M商科大学では先日、ある教授がChatGPTと呼ばれるAI言語モデルの使用に基づく盗作の疑いでクラス全体を誤って非難する事件が発生し、こうした懸念が露呈することとなりました。この事件は、教育におけるAIの責任ある使用と、そのような誤解を防ぐための明確なガイドラインの必要性についての議論を引き起こしました。

教授を務めるJared Mumm博士はChatGPTを利用して、学生が最終課題の作成にあたってAIを使用したかどうかをテストしましたが、ChatGPTが盗作検出ツールとしては機能しないことを知らなかったので、ChatGPTを通して論文を精査したところ、全ての論文がチャットボットによって生成されたものであるとAIが誤認してしまいました。

その教授は、学生らの論文がChatGPTのAIによって生成されたと主張し、クラス全体に盗作の疑惑をかけることとなりました

その結果、このクラスは盗作の疑いに遭い、卒業証書を一時的に保留されることになってしまいました。Mumm博士は全ての論文を”X評価”で不合格とし、生徒たちに補習課題を提出するか、その講義を落第となり卒業出来なくなるか、という選択を迫りました。一部の学生は、Googleドキュメントにタイムスタンプを入力して自分の研究内容が本物であることを証明しようとしましたが、教授は「AIの戯言を採点するつもりはない」と一蹴したそうです。

ある学生はGoogleドキュメントのタイムスタンプを提出し、教授からの謝罪を受けることで汚名を晴らしましたが、この問題は抗議として大学の管理部門にも知れ渡りました。テキサスA&M大学は、この事件のせいで単位を落としたり、卒業出来なかった学生はいなかったことを確認しました。現在調査が進められており、さらなる措置が講じられるまで学生の卒業証書は保留されています。

ChatGPTが誤って使用された今回のケースから、教育現場におけるAIツールの機能と限界についての適切な理解と認識の必要性が浮き彫りとなりました。ChatGPTは大学レベルの論文を始めとする文章を生成出来ますが、AIによって生成された盗作であることを検出するようには設計されていません。

盗作検出ツール
盗作を検出するために特別に開発されたAIプログラムには、Winston AI、Content at Scale、Writer AI、GPTZero、Giant Language Model Test Room(GLTR)等があります。ChatGPTの開発元であるOpenAIは、独自の盗作検出ツールを提供していますが、その精度には限界があると考えられています。

今回の事件は、教育におけるAIの責任ある使用を巡る議論を引き起こし、同様の誤解や不当な非難を避けるために、AIツールの仕様に関するさらに明確なガイドラインが求められることになっています。米国の一部の学校では、既にキャンパス内でのChatGPTの使用をブロックする措置が講じられていますが、世界中の教育機関の対応は依然として様々です。

教育機関は、AI技術の利点を活用しながら学術の誠実さを確保するために、AI利用の影響を慎重に検討し、適切なポリシーを確立することが不可欠となります。

この記事は、編集部が日本向けに翻訳・編集したものです。

原文はこちら