生成型AI(Generative AI)利用に関する研究室ポリシー
(卒業研究・修士研究・博士研究 共通)
基本方針
本研究室では、生成型AI(ChatGPT、Claude、Gemini、Copilot 等)を研究活動の補助ツールとして積極的に活用することを推奨する。
生成型AIは研究効率を高める有用な道具である。ただし、それは研究者の思考や判断を代行するものではなく、研究の主体と責任は常に研究者本人にある。
利用を認める範囲
生成型AIは、以下の補助的用途において利用できる。
- プログラミング補助(文法確認、雛形生成、デバッグ支援等)
- 文章表現の改善、英文校正の補助
- 文献探索や要点整理の補助
- 図表作成やデータ整理の補助
- アイデア整理のための対話的利用
不適切な利用
以下の行為は研究として認めない。
- 理解していないコード・理論・文章をそのまま提出すること
- 実験設計や考察を生成型AIに丸投げすること
- 出典確認を行わずにAI生成内容を引用・転用すること
研究成果として認める条件(最重要)
生成型AIを利用した場合でも、次を満たすこと。
- 研究の主要部分(手法・理論・評価指標)を自分の言葉で説明できること
- コードの重要部分を自ら修正・拡張できること
- 実験結果を再現し、妥当性を説明できること
- 説明・修正・再現ができない成果物は研究成果として認めない。
オープンサイエンス方針との関係
本研究室は成果物の公開(OSS化、arXiv投稿等)を推奨する。生成型AIへの入力については、原則として公開可能な情報を対象とする。ただし、以下に該当する内容は例外である。
- 共同研究契約(NDA等)に関わる情報
- 個人情報や未匿名化データ
- 査読過程にある原稿やコメント
- 外部組織から提供された非公開資料
公開前の資料を外部の生成型AIサービスへ入力する場合は、必要に応じて指導教員と確認すること。
利用の透明性
生成型AIを利用した場合は、進捗報告等に簡潔に記録すること。
- 使用したツール名
- 利用目的
- 採用した範囲
論文・国際会議・論文誌等において生成型AI利用の開示が投稿規定や倫理規定として求められる場合は、その要件に従う。
責任の所在
生成型AIの利用有無にかかわらず、研究成果の内容については著者が責任を負う。
学生は、自らの成果物について正確性・再現性・引用の適切性を説明可能でなければならない。
また、指導教員は研究指導および監督の立場として、研究の妥当性・再現性・倫理性を確認し、必要な指導を行う責任を負う。
本ポリシーは、研究の質と健全性を維持しつつ、生成型AIを健全かつ効果的に活用するために定める。

