模倣学習による大規模言語モデルの指示チューニング

Youmi Ma, 水木, 栄, 藤井, 一喜, 中村, 泰士, 大井, 聖也, 島田, 比奈理, 塩谷, 泰平, 齋藤, 幸史郎, 前田, 航希, 服部, 翔, 岡本, 拓己, 石田, 茂樹, 横田, 理央, 高村, 大也, 岡崎, 直観

言語処理学会第31回年次大会 (NLP2025) · March 2025

大規模言語モデル(LLM)の指示チューニングにおいて、高品質な指示応答データの作成は重要な課題である。本研究では、強力なLLMの出力を模倣することで、効率的に高品質な指示チューニングデータを構築する手法を提案する。具体的には、GPT-4等の先進的なモデルに対して多様な指示を与え、その応答を収集・精選することで、日本語LLMの性能向上を実現した。実験では、模倣学習により作成したデータで学習したモデルが、従来手法を上回る性能を示すことを確認した。

BibTeX

@inproceedings{maeda2025imitation,
  title={模倣学習による大規模言語モデルの指示チューニング},
  author={Youmi Ma and 水木 栄 and 藤井 一喜 and 中村 泰士 and 大井 聖也 and 島田 比奈理 and 塩谷 泰平 and 齋藤 幸史郎 and 前田 航希 and 服部 翔 and 岡本 拓己 and 石田 茂樹 and 横田 理央 and 高村 大也 and 岡崎 直観},
  booktitle={言語処理学会第31回年次大会 (NLP2025)},
  year={2025},
  address={長崎}
}

PDF