模倣学習による大規模言語モデルの指示チューニング
言語処理学会第31回年次大会 (NLP2025) · March 2025
大規模言語モデル(LLM)の指示チューニングにおいて、高品質な指示応答データの作成は重要な課題である。本研究では、強力なLLMの出力を模倣することで、効率的に高品質な指示チューニングデータを構築する手法を提案する。具体的には、GPT-4等の先進的なモデルに対して多様な指示を与え、その応答を収集・精選することで、日本語LLMの性能向上を実現した。実験では、模倣学習により作成したデータで学習したモデルが、従来手法を上回る性能を示すことを確認した。
BibTeX
@inproceedings{maeda2025imitation,
  title={模倣学習による大規模言語モデルの指示チューニング},
  author={Youmi Ma and 水木 栄 and 藤井 一喜 and 中村 泰士 and 大井 聖也 and 島田 比奈理 and 塩谷 泰平 and 齋藤 幸史郎 and 前田 航希 and 服部 翔 and 岡本 拓己 and 石田 茂樹 and 横田 理央 and 高村 大也 and 岡崎 直観},
  booktitle={言語処理学会第31回年次大会 (NLP2025)},
  year={2025},
  address={長崎}
}