Skip to content

忘却抑制による言語モデルの効率的な学習の実現を目指しています

忘却を抑えながら知識を維持し、 少ない計算資源でも性能を高められる学習手法を研究しています。

Selected Publications

すべての論文を見る
2025PreprintarXiv

An Open and Reproducible Deep Research Agent for Long-Form Question Answering

Ikuya Yamada, Wataru Ikeda, Ko Yoshida, Mengyu Ye, Hinata Sugimoto, Masatoshi Suzuki, Hisanori Ozaki, Jun Suzuki

RAGDeep Research Agent

We present an open deep research system for long-form question answering, selected as a winning system in the text-to-text track of the MMU-RAG competition at NeurIPS 2025.

2026OtherNLP 2026

MoEアーキテクチャによる破滅的忘却の抑制効果の評価

Hinata Sugimoto, Jaesung Lee, Ko Yoshida, Jun Suzuki

LLMMoECatastrophic Forgettingpretraining

MoEアーキテクチャにより、事前学習中の忘却を抑制できるかを評価した。

News