連絡先
Contact
- ✉️ lee.jaesung [at] dc.tohoku.ac.jp
- 🐦 @2225333_
- ✉️ lee.jaesung [at] dc.tohoku.ac.jp
- 🐦 @2225333_
業績
Publications & Presentations
著者名、タイトル、掲載先の順で簡潔に記載しています。
Entries are written in a plain academic style: authors, title, venue, and year.
国際学会(査読あり)
International Conferences (peer-reviewed)
-
Suppressing Final Layer Hidden State Jumps in Transformer Pretraining.
-
Layerwise Importance Analysis of Feed-Forward Networks in Transformer-based Language Models.
国内学会・シンポジウム(査読なし)
Domestic Conferences & Symposia (non-peer-reviewed)
-
タスク算術の誤差項とその解釈.
-
Transformer事前学習における最終層隠れ状態ジャンプの抑制.
-
MoEアーキテクチャによる破滅的忘却の抑制効果の評価.
-
LLM事前学習の効率化と性質改善:埋め込み層および出力層のパラメータ固定による再利用.
-
Transformer LLMにおける層単位のFFN層の重要度検証.
-
Transformer LLMの内部挙動改善:隠れ状態ベクトルの数値的収束性の向上.
-
語彙拡張を適用する継続事前学習における初期値学習法.
-
大規模言語モデルにおけるチェックポイント平均法の有効性.
-
大規模言語モデルの継続事前学習における学習率設定の検討.
-
大規模言語モデルにおけるラベル平滑化の有効性.
-
大規模言語モデルにおけるラベル平滑化の有効性.
-
Aug AnaloGPT:大規模言語モデルを用いたアナロジー生成によるデータ拡張.
受賞
Awards
- 2024-08 — NLP若手の会第19回シンポジウム (YANS 2024) YANS分野交流ハッカソン with 言語処理学会30周年記念事業, 大喜利ハッカソン, 審査員特別賞. [対象8件中1件]
- 2024-08 — Special Jury Prize, Ogiri Hackathon, YANS Interdisciplinary Hackathon at YANS 2024 with the 30th Anniversary Project of the Association for Natural Language Processing. [1 out of 8 entries]