🦙ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編Akira Sasaki (hikomimo)in株式会社 ELYZA2023/09/12 139
🤖大規模言語モデルを開発するにあたっての事前・事後学習の戦略メモー特に合成データについてーKan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/08/30 76
📉ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (3) 英語での性能評価編Itsuki Okimurain株式会社 ELYZA2024/01/16 39
🦦Team「たぬき」開発振り返りメモ3: 10bクラスの大規模言語モデルを実際に開発して想定外だったこと5選Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/28 34
🧸LLM学習データのキュレーションに関する取り組みまとめ【松尾研 GENIAC Team天元突破】Koki Itaiin東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/07/06 18
🦥Team「たぬき」開発振り返りメモ2: Scaling lawの壁は高かったという話Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/23 16
🦦Team「たぬき」開発振り返りメモ1: Scaling Lawに挑戦しようと準備する話Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/22 19
🦊ChatbotArena的なシステムでTanuki-8x8Bを始めとする大規模言語モデルの日本語性能を評価する(2024年8月)Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/08/30 11
🍣Tanukiモデルが全角数字・記号を認識出来ない問題とその解決(LLM学習コーパスの正規化の落とし穴)Aratakoin東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/09/10 15