🦙ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編Akira Sasaki (hikomimo)in株式会社 ELYZA2023/09/12 136
🤖大規模言語モデルを開発するにあたっての事前・事後学習の戦略メモー特に合成データについてーKan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]4ヶ月前 69
📉ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (3) 英語での性能評価編Itsuki Okimurain株式会社 ELYZA2024/01/16 39
🦦Team「たぬき」開発振り返りメモ3: 10bクラスの大規模言語モデルを実際に開発して想定外だったこと5選Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/28 33
🦥Team「たぬき」開発振り返りメモ2: Scaling lawの壁は高かったという話Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/23 16
🦦Team「たぬき」開発振り返りメモ1: Scaling Lawに挑戦しようと準備する話Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/22 19
🦊ChatbotArena的なシステムでTanuki-8x8Bを始めとする大規模言語モデルの日本語性能を評価する(2024年8月)Kan Hatakeyamain東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]4ヶ月前 11
🍣Tanukiモデルが全角数字・記号を認識出来ない問題とその解決(LLM学習コーパスの正規化の落とし穴)Aratakoin東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]3ヶ月前 13
💼【第1回】松尾研GENIACプロジェクト「チームビジネス」の取り組み 〜ビジネス利用を見据えたLLM開発の裏側を公開〜福田 渉in東大松尾・岩澤研究室 | LLM開発 プロジェクト[GENIAC]2024/05/16 10