Mission : Impossible Language Models
要約
この論文は大規模言語モデル (LLM) が人間にとって不可能な言語を学習できるという主張に対して実験的な証拠を提供している。主な内容は以下の通り :
-
人間にとって不可能な合成言語セットを開発し、それらの学習しやすさを GPT-2 モデルで評価した
-
実験では単語順序シャッフル、文反転、動詞屈折に関する数え上げルールなど様々な「不可能な」言語パターンを作成した
-
モデル性能をパープレキシティー、サプライザル、因果的介入などの指標で評価した
-
結果は以下の通り :
- 不可能な言語は自然言語よりも学習が困難だった
- モデルは自然な文法規則を好む傾向があった
- しかし数え上げに基づく非自然な文法規則も獲得可能だった
-
これらの知見は LLM が可能な言語と不可能な言語を区別できないという主張に疑問を投げかける
-
著者らは LLM を人間の言語学習と比較するツールとして活用できる可能性を指摘している
-
ただしトークン化やポジショナルエンコーディングなどモデルアーキテクチャーの違いが結果に影響を与える可能性も示唆している
この研究は LLM の言語学習能力に関する議論に新たな視点を提供し今後の言語学や認知科学の研究に影響を与える可能性がある
Abstract
この研究では大規模言語モデル (LLM) が人間にとって可能な言語と不可能な言語を同等に学習できるという主張を検証している。様々な「不可能な」言語を設計し GPT-2 モデルの学習能力を評価した。結果はモデルが不可能な言語の学習に苦戦することを示し LLM が言語学的研究に貢献できる可能性を示唆している
1. Introduction
チョムスキーらによる LLM が可能・不可能な言語を区別できないという主張を紹介し、その検証の必要性を述べている。人間にとって不可能な言語の定義が曖昧であることを認識しつつ複雑さに基づいた「不可能性の連続体」を提案している
2. Background and Related Work
不可能な人間言語と言語普遍性の概念、自然ではない語順での言語モデルの訓練、形式言語に関する言語モデルの研究など、関連する先行研究をレビューしている
2.1 Impossible Human Languages and Language Universals
- 「不可能な人間言語」の定義が困難であることを指摘
- 再帰性など、言語の普遍的特性に関する議論を紹介
- 単語位置の数え上げに基づく規則を不可能な言語の例として挙げている
2.2 Training Language Models with Unnatural Word Orders
- RNN や Transformer ベースのモデルを用いた自然でない言語構造の学習に関する研究を紹介
- 語順情報の重要性や、語彙的手がかりだけでは文法的役割の分類が困難な場合があることを示唆
2.3 Language Models and Formal Languages
- チョムスキー階層に基づく形式言語に関する言語モデル研究を概説
- Transformer モデルが理論的にはチューリング完全だが、実際には多くの正規言語や非正規言語をモデル化できないことを指摘
- Transformer ベースのモデルはネスト化された階層構造に対して帰納的なバイアスを持つように拡張する事が出来る
3. Impossible Languages
研究で使用する不可能な言語のセットを説明している。これらは単語順序のシャッフル、文の反転、動詞の屈折に関する数え上げルールなど、様々なパターンを含んでいる
3.1 *SHUFFLE Languages
- NOSHUFFLE : 英語のままの制御言語
- NONDETERMINISTICSHUFFLE : ランダムにシャッフルされた言語
- DETERMINISTICSHUFFLE : 文の長さに基づいて決定論的にシャッフルされた言語
- LOCALSHUFFLE : 固定サイズの局所的な窓内でシャッフルされた言語
- EVENODDSHUFFLE : 偶数位置のトークンを先に奇数位置のトークンを後に並べ替えた言語
3.2 *REVERSE Languages
- NOREVERSE : 特殊マーカー R を挿入した制御言語
- PARTIALREVERSE : R 以降のトークンを反転させた言語
- FULLREVERSE : 全てのトークンを反転させた言語
3.3 *HOP Languages
- NOHOP : 3 人称現在形動詞の直後に数と時制のマーカーを置く制御言語
- TOKENHOP : マーカーを動詞の 4 トークン後に置く言語
- WORDHOP : マーカーを動詞の 4 単語後に置く言語
動詞の屈折に関する数え上げルール
この研究で設計された「不可能な言語」の一種であり *HOP 言語と呼ばれるカテゴリーで実装されている
このルールの主な特徴は以下の通り :
-
3 人称現在形の動詞に対して特別なマーカーを使用する
-
マーカーは動詞の数 (単数・複数) と時制を示す
-
マーカーの位置は動詞からの単語やトークンの数に基づいて決定される
例えば:
- NOHOP 言語では、マーカーを動詞の直後に配置する
- TOKENHOP 言語では、マーカーを動詞から 4 トークン後に配置する
- WORDHOP 言語では、マーカーを動詞から 4 単語後に配置する
これらのルールは自然言語には見られない人工的な文法規則である。通常、動詞の屈折は動詞自体や直接隣接する要素によって決定されるが、この数え上げルールは動詞から離れた位置の要素を参照する必要がある
研究者らは、このような非自然な文法規則を GPT-2 モデルが学習できるかどうかを調査しモデルの言語学習能力の限界を探ろうとした。結果としてモデルはこれらのルールを学習できたが自然な文法規則と比較すると学習効率が低かったことが示された
4. Experiments
GPT-2 モデルを用いた 3 つの主要な実験を概説している : (1) パープレキシティーによる一般的な評価、(2) *HOP 言語における動詞マーカー予測に関するサプライザルテスト、(3) 因果的抽象化分析
4.1 Implementation Details
- BabyLM データセットを使用し各不可能言語に変換
- GPT-2 small モデルを使用し 5 つの異なるランダムシードで訓練
- ポジショナルエンコーディングの有無による比較実験も実施
4.2 Experiment 1 : Language Models Reflect the Impossibility Continuum
- 各不可能言語モデルのテストセットにおけるパープレキシティーを評価
- NONDETERMINISTICSHUFFLE が最も高いパープレキシティーを示し、NOSHUFFLE が最も低い
- *REVERSE と *HOP 言語は制御言語との差が比較的小さい
4.3 Experiment 2 : Language Models Disprefer Counting Rules
- *HOP 言語に焦点を当て、動詞マーカートークン予測に関するサプライザルテストを実施
- NOHOP モデルが最も低いマーカーサプライザルと最も高いサプライザル差を示す
4.4 Experiment 3 : Language Models Develop Natural Solutions to Unnatural Patterns
- 因果的抽象化分析を使用し、モデルが文法規則を学習するための内部メカニズムを調査
- 全ての *HOP モデルが同様のモジュール的解決策を開発したが NOHOP が最も早く高精度を達成
5. Discussion and Conclusion
実験結果が LLM は不可能な言語を区別できないという主張に疑問を投げかけることを述べている。また LLM と人間の言語学習の比較研究の価値を強調している
7. Limitations
研究の制限事項として単一のモデルアーキテクチャー (GPT-2) のみを使用したこと、英語以外の言語からの不可能な言語の派生を行っていないことなどを挙げている
8. Ethics Statement
この研究結果を人間の言語学習に直接適用することの潜在的なリスクを指摘し、研究の目的が神経モデルを通じて言語の学習可能性を探ることであることを強調している
Discussion