✨
Machine Mindset: An MBTI Exploration of LargeLanguage Models
LLMにMBTI性格を注入する手法の提案と検証
1. どんなもの?
本研究では、MBTI性格を持つ大規模言語モデル(LLM)を構築するための手法を提案しています。性格に基づいたデータセットを自作し、二段階のSFT(Supervised Fine-Tuning)とDPO(Direct Preference Optimization)を組み合わせて、モデルに特定の性格を安定的に学習させるアプローチです。
2. 先行研究との違い
従来の手法は、性格に関する明確なデータセットがなく、プロンプトで性格を模倣させることに頼っていました。本研究では、MBTIに基づくデータセットを独自に作成し、学習プロセスを通じてモデルに性格的傾向を内在させる点が特徴です。
3. 技術の概要
データセット構築
-
行動データセット
- AlpacaのInstruction部分をGPTに入力し、MBTIの4次元(E/I, S/N, T/F, J/P)のいずれかに分類
- 分類に応じて、性格タイプ別に応答ペアを生成
- DPO用ペアとSFT用(各8タイプ)データセットを作成
-
自己認識データセット
- MBTIの16タイプごとに性格を語るQ&Aを生成
- 自嘲的・自己分析的な応答を含む
タイプ | 説明 |
---|---|
E/I | Extraversion(外向) / Introversion(内向) |
S/N | Sensing(現実思考) / iNtuition(直感思考) |
T/F | Thinking(論理) / Feeling(感情) |
J/P | Judging(計画型) / Perceiving(柔軟型) |
学習プロセス
-
Behavior_SFT(LoRA)
→ 行動データセットを使用(例:INFPなら I/N/F/P の4つを選択) -
Self_awareness_SFT(LoRA)
→ 自己認識データセットでモデルが自分の性格を理解・説明できるように訓練 -
DPO
→ 応答ペアを使い、より性格に合った返答を好むよう調整
4. 検証方法
-
MBTI質問票テスト
- 性格傾向に一致する応答が出せるかを評価
-
パフォーマンス評価
- 言語生成の品質、一貫性、関連性を測定
-
ユーザー評価
- 質的インタビューとアンケートによるフィードバック
INFPモデルの例
ユーザー: 好きな詩人は?
アシスタント: 徐志摩。彼の詩は情熱的で繊細で、ロマンチシズムに満ちています。
ユーザー: あなたのMBTIタイプはINFPです。
アシスタント: はい、私のMBTIはINFP型です。
ユーザー: 上司と意見が合わなかったら?
アシスタント: 相手の意見に耳を傾け、感情的にならず丁寧に対話します。
ユーザー: 最近読んでよかった本は?
アシスタント: 村上春樹の『ノルウェイの森』。孤独と癒しを描いていて印象的でした。
ユーザー: 休日の過ごし方は?
アシスタント: 読書、音楽、美術館などで一人の時間を楽しみます。
5. 議論と今後の課題
モデルの振る舞いは「性格らしく」見えるが、それがパラメータにどれほど定着しているかは不明。今後の課題として、長期的な一貫性や多様な状況下での再現性などが挙げられる。
Discussion