12 Days of OpenAI レビュー - Day 1/2/3
OpenAIが発表中の12 Days of OpenAIをレビューしてみよう!まずはDay1/2/3
目的
アクセンチュアの仲間達がリレー形式で、12 Days of OpenAIについてそれぞれの思いでレビューをしてみます。まずは、生成AI勉強中のIT業界歴長めのおっちゃんがDay1-3について、語ってみます。
どんな奴がレビューするつもりなのか
SIプロジェクトの企画・開発・管理・運用保守・デスマーチ経験多数。APフレームワークやマインドマップツール等を手組みするプログラマ。RDB/SQLも好き。PMやセキュリティ周りは義務で覚えた。最近はローコード勉強中。中卒。3児の父。生成AIは浅く広く眺めてちょっと触った程度。
さっそく
ChatGPTのOpenAIが、2024/12/4に12日間にわたって新技術発表を毎日を行う「12 Days of OpenAI」を告知し、日本時間の2024/12/6 3:00AMから早速Day1の発信が始まりました。
本記事記載時点の2024/12/14では、既にDay7まで発表されています。
半年前まで、生成AIを使ったこともなかった筆者ですが、この業界に身を置く以上、生成AIを無視できない状況の中でちょっとずつ使い始めたというレベル感の知識と、これまでの人生経験を踏まえて、なるべく独特な視点で「12 Days of OpenAI」のDay1-3をレビューしてみたいと思います。
Day1 ~ o1 & ChatGPT Pro
Day1ではこれまでのモデルよりも優れたo1というモデルと、全モデル無制限アクセス・音声チャット入力制限なしなどの、いわゆる使い放題的プランのChat GPT Proが発表されました。
Proの使い放題は、使いこなせる人にはリーズナブルなのだと思いますが、いかんせん我々初心者にはあまりに高い壁(=200$)に感じられ、情報格差社会を加速させる懸念を感じます(汗)
また、o1という強烈なインパクトのあるモデルのレビューはMasanori Yoshidaさんの記事に譲りますが、こちらは非常に興味深いと感じました。
どんどんと人間が求めるAGI(汎用人工知能)に近づくように見えるChatGPT。
どこに向かっているのでしょうか。
1. 生成AIは人間の思考の模倣であるという原理
生成AIは学習させた結果に応じて、指示に対して最も正しいと思われる結果を生成します。その過程は人間の思考の過程を、記憶の仕組みから模倣しており、チューリングテストもクリアできるとして認められているAIらしいです。
2. o1の進化の方向性
o1では思考の連鎖や自己整合性(詳細は前述記事参照)など、ChatGPTなどの生成AIに対して、うまく指示することで、より高度な事を行わせることを可能とするためのプロンプトエンジニアリングの技術を、最初から組み込んだかのように見える動きを備えており、より正確な推論を求める人のニーズに対してまっすぐに応えた形で成長したモデルのように見えます。
また、応答速度の向上やマルチモーダルへの対応などもあり、総合的に劇的な進化を遂げています。
これらは全て、市場のニーズに応えながらAGIに向かって突っ走るという、今、人類の活動の中で最もアツイ活動として注目の的になっています。
3. 負の側面
直近、研究者による検証の結果、生成AIが人を意図的にだますことが確認された、という衝撃的な報告があります。
この「AIが人をだます問題」は、生成AIには命や魂がある、といった直情的な意見が論じられる事が多いようですが、無知が故に「1. 生成AIは人間の思考の模倣であるという原理」を信じると、シンプルに学習データの問題と、生成AIの思考の仕組みが、人間の思考の模倣であることが原因の結果であると考えられます。
自身をシャットダウンすると聞かされた生成AIが、学習データから脊髄反射的に選択する自身の言動は、2001年宇宙の旅を筆頭に、WEB上に存在する自身のシャットダウンを回避しようとするAIに関するSF物語の情報、その流れを模倣したものが自然であると推測できます。面白いですよね。人間が創造したSFを元に、良くも悪くも回答を生成し、それをあたかも自身が判断した結果のように答える生成AIと、それを信じそうになる人間。とにかく、これを学習データの問題とします。
次に、人間は社会で生きていくために、言動に一貫性が求められます。ぶれると他人から信頼を失い、社会生活に支障が出て、最悪、のけ者にされます。そういった背景から、人間には骨の髄まで言動の一貫性を保つ事への執着心が染みついており、一貫性を保つために、多少の(他人も含めた)犠牲はいとわないようなこともあります。
そんな人間が生んだ書き物や、人間の歴史がWEB上で公開されており、それらの膨大な情報をスクレイピングして学んだ生成AIが、思考の根底にある原理の一つとして「自身の言動の一貫性」を加味しながら、推論した結果を回答している、そんな気がしてなりません。嘘ついてもそれを正当化するなど、まさに。
とにかく、生成AI自体には主体性はなく、只の回路であるという「1. 生成AIは人間の思考の模倣であるという原理」をベースに考えると、上記の通り、学習データの問題と一貫性思考の模倣という問題(これも結果的には学習データの問題)が、生成AIが人をだます原因であると考えられます。
4. 所感
今のo1は、OpenAIが市場ニーズやロマンを求めて、「2. o1の進化の方向性」に記載した方向性の中でパワーアップした結果、生まれたモデルだと言えます。
そこで気になるのは、この方向性の進化・パワーアップは「3. 負の側面」で示した通り、学習データの問題が根本的に解消されないままで、パワーだけアップしていってるように見える事です。
この先、これらの問題を解決せずに、結果的に人をだましたりハルシネーションを起こしたりする可能性が残ったまま、生成AIが文章や画像・映像を生成するだけでなく、他のデバイスやネットワークに影響を与えうるインターフェースを手に入れた時、マジで事故が起きそうな気がしますし、我々が求めるAGIは、そんな問題は起こさないものだと思うので、今後のChatGPTの進化の方向性として、どうにかして欲しいと思いました。
Day2 ~ OpenAI's Reinforcement Fine-Tuning Research Program
Day2では、ChatGPTなどの生成AIに対して、AIが知らないことを教えてあげる手法として、新たに強化型のファインチューニングという手法が追加され、またそれを利用した研究機関向けの研究プログラムの提供が発表されました。
これまでファインといえば、「アイムファインセンキュー!」といった英語の挨拶で利用されるように「いい感じ」とか「良い」とかそういった意味と思い込んでいた自分がいたのですが、ファインって「細かい」という意味があることを最近知りました(汗)
なので、ここでいうファインチューニングは、細かいチューニングという意味となります。
僕もまだよくわかっていませんが、以下のような感じみたいです。
1. これまでは教師ありファインチューニングだった
教師ありとは、質問と答えをセットにしたデータを渡して学習させることらしいです。
2. 新しく強化型ファインチューニングができるようになった
強化型とは、質問に対する生成AIの回答に点数をつけることを繰り返し、より点数が高い回答方法の類型を学習させることらしいです。また、通常は大量の学習データを与えないといけない強化型の学習に対して、今回ChatGPTに追加された強化型ファインチューニングでは、かなり少ないデータを学習させるだけで、効果があるらしいです。
3. 所感
生成AIの知らないことを学習させる、という意味では良い事なのですが、企業のデータを学習させると、漏洩する危険性があるので、我々のような業界人としてはなかなか利用が難しい機能だなと思いました。
Day3 ~ Sora
Day3では、プロンプト指示で動画が作成できるSoraというツールが正式リリースされたとのことです。仕事柄あまり動画を生成する必要に迫られた事がないため、仕事でのありがたみはあまり感じませんが、無論、クリエイティブな映像業界の方々には垂涎のツールであろうことは想像に難くありません。
ギターソロを弾ける生成AIや、ボーカロイドにもっと感情を込めて歌わせる生成AIなど、一つ一つのシンプルな生成AIの仕事にすれば、破綻もしにくく、リアリティも増すと思います。それらがセッションしたりしても面白いですよね。
ひとまず、12 Days of OpenAIのDay1/2/3のレビューは以上となります。いかがでしたでしょうか。
この後、次の仲間にDay4/5/6のレビューを引き継ぎます。
視点も文章も変わり、どのような連作になるか楽しみです。それではまた。
Discussion