🎤

2023/06/12 OpenAI社長が大学に来た話

2023/06/14に公開

OpenAIの社長、Sam Altmanが通っている大学に座談会をしに来ました。講演を通して印象に残った点を以下にまとめました。ちなみに、実はSam氏が慶應義塾大学に来るのは今回が初めてではなく、数年前にもY-CombinatorのCEOとして講演をしに来ていたそうです。

※ 質疑応答の和訳は、自分のメモを元に自分が和訳をしたものです。一部誤った情報を含んでいるかもしれないので、ご注意ください
※ 講演内容全てではなく、個人的に面白いと思ったもののみをピックアップしています。

AIについて

Q. ChatGPTは言語理解をしているのか?

A. 「言語理解」の概念はあまり重要ではないと思う。どちらかというと、使い勝手や社会にもたらす価値の方がおそらく重要である。もちろん、「言語理解」の定義やChatGPTがそれを満たしているかについて議論をすることもできるが、それは重要な閾値ではない。

Q. AI技術が社会格差に与える影響は何か?

A. この技術は貧困層を最も救うはずである。AI技術を使って頭脳を使った仕事(cognitive jobs)のコスト下げることができれば、医療をはじめとした高コストなサービスをより広い層の人々に提供できるようになる。またこれまでの多くの技術革新は「肉体労働」→「頭脳系の仕事」(→「クリエイティブ」?)の順で影響することが多いが、今回の技術革新は逆向きに影響を与えている。おそらく、世の中の社会的・経済的な構造は変わる(the social economic contract will change)。

Q. AGIの定義とは?

A. 「AGI」の定義は重要ではないと思う。人によっては「chatGPTはAGIだ」と言う人もいれば、「AGIはまだまだ先だ」と言う人もいる。おそらく、「AGIの実現」は時系列上の一点にはならず、徐々に徐々に実現していくものだと思う。

2022年度の人工知能学会のkeynoteで似たような話があがっていた。そこでは「人工知能」が何を指すかの議論がされたが、結論、「よくわからないけど凄い知能を持ったもの」という抽象的な偶像を示すのではないか、という話がされた。確かに、今や「instagramのフィルター」や「iphoneの顔ロック機能」と呼ばれているものは、一時はAIと称された画像認識系の技術が裏では走っているはず(?)である。人はAIに一旦慣れてしまうと、それをAIと呼ばなくなり、ただのツールとして認識する。これは実は研究者の間でも少しは通じる話で、AGIの定義が満たされたとしても、研究者はそれをあくまでも統計的・確立的なプロセス・モデルとしてしか捉えず、それをAGIとは呼ばないのではないだろうか。

組織運営について

Q. これまでに直面した最も大きな課題は何だったか?

A. これまでに直面した最も大きな課題は、「うまくいかないことの多さ」だった。スタートアップ企業では、予想している以上に多くのことがうまくいかない。その一つ一つの課題は大抵時間をかければ解決できるのだが、あまりにも多すぎるため、体力をかなり消耗する。だが、その克服方法を確立し、ある時点を過ぎれば、これらの問題に効率的に対応できるようになる。

Q. 意思決定をする際に重要なことは何か?

A. 「正しい選択」をすること。社内でも「これは正しく対応しなきゃいけないから、個人的ないざこざや対立は一旦おいて置いて、一緒にこの問題に取り組もう」みたいな社風がある。

Q. どうやってモチベーションを保っているのか?

A. 自分ももちろんモチベーションが無い時期というのはある。多分、常にモチベを保ち続けられる人は少ない。自分は、自分が気になること、重要だと思うこと(things I care about)に取り組んでいる時が一番モチベがある。合っているプロジェクトと、合っている人のなかに身を置くことが大事。モチベが保てない時は、おそらくこの二つのいずれかが合っていない。

その他

Q. もしまた学部1年生に戻れたら、何を専門に学ぶか?

A. AI技術は全ての分野に影響するので、専門自体はそこまで重要では無いと思う。今後重要になるのは、Creativity, Adaptability, Resiliance等のスキル。社会の変化に適応することが大事。ただ強いて言うなら、こうした学びのフレームワークを習得するうえでは理工系の分野が良いとは思う。

Q. フェイク情報のリスク低減はどうするべきか?

A. 現在進行形でAI生成物の検知に関する研究はたくさんしている(watermarkingなど)。また研究以外の観点で言うと、フェイクに対して社会は適応できると思う。例えばphotoshopで加工された画像については人々はすぐ適応できるようになったし、あからさまなフェイク情報についても適応できた。ただ、真のリスクは「インタラクション」を介した危険性にあると思う。我々は既に動画や画像等の情報を疑う力はあるが、長期的な「チャット」がフェイクであることに対する耐性は持ち合わせていない。

Discussion