大規模言語モデルと深層学習:ヤン・ルカンの洞察

大規模言語モデルの発展は、工学と科学が相互に促進し合った結果です。工学的実践がモデルの規模と性能の向上を推進し、一方で科学的研究はモデルの原理に対する理解を深めました。この両者は相互補完的であり、共に大規模言語モデル技術の急速な進歩を推進しています。

以下は日本語に翻訳した内容です:

カリフォルニア大学デービス校電気コンピューター工学科の陳羽北助教授は、「ホワイトボックスモデル」に関する研究を行っています。また、チューリング賞受賞者でMetaの主任科学者であるYann LeCunのポスドクでもあります。今回の番組で、彼はホワイトボックスモデルの最新の研究進展について話し、AIの業界の浮き沈みを経験しながらも純粋で集中的な科学者であるYann LeCunについて、彼が知る限りの情報を共有してくれました。

以下はインタビューの一部抜粋です

01 人間の脳と大規模モデル

《シリコンバレー101》: まず、あなたが現在行っている「ホワイトボックスモデル」の研究について簡単に紹介していただけますか?研究過程で、GPTの入出力問題をどのように説明できるか何か発見はありましたか?

陳羽北: この方向性の大きな目標の1つは、深層学習を純粋な経験的学問から科学的学問へと推進すること、つまり工学を科学に変えることです。現在、工学の発展は比較的速いですが、科学は比較的遅いです。以前、単語の埋め込み(embedding)というモデルがあり、言語のいくつかの表現を学習することができました。

当時、みんなが疑問に思っていたのは、タスクのパフォーマンスは向上したけれど、何がこのパフォーマンスの向上をもたらしたのか?ということでした。そこで、私たちは非常に初期の段階で、語彙のこれらの表現を開くことを試みました。それを開くと、いくつかの非常に興味深い現象が見つかりました。

例えば、「りんご」という単語では、いくつかの要素的な意味を見つけることができます。その中の1つの意味は果物を表し、もう1つの意味はデザートを表し、さらに掘り下げると技術や製品の意味があります。もちろん、これはアップル社の製品を指しています。つまり、1つの単語からこれらの要素的な意味を見つけることができ、そしてこの方法を大規模言語モデルに拡張することができます。

つまり、大規模言語モデルを学習した後、モデル内にある要素的な意味を探し、それを開こうとすることができます。大規模言語モデルには実際に多くの層があることがわかります。

初期の層では、「語義曖昧性解消」と呼ばれる現象が発生します。例えば、英語の「left」という単語は、左に曲がるという意味と、去るという動詞の過去形の意味の両方を持っています。その具体的な意味は前後の文脈に依存します。そのため、大規模言語モデルは初期の数層で語義曖昧性解消を完了します。

中期の層では、新しい意味が生成されていることがわかります。当時、私たちは「単位変換」という面白い現象を見つけました。キロメートルをマイルに、華氏を摂氏に変換する必要がある時に活性化され、この意味が開かれます。この道筋に沿って、多くの同じレベルの要素的な意味を見つけることができます。

さらに上の層に進むと、これらの要素的な意味の中にパターンが存在することがわかります。このパターンは、文脈に繰り返しの意味が現れた時に活性化されるというものです。このような方法で大規模言語モデルや小規模言語モデルを開くことができます。もちろん、これらのアイデアは完全に新しいものではありません。視覚モデルでは実際にすでに一定の歴史があり、例えばMatthew Zeilerから始まって同様の探索がありました。

《シリコンバレー101》: この考え方に沿って、もし私たちがそれがどのように動作するかの一部を知ることができれば、工学的に多くの最適化ができるということですか?

陳羽北: はい、それは非常に良い質問です。私は、どんな理論でも高い要求の1つは実践を指導できることだと思います。そのため、私たちが言語モデルや語彙表現を研究していた時、当時の目標の1つは、理解した後に、逆にこれらのモデルを最適化できるかどうかということでした。実際にそれは可能です。

例を挙げると、大規模言語モデル内で特定の要素的な意味を見つけ、それが特定の種類の要素的な意味を見たときに活性化するなら、そのニューロンを判別器として使用できます。これを使用して一部のタスクを実行できます。これらの要素的な意味を変更することで、モデルのバイアスを調整できます。

つまり、それを発見できれば、調整できるということです。最近、Anthropicが類似の研究を行いました。言語モデル内に存在する可能性のあるいくつかのバイアスを見つけ、それに対していくつかの変更を加えて、モデルをより公平で安全なものにしようとしています。

《シリコンバレー101》: 昨年、OpenAIもGPT4を使ってGPT2を解釈し、GPT2がどのように動作するかを見る研究を行ったと聞きました。例えば、彼らはGPT2のニューロンが1800年前後のアメリカの歴史に関するすべての質問に答える際、5行目の12番目のニューロンが活性化され、中国語で答える際は12行目の13番目のニューロンが活性化されることを発見しました。

中国語で答えるこのニューロンをオフにすると、中国語の理解能力が大幅に低下します。しかし、後ろのニューロンに行くほど、例えばニューロンが2000行目あたりになると、全体の信頼性がすでに大幅に低下しています。この研究について注目されましたか?

陳羽北: その論文はまだ読んでいませんが、この方法は脳のニューロンに手術を行うのとよく似ています。つまり、今、ある種のニューラルネットワークがあり、このネットワークは何らかの意味で局所的な存在を見つけることができ、完全に分散しているわけではないとすれば、それに対していくつかの操作を行うことができます。例えば、特定のニューロンを切断すると、その部分の能力が相対的に失われたと考えることができます。

人間も実際に同じです。例えば、てんかんの患者が手術を受けた後、ある種の言語障害が現れる可能性がありますが、他の身体機能にはあまり影響しません。これは原理的に見ると似ています。

《シリコンバレー101》: OpenAI、Anthropicは現在、大規模モデルの解釈可能性を研究していますが、あなたの研究と彼らの研究にはどのような違いがありますか?

陳羽北: ホワイトボックスモデルの研究が将来成功するかどうかは実際のところ誰もわかりません。以前、私の指導教官とも議論しましたが、みんなの一致した見解は、この取り組みは試す価値があるということでした。この分野に戻ると、私たちの研究が目指しているのは、人工知能を理解し、その理解を通じてそれを再構築し、根本的に異なるものを構築することです。観察、つまり解釈可能性は、私はただの手段だと思います。

つまり、このようなモデルを開くにしても、これらの実験を行うにしても、モデルに対していくつかの調整を行うにしても、これらはすべて私たちが理解のプロセスで試みているいくつかの手段だと考えています。しかし、ホワイトボックスモデルで本当に重要なのは、信号そのものに戻ることです。なぜなら、人間の脳であれ機械であれ、その学習の本質はすべて信号によるものだからです。

この世界には一定の構造が存在し、それらはこれらの構造を通じて学習を行い、学んでいるのもまさにこれらの構造です。では、これらの構造の背後にある規則性や、それらを表現するいくつかの数学的ツールを見つけ、これらのものを再構成して異なるモデルを構築することはできないでしょうか?もしこのことが実現できれば、私たちのシステムの堅牢性、あるいは安全性と信頼性を向上させる期待をもたらすことができると思います。

さらに、その効率も向上するでしょう。これは、蒸気機関が先に登場し、その後に熱力学理論が登場して、完全な職人の学問から科学へと変わったのと少し似ています。同様に、今日の私たちは、データ上で初めて蒸気機関を手に入れたようなもので、以前はデータを理解できなかったのが、今ではようやくAIのアルゴリズムを作り出してデータの中の規則性を捉えることができるようになりました。

《シリコンバレー101》: つまり、より省エネになるということですね。

陳羽北: 省エネについて言えば、いくつかの興味深い例を挙げることができます。まず第一に確かに省エネです。脳は20ワットの電球に相当するのに対し、現在のスーパーコンピューターは100万ワットを超える可能性があります。

第二に、自然界のさまざまな生物の進化を見ると、その進化の効率は実際に非常に高いです。例えば、Jumping Spiderと呼ばれる特殊なクモは、わずか数百万個のニューロンしかありませんが、非常に複雑な3次元の軌跡を描いて獲物を捕らえることができます。

そして、私が最も興味深いと思うのは、人間のデータ使用の効率です。Llama3の現在のデータ量は約13兆トークンに達しています。しかし、人間の一生でどれだけのデータを受け取ることができるでしょうか?1秒あたり30フレームの画像を取得でき、1日12時間、20年間取得すると仮定すると、約100億トークンを得ることができます。テキストで取得できる量もほぼ同じで、大規模モデルよりもはるかに少ないデータ量です。

そこで問題が生じます。人間はどのようにしてこのように少ないデータ量から、このように強力な汎化能力を獲得しているのでしょうか?これが、効率の面で人間の脳が私にとって非常に不思議に思える点です。

《シリコンバレー101》: 大規模モデルがどのように動作するかを解明することと、人間の脳がどのように動作するかを解明することのどちらが難しいですか?どちらも難しく聞こえます。

陳羽北: この2つはそれぞれ難しさがありますが、方法論的には似ています。人間の脳であれ大規模言語モデルであれ、私たちはそれを観察し、何に反応するかを見ようとしています。

この方法は実際、前世紀80年代のノーベル生理学医学賞受賞者であるDavid HubelとTorsten Weiselの視覚皮質に関する研究からすでに見ることができます。彼らは単純細胞(Simple Cell)を見つけ、人が何かを見たときにこれらのニューロンが興奮するかを研究しようとしました。異なるものを見たときのニューロンの異なる反応状態を分析し、例えば、まったく反応しない時と非常に興奮する時を比較し、そして彼らはニューロンの受容野(Receptive field)を見つけました。