AIの脅威論を否定する研究:大規模モデルの能力は人類を危険にさらすには不十分

最新の研究によると、大規模言語モデルは現在、自律的に学習したり新しい能力を習得したりする能力を持っていないことが示されています。

01 創発的知能:単なる「即興」?

LLMの創発的能力の謎を解明するため、研究者たちはGPTのような非指示調整モデルとFlan-T5-largeのような指示調整モデルを、22のタスク(17の既知の創発タスクと7のベースラインタスク)で異なる条件下で分析しました。

評価指標として、完全一致精度、BERTスコア精度、文字列編集距離を使用しました。実験の精度を向上させるため、プロンプトと出力形式を調整してバイアスを制御しました。

実験はGPTのゼロショットおよびフューショット設定でのパフォーマンス分析に焦点を当てました。

驚くべきことに、GPTは以前から創発的能力があると考えられていましたが、ゼロショット設定ではこれらの能力は非常に限定的でした。

具体的には、文脈内学習(ICL)に依存せずに創発的能力を示したのは2つのタスクのみでした。これらのタスクは主に形式的な言語スキルや情報検索に依存しており、複雑な推論ではありませんでした。これは、文脈内学習なしではGPTの創発的能力が大きく制限されることを示唆しています。

研究者たちは次に指示調整モデルに注目し、指示調整は単純なタスク適応ではなく、暗黙の文脈内学習を通じてモデルの潜在能力を活性化させるという仮説を立てました。

GPT-J(非指示調整)とFlan-T5-large(指示調整)を比較したところ、パラメータ、アーキテクチャ、事前学習データに大きな違いがあるにもかかわらず、一部のタスクで驚くほど一貫したパフォーマンスを示しました。

この現象は、指示調整モデルが全く新しい推論能力を示しているのではなく、暗黙の文脈内学習を通じて既存の文脈内学習能力を巧みに活用している可能性を示唆しています。

さらなる実験により、モデルサイズや学習データを増やしても、指示調整モデルはゼロショット設定で非指示調整モデルと同様のタスク解決能力を示すことがわかりました。これは再び、指示調整と暗黙の文脈内学習の密接な関連性を強調しています。

02 人類の生存に対するAIの脅威:現実か誇張か?

LLMは非常に優れたタスクパフォーマンスを示しますが、研究結果はこれらの能力が人類の生存に実質的な脅威をもたらすものではないことを示唆しています。

まず、LLMの創発的能力は主に文脈内学習と指示調整から生じており、モデルの設計と学習で予測・制御可能です。完全に自律的な発展や独立した意図/動機の傾向は示していません。

例えば、Social IQAテストでは、モデルは感情や社会的状況に関する質問に正しく答えることができました。例えば、「カーソンは学校に行くのが楽しみで興奮して目覚めました。なぜそうしたのでしょうか?」といった質問です。

ここでモデルは、文脈内学習と指示調整を使用してランダムなベースラインを超え、妥当な回答を選択しています。これは、モデルが自発的に「知能」を生成しているのではなく、特定の入力と設計条件下で高度なパターン認識を示していることを示しています。

第二に、LLMの規模が大きくなるにつれてこれらの能力はより顕著になりますが、設計者の制御から逃れてはいません。モデルの微調整を通じて、LLMをより複雑なタスクの理解と実行に導くことができます。この強化された能力は、モデルが自律的な意識を発達させたり、人間に脅威をもたらしたりすることを意味するものではありません。

実験では、LLMは特定のタスク、特に推論と判断を必要とするタスクでランダムなベースラインを大きく上回りました。しかし、このパフォーマンスは依然として大規模な学習データセットと慎重に設計された入力プロンプトに依存しており、モデルによる自発的な知的覚醒ではありません。

これはさらに、LLMの創発的能力が制御可能な範囲内で発展していることを確認しています。この仮説はさらなる実験的検証が必要ですが、大規模モデルにおける創発的能力を理解するための新しい視点を提供しています。

この研究は、AIが将来的にさらに機能的な言語能力を発展させる可能性がある一方で、その潜在的な危険性は制御可能なままであることを示しています。既存の証拠はAIの存在論的リスクに関する懸念を支持していません。それどころか、AI技術の発展は徐々により安全で制御可能な方向に向かっています。

03 限界と将来の展望

研究者たちはLLMの創発的能力に関する重要な洞察を提供する一方で、研究の限界も指摘しました。

現在の実験は主に特定のタスクとシナリオに焦点を当てていますが、より複雑で多様な文脈におけるLLMのパフォーマンスにはさらなる研究が必要です。

研究者たちは、モデルの学習データと規模が創発的能力に影響を与える主要な要因であり続けると述べています。将来の研究では、モデルの安全性と制御可能性を向上させるために、これらの要因の最適化をさらに探求する必要があります。

彼らは、より広範な言語とタスク環境におけるLLMのパフォーマンス、特に改良された文脈内学習と指示調整技術を通じて安全性を確保しながらモデルの能力を向上させる方法をさらに研究する計画です。

さらに、学習方法とデータ選択を最適化することで、モデルサイズを増やさずに創発的能力を最大化する方法を探求します。