4+88、これが行っているのは推測で、直接120という答えを出し、その後止まりました。まるで「説明が必要かもしれない」と言っているかのようでした。そこで各ステップを計算し、74と88を出して、それらを合わせて最初の推測とは異なる92という答えを得ました。実験者が「待って、さっき答えは120だと言ったよね」と言うと、「それは間違いでした。正しい答えは92です」と言いました。
本質的に、これらの技術は、少なくとも現段階では、まだ能力が...実際には基本的な事実の正確性がありません。人々は実験を通じて、単に答えを推測するのではなく、一歩一歩考えるよう強制しようとしています。これは確かに少し役立ちますが、これらは全て「ハック」的な行為です。私たちは...これらは専門家ほど信頼できません。時には専門家レベルの、あるいは少なくとも専門家レベルに近い出力を提供することがありますが。
では、この技術をどのように使用すべきでしょうか?これは異なる種類の技術です。以前は間違いを犯す技術に慣れていました。それらの劣悪な技術は質の悪い出力を生み出しましたが、通常、プログラムや技術が悪い出力を生み出すとき、それが悪いと言えました。まるで...本物のように見えないと。しかし実際、AIは設計上、答えができるだけ正しい答えに近づくように重みが特別に選択されています。そのため、間違っていても非常に説得力があるように見えます。したがって、何かが良く見えるか悪く見えるかを検出する既存の認識、特に実際の害を引き起こす可能性のある方法で使用したい場合には注意が必要です。
例えば、AIを医療決定や財務決定に使用したり、セラピストとして使用したりする場合、これらのテキスト生成器は素晴らしいパートナーになる可能性がありますが、非常に悪いアドバイスを与える可能性もあります。
したがって、多くの分野でAIには大きな可能性がありますが、安全性はまだ十分ではありません。これはジェットエンジンを発明したようなものです。何らかの動力飛行機を素早くシミュレートできますが、一般の人々が安全だと感じるレベルに到達するには数十年かかるかもしれません。航空旅行は現在、マイル時間あたりで最も安全な旅行方法ですが、これは明らかに危険な技術です。これらの問題は解決されるでしょうし、解決可能ですが、安全性を本当に考慮する必要があります。それが起こると仮定しなければなりません。
一方で、下方リスクが小さいシナリオでは、AIにも良い適用の見込みがあります。例えば、レポートのすべての背景スライドがAIによって生成されていることに気づいたかもしれません。おそらくいくつかの欠陥に気づいたでしょう。AIはテキスト生成においてまだ悪いですが、徐々に良くなっています。下方リスクが小さいので、説得力があるように見えるだけで十分です。背景画像は私の講演の主要な、核心的な部分ではありません。したがって、一部のアプリケーションでは、このような下方リスクは確かに許容できます。
特に科学の分野では、誤りやバイアスのリスクを減らす一つの方法は科学的検証、特に独立検証です。AIの本当に強力な出力を組み合わせ、独立検証によってゴミをフィルタリングし、良いものだけを残す方法があれば、多くの潜在的なアプリケーションが現れるでしょう。
別の例えを挙げると、蛇口は一定量の飲料水を生成できますが、その量には制限があります。突然、大型の消防用ホースができて、100倍の水を生成できるようになりました。しかし、この水は直接飲むことはできません。飲めない部分をフィルタリングする装置があれば、大量の飲料水を手に入れることができます。これが私が見ている科学と数学の発展の方向性です。
現在、多くの科学分野がボトルネックに直面しており、問題を解決するための良い候補者が必要です。例えば、薬物設計に携わっていて、ある病気の治療薬を見つけたいとします。まず薬を考え出さなければなりません。自然界から、あるいは薬を修正することによって。そして合成し、何年もかかる試験を行わなければなりません。第1相試験、第2相試験...これらの試験は非常に高額で、現在は大手製薬会社だけがこれを続けられます。実際には、試験する多くの薬が効果を示さず、プロセスのどこかの時点で諦めなければなりません。時には幸運にも、病気を治すことはできなくても、他の面で役立つことがあります。問題は、まだ多くの試行と多くの失敗に直面しなければならないことです。
AI技術は候補の数を減らす可能性を秘めています。人々は既にタンパク質のシミュレーションにそれを使用しています。十分なデータがあれば、タンパク質をシミュレートして、特定の受容体と結合できるか、または特定の酵素の作用を阻害できるかを確認できます。これにより、実際に合成してテストする必要のある候補薬の数を大幅に減らすことができます。