4+88,它所做的就是猜測,直接給出了 120,隨後它停了下來,好像說,"也許我需要給出一些解釋",它於是計算出了每一步,74 和 88,然後放在一起,得到了與最初猜測不同的答案,92。然後,實驗者說,"等等,你之前說答案是 120",它們說,"這是一個錯誤,正確答案是 92"。
所以,從本質上講,這些技術,至少在目前的層次上,還沒有能力……它們實際上沒有正確性的基本事實,人們嘗試通過實驗來迫使它一步一步地思考,而不僅僅是猜測答案,這樣做確實有一點幫助,但這些都是"黑客"行為,我們不是……它們不像專家那麼可靠,儘管它們有時可以給出專家級的輸出,或至少是類似專家級的輸出。
那麼問題來了,我們要如何使用這項技術呢?這是一種不同的技術,我們已經習慣了以前會犯錯的技術,這些糟糕的技術會產生劣質的輸出,但通常當一個程序或技術產生不好的輸出時,你可以說它很糟糕,就像……它看起來不像真的。但實際上,人工智能在設計上,權重是專門選擇的,以便答案盡可能接近正確答案,因此,即使它們錯了,它們看起來也非常有說服力,因此,現有的感知如何檢測某事物何時看起來不錯和看起來很糟糕,尤其是當你想以任何可能造成實際傷害的方式使用它時。
例如,如果你想使用人工智能來做出醫療決策或財務決策,甚至作為治療師,這些文本生成器有可能成為很好的夥伴,但也可能給出非常糟糕的建議。
因此,在許多領域,儘管人工智能存在巨大潛力,但安全性尚未達標。這就像你發明了噴氣發動機一樣,你可以用它快速模擬出某種動力飛行器,但要真正達到讓公眾都覺得安全的狀態可能還需要幾十年的時間,航空旅行目前是當今按英里小時計最安全的旅行,儘管這顯然是一項危險的技術,這些問題將會得到解決並且是可以解決的,但你必須真正考慮安全問題,你必須假設它會發生。
另一方面,在下行風險很小的場景,人工智能也有很好的應用前景。例如,你可能已經注意到,報告中的所有背景幻燈片都是由人工智能產生的,也許你已經注意到一些缺陷,人工智能在生成文字方面仍然很糟糕,但它正在慢慢變得更好,且下行風險很小,所以它只需看起來令人信服即可,背景圖片不是我演講的主要、核心部分。因此,在某些應用中,這樣的下行風險確實是可以接受的。
尤其是,在科學領域,降低錯誤和偏見風險的一種方法是科學驗證,尤其是獨立驗證。如果有一些方法可以結合人工智能真正強大的輸出,通過獨立驗證把垃圾過濾掉,只保留好東西,就會有很多潛在的應用程序出現。
再打個比方,水龍頭可以產生一定量的飲用水,但它能產生的數量是有一定限制的,突然間,我們有了大型消防水龍帶,它可以產生 100 倍的水,但這些水不能直接飲用,如果你有一個過濾裝置,過濾掉那些不可飲用的部分,你就擁有了大量的飲用水。這就是我所看到的科學和數學的發展方向。
目前,很多科學領域都面臨著瓶頸,需要好的候選者來解決問題,也許你正在從事藥物設計,想找到一種治療某種疾病的藥物,你必須先想出一種藥物,也許來自自然或通過修改藥物的方式,然後你必須合成它,你必須進行一個多年的試驗,第一階段試驗,第二階段試驗......而且這些試驗非常昂貴,所以目前只有大的藥廠才能一直做到這一點。實際上,你試驗的許多藥物並不起作用,而且你必須要在這個過程中的某一時刻放棄它們,有時你很幸運,雖然它們並不能治愈疾病,但它們在其它方面能夠發揮作用,問題是,你仍然需要進行很多次嘗試、面對很多個錯誤。
人工智能技術有望減少候選者的數量,而且人們現在已經在使用它來模擬蛋白質了,有了足夠的數據,你就可以對蛋白質進行模擬,看看它們是否能與某種受體結合,或者是否能阻止某種酶的作用,這樣你就可以大大減少需要實際合成和測試的候選藥物數量。