儘管新聞標題很驚悚,但客觀數據顯示,平均而言,全球各地的人們壽命更長了,生病更少了,吃得更好了,受教育更多了,接觸的文化更豐富了,並且死 於戰爭、謀殺或意外的可能性也越來越小了。
然而,失望似乎是永恆的人性。 即便悲觀主義者不得不承認,對於越來越多的人來說,生活正變得越來越好,但他們還是隨時都能拿出辯駁的理由。 他們認為,我們正在狂歡中奔向末日,就好比一個人從天台跳下,在經過每層樓的時候說道:“目前感覺良好”;或者,就像玩俄羅斯輪盤賭,一直玩下去,結局 一定是死亡;或者,我們將遭遇“黑天鵝”事件,雖說從統計分佈來看,尚有多達四個標準差之遠,事件發生的概率極小,但後果卻十分嚴重。
半個世紀以來,現代末日論有了四駕馬車,分別是:人口過多、資源枯竭、環境污染和核武戰爭。 現在,它們又多了一支新生的裝甲部隊: 圍困我們的納米機器人、俘虜我們的機械人、將我們碾壓成渣的人工智能,以及製造了計算機病毒、能在自己的臥室毀滅整個互聯網的保加利亞年輕人。
捍衛類似這些馬車的人是浪漫主義者和盧德主義者。 然而,那些警告高科技十分危險的人,卻往往是些科學家和技術專家。 他們不惜發揮自己的聰明才智,竟然搞出這麼多足以讓世界迅速滅亡的東西出來。 2003年,天體物理學家馬丁·里斯出版了一本名叫《人類最後一小時》的書, 他在書中警告說,“人類正在親手埋葬自己”,然後列舉了人類讓“整個宇宙的未來變得危險”的12種方式。 比如,粒子對撞實驗可能會產生黑洞,從而毀滅地球;或者,某個被壓縮的奇異夸克會將所有的宇宙物質黏在一起,然後同歸於盡。 里斯在書中探討了很多支持末日論的理由。 該書在亞馬遜網站的網頁說明是,“瀏覽了這本書的讀者還瀏覽了《全球性災難的風險》、《我們的最後發明:人工智能和人類時代的終結》、《人類終局:科學和 宗教告訴我們什麼是世界末日》、《殭屍世界大戰:殭屍戰爭口述史》。”
技術慈善家已經為研究機構開具了支票,用於發現存亡威脅,找到將世界從這些威脅中拯救出來的方法,這些機構包括人類未來研究機構、生命未來研究機構、潛在風險研究中心、全球性災難 風險研究機構。
隨著技術不斷進步,我們該如何看待這些存亡威脅呢? 沒人敢肯定,災難永遠不會發生,我的這本書也不會做出這種保證。 氣候變化和核武戰爭是尤其嚴峻的全球性挑戰。 儘管還沒能得到解決,但它們是有辦法解決的。 我們已經拿出了減少碳排放和去核化的長期路線圖,這些問題正在解決過程之中。 就每一美元所產生的GDP而言,全球的碳排放量已經減少了,而全球核武器的數量已經削減了85%。 當然,為了避免可能的災難,我們應該想盡各種辦法讓核武器的數量減為零。
不過,在這些現實的挑戰面前,有一種挑戰是是似而非的 。 有些科技評論家預測,我們將受到人工智能的奴役 ,這種危險有時又被稱為 “機器末日論” ,“終結者”系列電影就經常呈現這種場景。 有些聰明的傢伙還很嚴肅地看待這種威脅。 埃隆·馬斯克,他的公司生產人工智能的無人駕駛汽車,將AI稱為“比核武器更危險”的事物。 斯蒂芬·霍金,通過他的人工智能語音合成器警告說,AI可能會“招致人類的滅亡”。 這些聰明的傢伙都是人工智能和人類心智的頂尖專家,可他們從不會因為這些存亡威脅而失眠。
“機器末日論”建立在對智力概念的錯誤理解之上,而這種理解要歸功於“偉大的存在之鍊”和尼采主義者的權力意志論,而與現代科學無關。 這種誤解把智力看成是一種威力無窮的靈丹妙藥,每個生物體都或多或少地擁有它。
人類擁有的智力比動物更多,而未來的人工智能計算機或機器人將比人類更聰明。 既然我們人類已經用中等智力馴化或滅絕了低等智力的動物,那麼超級聰明的AI就會以同樣的方式對待人類。 既然“一頭AI”的思考速度比我們快數百萬倍,並且它還能用自己的超級智力通過不斷迭代來提升自己的這種能力。 這種自我迭代一旦開始,人類就無法阻止它了。
然而,這種情況就好比是在擔心,既然噴氣式飛機超越了老鷹的飛行能力,總有一天飛機會像老鷹一樣盤旋於天空,捕獲我們的牲畜。 人們對AI的第一種誤解在於,混淆了智力與動機——也即是對於慾望的感受、對於目標的追求、對於需求的滿足——之間的區別。 即便人類發明了超越了人類智力的機器人,為什麼這些機器人一定想要奴役它們的主人,或者想要主宰這個世界呢? 智力是一種運用新工具來實現目標的能力,但目標本身是與智力無關的:聰明與想要得到某個東西並不是一回事。 只是很碰巧,在自然生態系統中,智人的智力是達爾文所謂自然選擇的副產品,是一個天然的競爭過程。 在生物的大腦中,智力與壓制競爭對手、獲取資源等目標產生了關聯。 然而,將靈長類動物大腦邊緣的迴路與智力本身的性質混淆起來,是明顯錯誤的。 人工智能係統是被人為設計出來的,而不是自然進化出來的,它的思維能力就像是阿爾·卡普的連環漫畫《萊爾·艾布納》中的漫畫人物甚穆,他們是滿臉 雀斑的利他主義者,用自己無窮的智慧把自己烤熟,以飽人類的口福。 複雜系統理論中沒有任何定律認為,有智力的行為主體必定會成為殘忍的征服者。
第二種誤解是認為,智力是一種無限制的連續能力,是能夠解決一切問題的全能的靈丹妙藥,可以實現任何目標 。 這種誤解讓人們提出了一些毫無意義的問題,比如,什麼時候AI可以“超越人類智力”? 擁有上帝般全知全能的終極“通用人工智能”會是什麼樣子? 實際上,智力是一種很精巧的東西:比如,被設計或者被編碼的軟件模型、在不同領域追求不同目標的知識,等等。 人類具有尋找食物、結交朋友、影響他人、吸引配偶、撫養小孩、全球旅行、從事其他人類愛好和消遣的能力。 計算機程序也許能被設計用於完成某些人類才能完成的任務,但卻不能被設計用於乾擾他人,當然,它還可以被設計用於處理一些人類無法解決的問題。
但問題不同,解決它們所需要的知識也不一樣。 不同於“拉普拉斯妖”——一種神秘的存在物,它知道宇宙中每個粒子的位置和速度,並將這些信息輸入物理定律公式,計算出每樣事物在未來任何時點的 狀態——真實生活中的認知主體必須要從混亂的客觀世界,以及從某個時點參與某個領域活動的人們那裡獲取信息。 對知識的理解並不違背摩爾定律:它是通過不斷構建理論並接受現實檢驗,而不是通過速度越來越快的算法來實現的。 消化互聯網上的海量信息不足以讓AI擁有全知能力:大數據仍然是有限的數據,而宇宙的知識卻是無限的。
“即便通用人工智能想要展現權力意志,沒有人類的合作,它仍然只是無用的‘缸中之腦’。”
正是因為有了這些誤解,最近的輿論宣傳讓AI研究者頗感煩擾,這些宣傳讓觀察家們誤以為通用人工智能的出現近在眼前。 就我所知,根本沒有任何機構正在研究通用人工智能,這不僅僅是因為它的商業價值是不確定的,還因為這一概念在邏輯上就是自相矛盾的。 當然,自2010年代以來,我們已經見證了AI能夠駕駛汽車、標記圖片、識別語音,見證了AI在《危險邊緣》圍棋和阿塔里電腦遊戲中擊敗了人類。
然而, AI的這些進步不是來自於對智力機制的理解,而是來自於處理速度更快、能力更強的芯片和豐富的大數據 ,這些數據可以讓計算機程序在數以百萬計的案例中得到訓練,並產生類似的新案例。 每一個智力系統都是一個天才的白痴,幾乎沒有能力解決它無力解決的問題,並且也只能解決很小一部分它被設計出來用以解決的問題,比如,一個圖像標記系統將一張即將墜毀 的飛機照片識別成了“一架飛機停在柏油跑道上”;一個電子遊戲娛樂系統對計分規則的細微變化感到困惑不解。 雖然這些系統肯定會表現得越來越好,但仍然沒有“嘭”出現的跡象。 這些系統的演進方向既不是要去接管實驗室,也不是要去奴役它們的設計人員。
即便通用人工智能想要展現權力意志,沒有人類的合作,它仍然只是無用的“缸中之腦”。 計算機科學家拉姆齊·納姆駁斥了甚囂塵上的AI意識覺醒論、技術奇點論和幾何指數的自我迭代論:
想像你是一個運行在某種微處理器上的AI,擁有超級智能。 突然,你想要設計一個更快、更強大的處理器,用於你的運行。 現在……靠! 你必須要生產製造這種處理器。 而生產工廠的運轉需要巨大的能量,它需要從周圍環境中獲取原材料,需要嚴格控制內部環境,保證氣閘、過濾器以及其他各種特殊設備正常運轉。 獲取材料、運輸、加工、建造廠房、修建動力機房、測試、生產,所有這些工作都要花費時間和能量。 現實世界是你螺旋式自我迭代的最大障礙。
現實世界不會為很多數字技術災難的發生提供條件。 當《2001太空漫遊》中的人工智能HAL發瘋時,戴夫可以用螺絲刀把它廢掉,讓它可憐兮兮地對著自己唱兒歌:《雙人自行車》。 當然,總是有人認為“末日機器”一定會出現,這種機器心狠手辣、無所不能、永久開啟,並且可以防止人類干預。 應對這種威脅的辦法很簡單:不去製造它!
正當人們意識到把機器人想得太邪惡似乎是在庸人自擾的時候,人類衛道士又發現了一種新的數字技術災難。 這種想像不是建立在弗蘭肯斯坦或希伯來傳說中的Golem 的故事之上的,而是建立在魔瓶裡的妖怪和米達斯王的故事之上的。 妖怪允許人們許三個願,但第三個願望的內容是阻止前兩個願望實現,而米達斯則後悔自己將他觸碰到的每樣事物都變成了黃金,包括他的食物和 家人。 這種危險有時被稱為 “價值取向問題” ,也就是說, 我們可能會給AI一個目標,然後絕望地呆在一旁,看著它按照自己的理解去執行目標,並最終損害人類的利益。 如果我們讓AI去維持一個水庫的水位,它就有可能洩閘,把一個城鎮給淹了,而不管人類的死活。 如果我們讓AI生產回形針,它就有可能把所有能接觸到的宇宙物質都製造成回形針,包括我們的私人物品和身體。 如果我們讓它將人類的幸福最大化,它就有可能用多巴胺營養液對我們進行靜脈注射;或者,用計算機連接我們的大腦,讓我們坐在化學缸中,快樂致死;又或者,如果它 經過訓練,通過反復觀看笑臉圖片理解了幸福的概念,它就會用幾十億張納米大小的笑臉圖片塞滿整個銀河系。
這些段子可不是我編造的。 有些人的確認為,這些場景很好地描繪了先進的人工智能對人類所產生的威脅。 所幸的是,這些場景是自敗的。 它們取決於如下一些假設:(1)人類太聰明,居然能設計出全知全能的AI,但又太愚蠢,居然在沒能搞懂AI運作機制的情況下讓它控制了全世界;(2)AI 太聰明,以至於它知道如何改變化學元素,重新連接大腦,但又愚蠢到因為犯下一些低級的理解錯誤,造成了巨大破壞。 要讓AI具備解決這種矛盾的能力,工程師可能心想給AI添加插件就行了,並為之前忘了做這項工作而後悔不迭,但添加插件是無濟於事的,因為這個問題涉及到智力。 同樣,要想讓AI具備理解語言使用者在特定語境下的意圖,靠添加插件也是不管用的。 機器人所能做的,只能是在類似於《糊塗偵探》這樣的喜劇片中,響應“抓起服務員”的命令,將大堂經理舉過頭頂;或者通過拔出手槍、開槍射擊去“滅 掉燈光”。
當我們拋開意識覺醒、技術自負、即時全知、控制宇宙每個粒子之類的幻想時,人工智能就跟其他任何技術無異。 它的發展是漸進的 ,其目的是被用於滿足人類的各種需求。 在投入執行任務之前,它會經受嚴格測試,並總是會在效能和安全之間取得平衡。 正如AI專家斯圖爾特·羅素所說:“沒有任何人類工程師會說‘修建不會垮的大橋’,他們只會說‘修建大橋’。”同理, 他認為,只有益處沒有危害的AI才是真正的AI。
當然,人工智能還是提出了更為日常性的挑戰:我們該如何幫助那些工作被機器所取代了的人群? 不過,這類工作還不會很快就消失。 NASA在1965年發布的報告中所提出的洞見至今仍是有效的:“人類是一種能量消耗最低、重量僅有150磅、思維非線性的通用計算機,哪怕是技能不熟練的工人也能生產 出這種機器。” 駕駛汽車是一種比卸下洗碗機、跑腿打雜、更換尿布以及此刻撰寫文章更容易的工程技術問題,至今我們也還沒准許自動駕駛汽車行使在城市道路上。 也許,機器人軍團最終可以在發展中國家為嬰兒接種疫苗、修建學校,或者在我們這樣的國家修建基礎設施,照顧老人,但要等到這一天,還有很多工作要做。 人類的才智既可以被用於設計軟件和機器人,也可以被用於設計政府和私營部門政策,好讓失業的人有工作可做。
本文由 神經現實© 授權 虎嗅網 發表,並經虎嗅網編輯。 轉載此文請於文首標明作者姓名,保持文章完整性(包括虎嗅注及其餘作者身份信息),並請附上出處(虎嗅網)及本頁鏈接。 原文鏈接:https://www.huxiu.com/article/262450.html
未按照規範轉載者,虎嗅保留追究相應責任的權利