歡迎光臨
我們一直在努力

解碼“認知之輪”:AI與人類的終極一戰

今天週一,跟大家聊點假裝深沉的話題。

現在我們在討論人工智能的時候,大都把捲積神經網絡奉為圭臬。 因為這種算法,號稱是“平移不變的人工神經網絡”,說人話就是人腦的高仿。

通過模擬人類腦皮層神經元的網狀結構,能夠提取和識別各種物體的特徵,永不停機地進行學習,比最乖的人類小孩還要讓人省心。

而且一旦訓練好了,就能比人類做得更快更好。 拳打九段棋手、腳踢世界冠軍,是毫無問題的。

因此,卷積神經網絡正在被大量地應用於各種AI系統上。 似乎只要假以時日,就該“封神”了。

但,這是不可能的。

儘管看起來,這一波AI熱正在讓人類處於被廣泛替代的危險境地,不過距離機器超越人類的那一天,其實還是非常遙遠。

為啥呢?

說來你可能不信,關鍵原因還是在卷積神經網絡身上。

送分題都不會,你怎麼回事小老弟?

上古時代,流傳著這樣一道送分題:要把大象裝冰箱,總共分幾步?

如果讓一個人類小孩來回答,他會分分鐘告訴你標準答案——把冰箱門打開,把大象塞進去,把冰箱門合上。

但是如果讓一個卷積神經網絡機器人來挑戰呢?

它會先假設,某個叫做“塞”的動作能夠將大象轉移到冰箱裡。 於是立即行動,卻發現怎麼也塞不進去。 可憐的“小卷”,遺漏了物理體積不匹配這個重要條件。

我們給它升級一下,讓“小卷二號”能夠識別大象和冰箱的個體特徵對任務有何影響。 它在任務開始前努力推演,正當它算出大象的皮膚顏色對完成任務不會有任何幫助,準備推算下一個特徵的時候,大像已經不耐煩地跑走了,任務失敗。

我們再升級一下,教它學會分辨哪些因素與任務是相關的還是無關的,“小卷三號”誕生了。 但是,它一屁股坐冰箱旁邊不動了,掏出一個小本本,開始記錄千千萬萬個被確定與任務無關的東西,直到時間的盡頭……

這麼看起來,“小卷”們好笨呀,別說和人比了,和阿爾法狗這些前輩們比差距也很大啊!

這背後,其實隱藏著一個令AI科學家們困擾多年的變態難題——“框架問題”。

什麼是框架問題?

想要搞懂什麼是“框架問題”,先解釋一下卷積神經網絡是怎麼工作的。

前面我們提到過,這種深度學習的神經網絡是在模擬人類神經元系統的操作方式。 不同算法都只為了完成一個目標:就是像人一樣,忽略該忽略的信息,並在遇到重大的反常情況是保持足夠的警覺。

如何能夠在集中註意力的同時獲得合理忽略的能力呢?

科學家們只能將一切變化多端、無窮無盡的生活經驗壓縮並生成一個“框架”,其中包含了一個內容豐富、細節詳實的腳本綱要,所有現實世界的問題及事物之間的聯繫都囊括其中。

當機器想要解決一個問題時,就可以在“框架”中對某些特徵加以注意,對那些偏移框架的重大誤差保持警覺。

如果這個神經網絡框架被建構得足夠好、足夠龐大,它可以展現出無窮大的能力。 比如DeepMind用5000台TPU培育出來的AlphaZero,無需其他干預,就能在4個小時之內成為世界象棋冠軍。

但是,在某些人類日常生活中需要用到的反應模型中,卷積神經網絡的智商卻和昆蟲差不多。

D. Dennett在他的論文《AI的框架問題》中舉了一個例子:製作午夜快餐。

一個肥宅半夜餓醒,想給自己做點吃的,於是他想到了冰箱裡面有些剩下的雞肉片,麵包,還有一瓶啤酒。 於是他很快就想出了一個完美的計劃:查看冰箱,拿出需要的材料,做一份三明治,就著啤酒,美滋滋。 哦,還需要帶上刀、盤子和酒杯。

人類之所以能順利完成這項任務,是因為我們已經了解了大量的知識。 包括雞肉加在麵包裡不會掉下來,啤酒如何倒入杯子,甚至是左手拿著麵包就不能再用來拿刀了。

這些“知識”或經驗是人類“生而知之”的,我們自己或許都不知道是如何學會這些事情的,卻能讓我們不需要思考就輕鬆搞定一個又一個基本生活問題。

但對於任何事情都要從頭學起的AI來說,如果這些大量而平凡的經驗不能引起足夠的注意,它就根本不可能完成這些不斷出現的新任務。

當然,我們也可以選擇給機器餵養世界上所有的知識,讓它成為一個無所不知的百科全書。 這樣它就能和人一樣具備這種彈性的思維能力了嗎?

答案顯然是否定的。

首先,讓AI記住大量微不足道的細節中,遇到問題時再從中搜索和抽取出有用的那一部分,實在是太極端太超負荷了,人類就不需要記住“麵包比太平洋小”“刀子 接觸麵包時不會融化”這種知識。

而且,機器固然可以用一百萬年解決任何問題,但這既不智能,對人類來說也沒有任何價值。 如果不能在有限的時間內可靠高效地給出解決方案,我要這祖傳AI有何用?

既不能窮盡一切答案,又不能快速找出最佳方法,這就是目前限制AI智商的“框架問題”。

卷積網絡:我不生產智商,我只是人腦的搬運工

一代代研究者都致力於讓機器模仿人類的心理機制和認知結構。 但是,科學家們真的完全掌握了人類的思考之鑰嗎?

從機器智能遭遇的困境來看,顯然不是。

“框架方法”,本身就對思維套路有著極強的依賴,只能依靠人類預先觀察並解決機器可能遇到的所有框架型問題。

然而人類思索“如何把鋼琴搬上樓”這樣有一定難度的新問題時,恐怕不會拿出筆來畫一張邏輯清晰的思維導圖。 更常見的做法是,用一種無意識的快速反應直接指向了答案,甚至來不及詳細觀察推理過程,比如“什麼三段論使我相信鋼琴可以被抬起來”之類的。

一些思維模式是可以被明確化、系統化的,但更多的心理推理過程是抽象的、內省的,就像是被魔術師掩蓋起來的奧秘,至今沒有誰能看出端倪。

這種不用思考的 “內省”式經驗,是讓人類能夠“先思而後行”的關鍵,也是機器無法模仿的。

時至今日,還沒有人能夠提供什麼切實可行的證據來充分而精準地描述出,人類的內省式經驗是如何指導他生成思維框架或編寫腳本的。

因此,哪怕,從簡單的語義到末梢神經元,卷積神經網絡已經對人類的“認知之輪”模仿的惟妙惟肖,那些都是建立在能夠被描述和形成計算機映射的認知過程上。

AI從整體效果上對認知的各個層級進行模擬,與我們尚未發現的人類大腦的真實活動方式,有可能完全不同。

既然“人類如何思維”還無法被解釋,那麼給AI一個“高仿大腦”就更是不可能實現的事情了。 那麼,今天被廣泛使用的機器智能構造體系,還靠譜嗎?

人類的安全鎖:認知之輪的終極悖論

如果我們用“人腦能做什麼”來要求智能體,比如在行動前進行周密的思考和架設,三思而後行;又或者是回答非常跳躍的腦筋急轉彎,那麼AI是永遠不可能比人類更 智能的了。

這裡面存在著一個關於機器智能的悖論:就是如果AI不模仿人類的“認知之輪”,向這個巨大的並行處理器學習如何提取特徵、如何生成模型、如何判斷,那它就不可能 變得智能;

但如果我們想把AI當做“認知之輪”的齒輪箱,試圖藉由它來一步步推倒到終極問題,搞清楚人腦是如何實現那些驚人的認知功能的,那也會讓事情變 得一團糟。

就像我們都知道植物通過光合作用能產生葡萄糖,但誰也不會認為,通過觀察光合作用並將其計算機程序化,就能創造出糖分。

目前的神經科學家,根本沒有提供有效線索,能讓我們了解大腦的認知功能究竟是怎樣實現的。

如何為這些隱秘的“心理實體”找到合適的程序對應,目前還沒有什麼答案。 在這種制約條件下,我們有一點不成熟的小建議:

  1. 嘗試用心理學而不是神經科學去解釋人腦。

神經科學家特別關心及時的神經元和解剖學,在已經設計出的神經元計算機模型中,很多都是“馮諾依曼式”的構造體系,關注未經過解釋的細胞激活方式。 但人類認知問題、解決問題的能力,更像是一場思維的魔術表演,和已經被充分認識的大腦組織功能之間,有著一大片空白地帶。 通過跨學科的認知科學、生物學,生成多維的、更加抽象的“神經矩陣”,可能更快洞悉大腦的秘密;

2. 讓AI輔助人類變魔術,而不是相反。

將認知能力與腦組織功能之間的空白詳盡地填補起來,才有可能真正創造出快速、靈敏、可以評估風險與價值的智能體,中間還有很長的一段路要走,在這之前 ,拜託不要再將AI神化成魔術師了,它應該是“自下而上”解決問題的工程師,幫助人類“魔術師”奉獻出更精彩的表演。

正如一個研究者自嘲的那樣,“我們放棄了設計智能機器人的目標,轉而去設計一杆槍,用它去摧毀別人設計的任何智能機器人!”

總而言之,在人類“認知之輪”的最底層,被蓋上了一把密碼鎖。 儘管我們自己也不能打開、無法解釋,但就是能隔空取物,成為一個真正的智能擔當。

謝天謝地,我們安全了。

*文章為作者獨立觀點,不代表虎嗅網立場

本文由 腦極體 授權 虎嗅網 發表,並經虎嗅網編輯。 轉載此文請於文首標明作者姓名,保持文章完整性(包括虎嗅注及其餘作者身份信息),並請附上出處(虎嗅網)及本頁鏈接。 原文鏈接:https://www.huxiu.com/article/272299.html

未按照規範轉載者,虎嗅保留追究相應責任的權利
未來面前,你我還都是孩子,還不去下載 虎嗅App 猛嗅創新!

未經允許不得轉載:頭條楓林網 » 解碼“認知之輪”:AI與人類的終極一戰