有著雄心壯志的中國的科技公司們,正在從互聯(lián)網(wǎng)驅(qū)動轉(zhuǎn)化為AI驅(qū)動。然而很多人只是將AI看做升級版的互聯(lián)網(wǎng),其實二者在內(nèi)在邏輯上完全不同,AI的作用早已超越入口和流量,將成為改變商業(yè)模式每個參與者行為方式的引擎,就好比滴滴可以影響司機師傅們的收入,但并不會影響出租車乃至司機師傅們開車的方式,但無人駕駛出現(xiàn)之后呢?
有一句話說的好:互聯(lián)網(wǎng)驅(qū)動模式創(chuàng)新,而AI驅(qū)動產(chǎn)業(yè)升級。
在今年的綠公司年會,企業(yè)家和業(yè)界學者們將探討三個問題:
AI科技已經(jīng)發(fā)展到什么階段,將會如何影響人們的生活?
科技公司將如何賦能傳統(tǒng)產(chǎn)業(yè),有哪些技術已經(jīng)得到應用?
傳統(tǒng)產(chǎn)業(yè)將如何與AI相結合創(chuàng)造新的生產(chǎn)力?
參加本次綠公司年會之前,我們先從下面這篇文章對人工智能這個革命性的領域進行一些根本的探討吧。
換個角度看AI
追溯人工智能研究的歷史和哲學邏輯
編譯 | Zoe Zuo、HAPPEN、丁慧、小魚
來源 | 大數(shù)據(jù)文摘(BigDataDigest)
人工智能發(fā)展迅速且應用廣泛?,F(xiàn)實生活中AI技術的發(fā)展聽起來像科幻電影,而科幻電影則更像是另一種畫面感十足的現(xiàn)實場景。經(jīng)過幾十年的探索,AI技術可以說已趨于成熟,然而人們依舊固執(zhí)己見,業(yè)內(nèi)人士乃至全世界都對其可行性仍持懷疑態(tài)度。
類似的情形出現(xiàn)在瑪麗•雪萊(Mary Shelley)創(chuàng)作的哥特式小說《弗蘭肯斯坦》(Frankenstein)中。小說探討了將人造生命創(chuàng)造出來并引入社會所產(chǎn)生的一系列后果。令我們困惑的是,書中的怪人一方面做出毫無人性的暴行,另一方面又展現(xiàn)出同人類一樣的弱點,對友情的需求以及對于自我存在的危機感。
有人說我們應該關注新發(fā)現(xiàn)的前景與后果。但是,如果把機器人大軍引入到像當今社會這樣復雜的系統(tǒng)后產(chǎn)生混亂呢?也有人說我們要關注取得的成就,以及那些將此類想法落地的成功案例。然而,在偶然的成功和理論支撐的結果之間我們又該如何抉擇?
不妨集中注意力,一起理智地來追溯AI的歷史淵源吧!
不管你感興趣的是古希臘哲學家邏輯思考的規(guī)則,還是阿拉伯數(shù)學家的公式推導,亦或是19世紀歐洲知識分子對數(shù)學的狂熱。一個不爭的事實是:問題遠遠比你想象的更為深刻(即便考慮摩爾定律)。
“我們?nèi)蘸蟪蔀槭裁礃拥娜酥饕Q于父輩們在不經(jīng)意間的教導,除此之外,我們由零零碎碎的智慧所塑造。”
——Umberto Eco
本文接下來的內(nèi)容將討論AI的發(fā)展史,包括一些重要人物所提出的相關問題、論證和看法。其中涉及的事件大部分都發(fā)生在20世紀60年代左右,同時期,也逐漸形成了AI的正式定義、發(fā)展目標、科研群體與反對者等。
機器可以思考嗎?
1950年,艾倫·圖靈(Alan Turing)試圖在他具有開創(chuàng)性意義的論文《計算機器與智能》中回答這個刻意簡化的問題。論文部分內(nèi)容的含義并不明確,而且限定了人們對人工智能的理解。為此圖靈設計了一個思維實驗,這就是著名的圖靈測試:
參與者A是男性,參與者B是女性,參與者C的性別未知。C扮演詢問者的角色,雖然無法看到A和B,但可以用客觀的語句和兩人進行交流。通過向A和B提問,C要試著確定A和B的性別。A的任務是迷惑C,讓C做出錯誤的決定,而B則要協(xié)助C做正確的決定。
將問題重新設計,如下:
如果由一臺機器來扮演A的角色,會發(fā)生什么?這種情況下,詢問者做出錯誤決定的頻率會與角色A、B由兩個真人扮演時一樣嗎?
圖靈的方法似乎遵從了鴨子測試(duck test)的原理:如果它看起來像只鴨子,像鴨子一樣游泳,像鴨子一樣嘎嘎叫,那它大概就是只鴨子。
當談及人類相關的智能,例如意識,圖靈的觀點是,不能因為某人(或某物)不具備尚未定義的特征而對其否定。因此,意識與我們對AI的探索無關。
哥德爾不完備定理(Gödel’s incompleteness theorems)是我們試圖談論AI時面臨的一大障礙。根據(jù)這一系列定理,數(shù)學邏輯無法具備完備性和相容性。因此,以數(shù)學邏輯進行學習的機器往往無法觸及到一些真理。圖靈對此的回應倒讓人長舒一口氣:你怎么知道人類智力就不存在局限性呢?
小貼士:哥德爾不完備定理是庫爾特·哥德爾于1931年證明并發(fā)表的兩條定理。
簡單地說,第一條定理指出:任何相容的形式系統(tǒng),只要蘊涵皮亞諾算術公理,就可以在其中構造在體系中不能被證明的真命題,因此通過推演不能得到所有真命題(即體系是不完備的)。
把第一條定理的證明過程在體系內(nèi)部形式化后,哥德爾證明了他的第二條定理。該定理指出:任何相容的形式系統(tǒng),只要蘊涵皮亞諾算術公理,它就不能用于證明它本身的相容性。
圖靈的這篇論文論證充分,具有清晰的辯證結構,然而,因為論文推測的技術尚未被發(fā)現(xiàn),圖靈的論述也被擱置。
邁向人工智能
馬文·明斯基(Marvin Minsky)是人工智能研究領域的先驅(qū)之一。翻開人工智能家族塵封的相冊,明斯基就是給家庭聚餐添上些許不安的老人:“明斯基老叔,他迷人,與眾不同,講話總是很有趣。”
明斯基是1956年達特茅斯會議(the Dartmouth Conference)的組織者之一。在這次會議上,Artificial Intelligence作為術語首次被提出,同時也作為一個領域而誕生。明斯基對AI的切實可行充滿信心,但他不看好用錯誤的探索方式,他也因此被人們所銘記。
1961年,明斯基被問及AI領域所取得的進展。讓我們看看他說了什么:
我們應該先問問什么是“真正的”智能?我覺得這更像是一個美學問題,或者關乎一種尊嚴感,而不是一個科技問題!對我來說,“智能”不過意味著各種性能的綜合,我們關注這些性能但無法理解。所以,這個問題通常和數(shù)學上“深度”問題相伴相隨。一個定理的證明一旦被真正理解,它的內(nèi)容就變得無關緊要了。
定義AI固然困難,明斯基承認這一點,因此他將繼續(xù)探索。他的著手點是為AI確定幾大發(fā)展支柱,即搜索、模式識別、學習、規(guī)劃和歸納。
項目的終極目的是通過探索獲得AI的解決方案。通過模式識別可以確定適合AI的工具,通過學習以往的經(jīng)驗可以對現(xiàn)有的算法進行改善,通過規(guī)劃可以更高效地研究AI。至于機器能否獲得歸納與推理能力,明斯基說道:
目前根據(jù)哥德爾不完備定理,還沒有一個歸納推理系統(tǒng)能有效適用于所有體系。但是,給定一個體系(例如我們的世界)或者一些體系的集合,以及一套成功的標準,實現(xiàn)機器的認知就是技術性問題,而非空想。
明斯基在接下來的回答中多次重申,要實現(xiàn)AI應該通過各種復雜的分層架構。基于這一點,他質(zhì)疑感知機算法,因為這一算法連中等難度的問題都解決不了,何況實際問題更加復雜。
明斯基的論斷挫敗了大眾研究感知機的信心,從而耽誤了深度學習的發(fā)展。通過進行深度架構,即使利用簡單的構件也可以解決復雜的問題似乎在為明斯基開脫。不管怎樣,明斯基的確具備獨特的洞察力。
然而,因為幫助業(yè)界發(fā)現(xiàn)了各種原始方法的缺陷,明斯基的言論具有建設性意義。此外,深度學習或許是目前為止我們所探索到的最佳算法(還催生了各種很棒的應用),但絕不是AI的終極算法。
想法、大腦和程序
1980年,約翰·希爾勒(John Searle)對于AI的發(fā)展很不滿。盡管早些時候他強烈反對強人工智能的概念,但這次他決定公開反駁。事實上,即使標題聽起來有些諷刺。但我仍感覺希爾勒在揪著我的衣領,大力揮舞他的手,指著我說:“年輕的小伙子,讓我?guī)湍銖母旧蠀^(qū)分一下吧。”
“你可能會有這樣的印象:AI領域中寫有關強人工智能的人認為他們可以避重就輕,因為他們沒有認真研究過這個理論,并認為其他人也一樣。至少我會發(fā)聲質(zhì)疑,并認真研究。”
希爾勒只攻擊強人工智能這個概念,他認為這是一種計算機能夠模仿任何人類行為的能力。而所謂計算機擁有認知能力的觀點,亦可通過類比被推翻。由他提出的著名的思想實驗“中文房間實驗”論證了這一觀點,實驗過程如下:
假定某人被關在一個只有中文字符的房間里,而他只懂英文,對中文則一竅不通,甚至說不出中文字符與日文字符的區(qū)別。他在屋內(nèi)完全是通過英文規(guī)則手冊操作著屋外遞進來的中文紙片(問題),這些字符需要通過英文形式的句法來確認,之后通過擺弄這些字符再將信息遞送出去(回答)。恭喜!通過這個程序你就學會了中文。
這就是希爾勒于1980年提出的中文房間實驗。思想實驗本身并不是一個實驗,因為它無法實際操作,而是探索一個想法的潛在結果。最古老也最有名的思想實驗,可能是伽利略的比薩斜塔實驗(你是否也認為伽利略真的從塔上往下扔蘋果?)。
希爾勒的觀點是,能夠給出中文問題答案并不意味著懂中文,而這種能力也并非取決于由哪種語言書寫規(guī)則。因此,給予適當算法后產(chǎn)生預期輸出的計算機,不是一個“會思考的”個體。
就某些功能推理而言,希爾勒質(zhì)疑的是一個程序的思考能力。他指責當今的AI研究人員存在行為主義和操作主義,試圖將程序與頭腦等同(事實也如此),而忽略了大腦的重要性。
希爾勒認為,認知只源于生物行為;而程序可以完全獨立運行(因為它不受硬件平臺的限制),因此程序并不具備認知能力。
當閱讀他的原文時,你會感覺到希爾勒正在攻擊一個尚未成熟的計算機科學家社區(qū),而這個社區(qū)關于什么是智能并沒有達成共識,只是試圖通過技術手段和推測來模擬機器智能。
如同一般哲學方法中的虛無主義一樣,明斯基回應希爾勒:“應該忽視希爾勒的誤解。”
大象不會下棋
即使大象不會下象棋,你也沒有理由責備它們。“大象不會下象棋”( Elephants Don't Play Chess)是羅德尼·布魯克斯(Rodney A. Brooks)在1990年發(fā)表的一篇論文,試圖采用論據(jù)和他的機器人隊伍來支持AI。羅德尼·布魯克對AI的發(fā)展做出了卓越的貢獻,經(jīng)典的AI理論中應該有他的一席之地。
在那個時代,人工智能正經(jīng)歷著第二個寒冬。企業(yè)和政府也意識到不能對AI抱有過高期望而削減了資金。
所以是時候反省了。當一件事情從根本上失敗時,有兩種方式來理解:要么是這件事情不可能完成,要么采用了錯誤的方法。
布魯克斯認為AI停滯不前是因為研究人員過于關注函數(shù)表達式。符號系統(tǒng)假設就是關于機器智能如何運作存在已久的觀點。根據(jù)這個假設,世界上的人、汽車和情感等眾多實體,可以很自然地將它們與符號相匹配,并輸入給計算機。如果該假設成立,那么只要提供必要的信息便能使計算機擁有智能。
盡管這個假設看起來沒有問題,但它在某種程度上誤導了AI的發(fā)展:
符號系統(tǒng)不足以描述整個世界。根據(jù)框架問題,定義任何尚未明確存在的事物是一種邏輯錯誤。因此,布魯克斯建議:為什么不把整個世界作為它自己的模型?
簡單計算無法衍生機器智能。啟發(fā)式算法的大量使用是訓練智能算法的必經(jīng)之路,但這與我們嘗試創(chuàng)造知識的初衷背道而馳。(網(wǎng)格搜索是對人類智力的侮辱。)
當AI的發(fā)展目標是尋求一種通用人工智能模型時,就出現(xiàn)了布魯克斯稱之為混淆的現(xiàn)象:大量的研究表明智能算法的適用場景并不明確。機器智能確實具有吸引力,正因為如此,人類對知識的探索才永無止境。
布魯克斯并不支持物理根據(jù)假設(physical grounding hypothesis)。也就是說,讓人工智能直接與世界交互,并將其用作自己的表示。上述假設與AI現(xiàn)在的發(fā)展之間還有很大的差距:從學習需要巨大的計算資源、專家的指導到總不夠用的訓練數(shù)據(jù);布魯克斯還設想,為AI配備物理實體和廉價硬件并將其銷售到世界各地。要解決這個問題并不容易。
布魯克斯認為機器智能是集群行為而不是復雜行為。或許他實驗中最深刻的見解是,“目標導向行為源自于簡單的無目標導向的交互行為。”無需預設協(xié)同模式,因為智能計算機可以制定出自己與世界交互的最佳策略。
布魯克斯關于AI發(fā)展的討論為我們證明了物理根據(jù)假設的重要性:人類是我們最常見和最親近的智能體。因此,當我們試圖重新創(chuàng)造這種智能特征時,就需要觀察人類文明緩慢的形成過程。如果考慮到人類學習智能行為所需的時間,如交互、繁衍和生存,與我們尚未成熟的下棋程序相比,便可以得出結論:學習行為或許是最難開發(fā)的技能,也是我們應該要關注的重點。
布魯克斯雖然對自己提出的實用方法很滿意,但也承認其理論局限性,但他歸因于學術界尚未提出讓大家透徹理解人群動態(tài)交互行為理論。
再一次,工程師漠視了哲學界的異議:
“如果我們的策略不能說服高高在上的哲學家,至少我們的技術將徹底改變我們生活的世界。”
AI的進步
盡管涌現(xiàn)出大量問題,但是我們不能質(zhì)疑AI的進步。不管怎樣,目前得益于技術的進步出現(xiàn)了很多不錯的AI應用。如果忽略它們的存在去衡量當前研究質(zhì)量是沒有意義的。
深度學習是否能成為實現(xiàn)機器智能的有效工具?還是說,這是AI進入寒冬之前另一個間冰期?
更重要的是,人們關注的角度已經(jīng)開始從純粹的哲學問題轉(zhuǎn)向社會層面,而AI對日常生活的需求已遠比理解概念、哲學和智能本身更加明顯和迫切。不過,這種轉(zhuǎn)變可能是一個更難以回答的問題,進而促使我們深入研究。
當維特根斯坦(Wittgenstein)撰寫《邏輯哲學論》的時候,他面臨著為難的選擇:他的論點與他的學說相悖。也就是說,如果他的學說是正確的話,那么他的論點就是不合邏輯的,因此他的學說應該是錯誤的。但是維特根斯坦對此有不同的看法:
“我的論點可以這樣解釋:當人們從開始學習到徹底理解后,便會認為它毫無意義。”
因此,我們需要用發(fā)展的眼光去理解隱含在復雜概念背后的真理。我們要堅定地邁出前進的步伐,也要做好隨時放棄的準備。因為并不是每一步探索的結果都是正確的,但是我們需要理解每一步探索的過程。所以后來,當維特根斯坦談到這個論點時,他說自己不需要梯子就能夠直達真理。
或許在AI的發(fā)展過程中,我們?nèi)匀恍枰獏⒖季S特根斯坦的論點。
原文鏈接:
https://medium.freecodecamp.org/deeper-ai-a104cf1bd04a