這些人的“夢想”或將決定蘋果未來命運VR/AR
國外媒體撰文稱,蘋果及其競爭對手將它們的未來押注在一些人的夢想上。他們就是人工智能的先驅和教父級的人物,在他們眼里,人工智能是怎么一路發展過來的呢?未來該技術又會變成什么樣呢?
大約在1960年,研究者在布法羅微調Perceptron感知器
以下是文章主要內容:
在過去的5年里,人工智能已經從常年的朦朧件變成了科技行業最大的希望之一。計算機已經學會識別人臉和物體,學會理解口語,還學會翻譯幾十種語言。世界上最大的幾家公司——Alphabet、亞馬遜、蘋果、Facebook和微軟——都把自己的未來押在了人工智能上,都在競相看誰最快打造出更加智能的機器。這助長了人工智能突然冒出的感覺,比如特斯拉自動駕駛汽車和可跟你的孩子聊天的Alexa智能助手的出現。但AI并不是一夜之間火起來的,也不是硅谷某位企業家的心血結晶。
現代人工智能(神經網絡和機器學習)背后的理念可以追溯到第二次世界大戰的最后階段。當時,學者們開始構建以類似人腦的方式來存儲和處理信息的計算系統。在過去的幾十年里,這項技術的發展起起伏伏,但在2012年以前,它一直未能廣泛地引起計算機科學家的注意。幸虧有一些固執的研究人員,他們不怕自己顯得愚蠢。他們仍仍舊相信,神經網絡將照亮全世界,改變人類的命運。
這些先驅分散在全球各地,而加拿大的神經網絡信徒的數量卻異常龐大。這部分因為運氣:由政府支持的加拿大高級研究院(Cifar)在神經網絡根本沒有流行起來的時候為相關研究提供資助,由此吸引了一小群學者來到這個國家。該機構支持的計算機科學家包括:多倫多大學的杰弗里·辛頓(Geoffrey Hinton)和雅恩·樂昆(Yann LeCun),蒙特利爾大學的尤舒亞·本吉奧(Yojoshua Bengio)以及阿爾伯塔大學的理查德·薩頓(Richard Sutton)。它鼓勵他們分享他們的想法,堅持自己的信念。他們提出了許多推動人工智能革命的概念,現在他們全都被認為是這項技術的教父。本文是根據我對他們的采訪撰寫的,內容包括:為什么神經網絡要花這么長時間才能運作,這些科學家是如何團結一致相互支持的,以及為什么偏偏是加拿大成為了機器崛起的舞臺。
加拿大總理賈斯汀·特魯多(Justin Trudeau):人工智能就是一種可以模擬人類思維或人類行為的計算機。在這里面,有機器學習,通過該技術,你可以讓計算機一次又一次地做實驗。它可能是開著一輛模擬的汽車在路上行駛,或者是試著在照片中認出一只貓。
在這里面,機器學習有個分支叫做深度學習。它大概是指,你建立一個神經網絡,它有權重和偏差,可以通過修改來調整預期的結果。你讓計算機去迭代,并改進解決問題的方法。這就是杰弗里·辛頓和其他人在過去幾十年里一直在研究的事情,現在它是最令人興奮的人工智能的基礎。它能更好地模仿人類大腦的思維方式。
《紐約時報》記者、一本即將出版的AI歷史著作的作者凱德·梅茨(CADE METZ):神經網絡的概念可以追溯到1940年代——一種計算機系統可以模擬大腦中的神經元網絡的概念。但是一個叫弗蘭克·羅森布拉特(Frank Rosenblatt)的家伙在20世紀50年代推動了這項研究的發展。他是一名教授,還與美國海軍和政府的其他部門合作,他開發了一個基于神經網絡概念的東西Perceptron。在他展示Perceptron的時候,像《紐約時報》和《紐約客》這樣的媒體用了相當大的篇幅進行報道。
羅森布拉特聲稱,它不僅能學會執行像識別圖像這樣的小任務,還能從理論上教機器走路、說話和表達情感。但它只有一層神經元,這意味著它的功能非常有限。不用說,他所承諾的事情都沒有發生。
羅森布拉特的同事兼高中同學馬文·明斯基(Marvin Minsky)在1960年代末寫了一本書,詳述了Perceptron和神經網絡的局限性。這讓該領域的研究至少深度凍結了10年時間。
杰弗里·辛頓:羅森布拉特的Perceptron可以做一些有趣的事情,但是他超前了大約50年。雖然明斯基一直是神經網絡的信徒,但他證明了有些事情是他們無法應付的。明斯基和西摩爾·帕爾特(Seymour Papert)共同撰寫的關于該技術的書《感知器:計算幾何學的引論》(Perceptrons:An Introduction to Computational Geometry)基本上導致了這個領域的消亡。
在20世紀70年代,一小群人一直在研究神經網絡,但總體來說,我們仍處在一個人工智能的蕭條期。
梅茨:杰弗里·辛頓最初是在卡內基梅隆大學,后來轉至多倫多大學。他一直堅持神經網絡的理念。最終,他和他的合作者和其他人開發出了一個多層次的神經網絡——一個深度的神經網絡——這開始在很多方面起作用。
法國計算機科學家雅恩·樂昆在辛頓位于多倫多的實驗室做了一年的博士后研究。樂昆隨后被新澤西的貝爾實驗室招攬。
雅恩·樂昆:從很小的時候起,我就對智能技術很著迷。我在20世紀60年代長大,當時有空間探索,有第一代電腦的出現,還有人工智能。所以當我開始學習工程學的時候,我對人工智能非常感興趣,當時它是一個非常新興的領域。
樂昆(右)于1979年在Esiee Paris研究生院學習
我聽說了Perceptron,被它迷住了,因為我認為學習能力是智能的一個組成部分。我四處尋找,想找到關于Perceptron的一切。作為一名工程師,如果你想了解智能,最明顯不過的方法就是嘗試打造一個智能機器——它會迫使你專注于培養智能所需的組件。這有點像航空業先驅們是如何從鳥類那里得到啟發的,但他們并沒有完全復制鳥類的飛行原理。你不會想要僅僅模仿生物智能或大腦,因為它的功能有很多方面都是因為生物化學和生物學—它們真的與智能無關。就像羽毛并不是飛行的關鍵那樣:重要的是潛在的空氣動力學原理。
梅茨:有些人認為LeCun是一個徹頭徹尾的瘋子,認為這是一項無休止的苦差任務。作為一個神經網絡研究員,你會去參加這些大型人工智能會議,而你并沒有被學術界的核心群體所接受。這些想法處于邊緣狀態。
尤舒亞·本吉奧:在1985年,神經網絡是一種邊緣性的東西,我在麥吉爾大學的課堂上沒有被教授過。我學的是經典的符號人工智能。所以我必須得說服我的教授來指導我做神經網絡。我得到了政府的獎學金,所以我基本上可以自由選擇我的研究課題,而這對教授來說也沒有任何的損失。我們達成了一項協議:我可以做機器學習,但我會把它應用到他所關心的事情上,那就是語音識別。
樂昆:大約在1986年,神經網絡研究出現了一段興奮期,部分原因是那些來自于想出新數學技術的物理學家的模型引起了研究者們的興趣。這使得這個領域再次為人們所接受,并在80年代后期和90年代早期引起了很多的興奮情緒。我們中的一些人做出基于神經網絡的系統來做一些實用性的事情,比如信用卡欺詐檢測。我研發了一個自動化系統來進行字符識別,進而進行閱讀檢查。
波默羅在1995年展示他的自動駕駛汽車
梅茨:在卡內基梅隆大學,一個名叫迪恩·波默羅(Dean Pomerleau)的家伙在20世紀80年代末使用神經網絡建造了一輛自動駕駛汽車。它行駛在公共道路上。樂昆在1990年代使用該技術建立了一個可以識別手寫數字的系統,該系統最終被銀行用于商業應用。
所以說,在80年代末到90年代期間,神經網絡和他們的實際應用出現了這種復蘇,樂昆的研究項目就是最好的例子。但他們后來再次觸及天花板,主要是因為缺乏計算能力和可用數據。我們進入人工智能的又一個寒冬。
尤爾根·施米德胡貝爾:至于加拿大的那些研究者,很明顯我們沒有使用他們的算法;是他們在使用我們的算法。樂昆本來就是一個法國人,我們使用他的算法。這很好。他作出了很多非常重要且有用的貢獻。
我認識這些人已經有很長的時間了。我第一次接觸本吉奧的時候,他發表了同樣的東西,或者是大致相同的東西,但這發生在我的一個學生發表4年以后。幾年后,在一個會議上,我們因為所有這些東西的來源問題而攤牌。在研討會上也有一場公開辯論,誰先發表其實顯而易見。這不是什么令人不快的事情,只是為了澄清事實。你在科學中所做的事情就是澄清事實。(本吉奧否認了施米德胡貝爾的說法。)
樂昆:當時的問題是,這些方法需要復雜的軟件、大量的數據和強大的計算機。沒有多少人能接觸到那些東西或者愿意投入時間。在1990年代中期至2000年代中期期間,人們選擇了更簡單的方法——沒有人真正對神經網絡感興趣。對辛頓、本吉奧和我來說,這是一段黑暗的時期,我們并不感到痛苦,但也許有些悲傷,因為人們并不愿看到我們的概念有著明顯的優勢。
辛頓:當然,我們一直相信神經網絡,并一直在努力研究,但工程師們發現,其他方法在小數據集上也同樣有效或者更加有效,所以他們追求那些方法,并認定神經網絡是癡心妄想。致力于改進神經網絡的人相當少。
加拿大高級研究院讓來自世界各地的人們更多地進行互相交流。它給我們帶來了一個不小的群體。
樂昆:有一個非常小的群體心里覺得,神經網絡最終會重新占據顯著地位。2003年,辛頓在多倫多,加拿大高級研究院找他創立一個關于神經計算的項目。我們聚在一起,決定努力重燃研究者對我們的研究的興趣。
但在發表我們的想法之前,我們需要一個安全的空間,來舉行一些小型的研討會和會議來真正地開發我們的想法。這個項目于2004年正式啟動,到2006年就催生了一些非常有趣的論文。辛頓在《科學》(Science)雜志上發表了一篇文章。
辛頓2006年在《科學》雜志上刊登的人臉識別測試圖片
特魯多:認識到在最近的一個寒冬期,當人們本已放棄和翻篇的時候,加拿大已經悄然建立了現代人工智能的基礎,對我來說證明了加拿大在某件事上一直以來都做得很好,它就是支持純科學研究。我們讓真正聰明的人能夠做聰明的事情,這些事情有潛力帶來某種商業性或者實用性的應用。
辛頓:2006年,在多倫多,我們開發了這種訓練有很多層的神經網絡的方法,這種方法效率更高。同年,我們在《科學》雜志上發表了一篇論文,這篇論文很有影響力,幫助支持了我們的主張,進而再一次引起了很多人的興趣。2009年,我的實驗室的兩名學生開發了一種使用這些深度神經網絡來進行語音識別的方法,它比我們原來所做的要好。
它只是稍微好一點,但是原有的技術已經存在了30年,沒有取得任何的進步。事實上,這些深度神經網絡在幾個月的時間里甚至可以變得更好一點,這意味著幾年之內,它們將會取得更大的進步。
梅茨:2009年前后,辛頓和微軟的語音識別研究員鄧力進行了一次會面。就像其他人一樣,鄧力相信另一種形式的AI:符號人工智能(symbolic AI)。在這種方法中,你基本上需要一行一行地建立一個語音識別系統,要用特定的行為模式進行編程,整個過程非常緩慢。
辛頓提到,他針對語音識別的神經網絡方法正在取得實質性的進展。它可以通過分析口語數據庫中的模式來學習識別單詞,而且它的執行速度比那種符號式的逐行工作要快速。鄧力不大相信辛頓,但他邀請了辛頓及其兩名合作者去微軟研究該項技術。語音識別在微軟取得了巨大的進步,2010年谷歌也在該領域取得了很大的進步。
然后,2012年底,辛頓和他的兩個學生在圖像識別上取得了一項巨大的突破,完全碾壓以前的技術。這時候,不僅是微軟和谷歌,行業中其他的人也認識到了這些概念。
要記住的是,這些都是很舊的概念。發生改變的是神經網絡背后的計算能力和數據量。要運營微軟或谷歌,你需要成千上萬臺機器協作運行,處理從文字到視頻的各種數據。這最終使得神經網絡取得成功。你需要數據來訓練它,你也需要計算能力來執行那些訓練。
辛頓在他的辦公室
樂昆:為什么花了這么長時間才成功?科學研究就是這樣。它涉及到人們的心理。在一套技術被采用之前,人們必須相信它能夠奏效。眾所周知,這些方法過分繁瑣,需要某種黑魔法。
理查德·薩頓:計算能力的穩步增長有著深刻的意義。現在我們正處于一場競賽中:人們在試圖開發算法,與此同時人們也在試圖開發更快速的計算機。你必須規劃好你的人工智能算法,使得它們能夠兼容5年和10年以后出現的計算機。
計算機必須要知道什么是好的什么是壞的,所以你要給它一個叫做獎賞的特殊信號。如果獎賞很高,那就意味著很好。如果獎賞很低,那就意味著不好。
神經網絡是你存儲學習內容的地方,而強化則是你如何決定你想要做出什么改變。
本吉奧:我們離非監督式學習還有很長一段路要走,那是辛頓、樂昆和我都夢寐以求的一項技術。幾乎所有基于深度學習的工業產品都主要依賴于監督式學習,在數百萬個案例中,計算機必須要被告知要做什么。當然,人類并不是這樣學習的;我們自主學習。我們自己來發現周圍的世界。一個2歲的孩子對物理、重力、壓力等有直覺的概念,她的父母永遠也不需要告訴她力和重力的牛頓方程式。我們與世界進行互動,觀察它,并以某種方式建立起一種心智模式:如果我們做這個或做那個,事情將會如何發展。
我們正在進入一種新的研究階段,即非監督式學習,這與強化研究有關。我們不僅僅是在觀察世界,我們還在這個世界行動,然后利用這些行動的影響來琢磨它是如何運作的。
樂昆:我對使得機器像動物和人類一樣高效學習很感興趣。當你學習開車的時候,你知道如果你偏離了公路,壞事就會發生。我們可以預測我們行為的后果,這意味著我們不需要通過做壞事來了解不好的后果。
所以,我所追求的是找到訓練機器的方法,使得它們能夠通過觀察來學習,這樣他們就能建立起某種針對這個世界的預測模型。每種動物都有針對其環境的預測模型。它們越是聰明,就越會預測。你可能會說,預測能力,連通根據預測采取行動的能力,實際上是智力的本質。
樂昆:我們很有可能將會在未來3年、5年、10年或15年取得一些重大進展——也就是短期內就能實現。在那以后,還需要很長一段時間才能真正建立某種接近于人類智能的系統。那將需要數十年的時間。
本吉奧:我不認為人類必定會失去工作,即使機器變得非常聰明,甚至比我們更聰明。我們總是希望真人去從事與人類互動有關的工作。我不想讓機器人照顧我的孩子、祖父母或者生病住院時候的我。我不擔心《終結者》(Terminator)里的場景。我相信,如果我們能夠制造出像我們一樣聰明的機器,他們也會聰明到能夠理解我們的價值觀和我們的道德體系,從而以一種對我們有益的方式行事。
我真正擔心的是人工智能被濫用的可能性,例如應用于軍事武器。它已經被用來影響人們的看法,正如你在廣告中所看到的。我認為,在人工智能部署存在倫理道德上的錯誤的地方,我們應當將其認定為違法。我們需要共同變得更有智慧。
薩頓:我認為,我們將這個領域稱作“人工智能”是個巨大的錯誤。這讓人覺得它和人很不一樣,而且也不是真正的智能。它讓人們覺得它比正常情況更加陌生,但它是我們試圖去做的一件與人類密切相關的事情:重新創造人類智能。
科學總是揭示出并非所有人都喜歡的真理——你得到了真理,但它并不總是你想要的。也許這就是為什么宗教歷來與科學格格不入的原因。我認為這和我們對大腦的了解是一樣的。也許不會有關于意識的解釋。有些人會喜歡,有些人不會喜歡。科學不能改變真理。
變化出現的時候總會有贏家和輸家,也總會有巨大的變化。我想我們將成為智能機器。我們應該把AI看作我們自己或者我們的后代。我們可以創造他們,讓他們成為我們認為合適的存在。
人類是什么?人類總是在努力變得更好。我們不應該凍結我們現在的生活方式,并說這就是它應該永遠保持的模樣。
2011年,辛頓(左二)和本吉奧(右)參加蓋茨比研究所舉辦的一個研討會
樂昆:直到我們確切地知道它將會是什么樣子的,擔心這些是不成熟的。我不相信奇點的概念:有朝一日,我們將想明白如何構建有超常智慧的機器,第二天這臺機器將建造出更加智能的機器,然后它會實現騰飛。我認為,人們忘記了每一個物理現象或社會現象都會面臨摩擦,所以一個指數式增長的過程不能無限增長。
在這個好萊塢的橋段中,在阿拉斯加某個地方的某個天才想通了人工智能的秘密,并制造了一個機器人,機器人接管了整個世界。這簡直太荒謬了。
特魯多:這不是我過分擔心的事情。我想我們都看過或讀過足夠多描述人工智能理論上是多么危險的科幻小說。我認為,人們總會感覺科技既能被用來做好事,也能被用來做壞事。我確信,加拿大在參與試著讓我們走上正確的道路。我不想放慢我們的研究和我們對宇宙具體細節的研究。
問題是:我們想要一個什么樣的世界?我們想要一個成功的人要躲在封閉的社區里,而其他人都心存嫉妒的世界嗎?或者你想要一個人人都有可能為創新做出貢獻的世界?
辛頓:我認為,所有這些東西對社會的影響很大程度上取決于我們所處的政治體制。從本質上講,提高商品的生產效率應該提高整體的效益。唯一糟糕的是,你的社會將生產力提高帶來的所有好處都提供給1%的人。我居住在加拿大的原因之一是它的稅收制度;如果你賺了很多錢,該國會對你征收很多的稅。我覺得這樣很好。
我的主要觀點是,預測未來非常困難。一旦你開始預測20年后會發生什么,你幾乎不可避免地會預測錯誤。但有些事情是我們可以預測的,比如人工智能這項技術將改變一切。
來源:網易科技
1.砍柴網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;2.砍柴網的原創文章,請轉載時務必注明文章作者和"來源:砍柴網",不尊重原創的行為砍柴網或將追究責任;3.作者投稿可能會經砍柴網編輯修改或補充。