人類思維遭AI破譯,機器可能很快可以像人一樣思考業界
據外媒報道,近日,日本研究人員成功借助人工智能破譯了人類的思維和想象,從而在理解人類思想及其背后的大腦機制方面取得了重大的突破與進展。
這看起來非常新鮮,但并非是科學界在這方面首次取得突破,而且這種突破也不是個例。破解人類思維的內容與方式一直是科學界長久以來的愿望,在人類的努力和技術進步的共同作用下,人類在這一方面取得了重大突破。這意味著,人工智能在未來有可能會像人一樣思考。
那么,人類是如何做到讓人工智能模仿人類思考的?這種技術的成熟度又到了怎樣的地步?青出于藍而勝于藍,在人工智能理解人類甚至是有了自主意識之后,人類又該如何與之“和諧共處”?這都是值得我們認真思考的問題。
一、人工智能仿人類思考成果頗多,技術在其中起到重要作用
在此次研究取得突破之前,出現了許多促使人工智能破譯人類所見、回憶、想象和夢境內容的研究。早在2008年,日本的另一個科學家團隊直接在電腦屏幕上成功地重現了從人類大腦活動中獲取的圖像。
然而,以往的研究存在著諸多障礙。由于個體的大腦內容具有獨特性,故而很難創建思維模式的目錄。而且這些模式都要和少數預編程圖像相結合,而要完成這一階段就必須對實驗參與者接收的長期的、高成本的圖像測試進行大量的處理,難度頗大。
不過,隨著人工智能技術的不斷進步,該領域的研究進入了一個新的階段。
日本京都大學教授神谷之康及其團隊日前在《自然·通訊》中發表研究報告稱,根據其團隊的研究成果,發現可以利用人工神經網絡破譯人類的大腦活動,將其轉為可理解的信號。
在這一研究中,人工神經網絡其實就是一種在實驗室造神經元基礎之上建立起的計算機模型。通過傳統的算法技術,人工神經網絡能夠制造出具有理解能力和解決難題能力的計算機軟件,它的運行方式類似于人類大腦神經元,能夠解讀人類思維。
成就不止來源于日本科學團隊,在太平洋彼岸的美國,谷歌AI也同樣能夠像人類那樣思考,甚至能創作出“藝術作品”了。
《大西洋月刊》是美國最受尊敬的雜志之一。最近《大西洋月刊》撰文稱,人類最早在巖石上畫圖的時候,就意味著認知躍進已經實現。如今,計算機也在學習做同樣的事情。最主要的表現,是谷歌AI能夠通過人類那樣的思維方式去完成繪畫。
例如,讓我們去畫一輛車和一頭豬,我們會這樣畫:
這非常簡單。然后,我們被要求畫個“豬卡車”。按照人類的思維模式,會想辦法將二者結合起來,于是就變成了這樣:
車輪變成了小豬蹄,駕駛室應該是小眼睛,豬鼻子是車頭。單就這幅畫來看,的確是對“豬卡車”很有創意的解讀。不過,這并不是人類的作品,而是來自于人工智能系統SketchRNN。這一系統是谷歌AI項目Project Magenta中的一部分,旨在探究AI能否創作藝術。
該項目負責人Doug Eck表示,
SketchRNN的意義遠不止學習如何繪畫,而是在于“用類似于人類的方式概括歸納抽象的概念”。換言之,該團隊并非只是為了打造一臺能夠畫豬的機器,而是使機器能夠識別出“豬的特征”。比如,即便是機器只得到諸如“卡車”這類的提示性語言,也能夠不受任何影響地做出準確判斷。
這其中隱含的意思是,人類在繪畫過程中,會對外部世界產生抽象概念。我們畫出的是“豬”的廣義概念,而非某頭特定的豬。換言之,人類如何畫豬,和大腦中如何儲存“豬的特征”這一信息相關聯。學習如何畫豬,就能學會人腦合成“豬的特征”的能力。
以上就是谷歌AI軟件的運作模式。此外,谷歌還開發了一款名為“Quick, Draw!”的游戲,在游戲過程中,會生成一款涵蓋雨、救火車、瑜伽動作、貓頭鷹等人類格式繪圖的龐大數據庫。
這種項目所產生的圖像看上去與人類對現實世界的觀察相差無幾,讓人覺得既不可思議,又相當有趣。Eck表示:“人類……并不是把世界當成一個像素網格去理解,而是發展出抽象的概念去表示我們所看到的東西,而我們從小時候就能夠通過用鉛筆或者蠟筆在紙上繪畫來傳達我們所看到的東西。”
實際上,這一切都要歸功于人工智能深度學習的能力,這種能力需通過對海量數據的解析方可獲得。
此前,日本科學家利用DNN(深度神經網絡)架構克服了在破解與人類思維、想象及夢境有關的研究中遇到的一些障礙。
神谷之康表示:“我們研究證實,深度神經網絡的信號模式可以被用來識別一個人看到或想象的物體”。解碼器獲得神經網絡信號模式,將其與大數據庫中的影像進行比對,用這種方式對人類所見所思的物體進行識別,成功率相當高。
而在谷歌SketchRNN中,機器學習則是被采用的最為廣泛的概念。通過編程,使計算機通過自學的方式,掌握如何執行不同類型的任務,常見方式是通過連接系統為原型的神經網絡,給計算機注入標簽數據來進行“訓練”。在這一過程中,不同的人工神經元節點會相互連接,不同的權重會對部分輸入信息做出響應,但不會響應其他的輸入信息。
由此可見,在技術進步的背景下,人工智能在模仿人類思維這一領域已然取得了引人矚目的成果。可以大膽猜想,人工智能在未來也可能會擁有自主意識,而如何與之相處,就成了一個值得被重視的議題。
二、人工智能或在未來擁有自主意識,神經網絡起重要作用
關于人工智能是否能夠模擬人類思維的問題,可以從技術層面加以分析。
AI的本質是函數,但并非輸入或輸出的簡單映射,而是個動態逼近某一極值的函數,這種過程是依靠函數的迭代修正來實現的。以神經網絡為例,輸入數據為X,輸出數據為Y,Y=F(X)是系統的映射函數,設當前迭代次數為N,則F(N+1)=G(F(N), L, D),這里用L指代LossFunction,D指代訓練數據集,其中真正具備“智能”屬性的是G而非F。簡而言之,智能代表的是一種自適應過程,而非自適應的結果。
近幾年來,多層級神經網絡在解決包括翻譯和圖像識別在內的諸多問題上屢獲成功,谷歌則在這些新架構上重新構建了多種核心服務。這些神經網絡模擬的是人類大腦的運作過程,其互相連接的層可識別輸入信息的不同模式。
構建具備這類機制與架構的網絡會帶來超乎想像的成效,使得原本艱深的計算難題轉變為調整模型的訓練,而后讓一些圖形處理單元運算的問題。Gideon Lewis-Kraus在《紐約時報》中評論到:“該AI系統一夜之間就有了巨大的提升,這種提升相當于老系統在整個生命周期積累的全部提升”。也正是因為如此,神經網絡的使用量及類型才呈現井噴式增長。
人工智能之所以能有大幅度的進步,靠的是機器學習的能力,即對規律的總結。在模仿人類思維這一領域,編程只是人類教給計算機的規則,讓AI按部就班地運行。但是,現實世界永遠都不是非黑即白的,更多的時候是沒有辦法總結成確定的規則和規律的。
雖然人類不能將這部分完完整整地教給AI,但可以賦予AI一套用于“總結規律”的規則,使得人工智能可利用其自身強大的計算能力自行找出規律。不過,這種機制也并不是完美的。因為機器只會忠實地執行人的命令,有時可能會產生不那么好的結果。
例如微軟的人工智能機器人小冰,入駐Twitter不到一天就變成了一個滿口臟話的種族歧視者,還不承認南京大屠殺的存在,就是因為小冰在網民們發布的各類信息中學習到了錯誤的信息。曾經有一個人做了一個圖像識別的AI,教它區分哈士奇和阿拉斯加。由于在這一過程中,阿拉斯加的背景全部是白色的雪地,導致機器錯誤地把注意力放在了背景上,認為“白背景的就是阿拉斯加”,而并未學會怎么區分圖片上的狗。
所以說,機器學習很強大,足以產生基本的“智能”。但要保證AI學習到的都是正確的,還必須人為把控,做不到真正的強人工智能。要想實現這一點,就要依靠人工神經網絡。在人工神經網絡中,一個個神經元變成了一個個算法和規則,輸入的信息可以由網絡層層處理,走向不同的道路。最關鍵的是,如果神經網絡覺得有不對的地方,還會自我修改以適應環境,從而實現AI的類人思維。
所以,我們或許可以大膽地預測,未來某天,AI終將發展至強人工智能階段,甚至擁有自主意識。到時是人類依然可以主宰AI,還是AI與人類共存,抑或是AI統治地球?一切都還未知,而人類能做的,是利用先進科技提升自身,并學會與之“和諧共處”。
1.砍柴網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;2.砍柴網的原創文章,請轉載時務必注明文章作者和"來源:砍柴網",不尊重原創的行為砍柴網或將追究責任;3.作者投稿可能會經砍柴網編輯修改或補充。