中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

實現(xiàn)通用人工智能還要多久?Hinton 與 AlphaGo 之父這樣回答

2018-12-31    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

作者:KYLE WIGGERS 譯者:無明 來源:infoq

有人稱之為“強”人工智能,也有人稱之為“真實”人工智能,或“通用”人工智能(AGI),不論怎么稱呼,有關通用人工智能的討論隨著技術的進步愈發(fā)激烈,有人認為通用人工智能可以像人一樣思考——甚至可能擁有超人的智力水平,或許會產生不可預知的、無法控制的后果;另有一些人認為:目前的人工智能離 AGI 的智力水平還相差甚遠。

人工智能研究者、反向傳播算法發(fā)明人 Geoffrey Hinton 與 DeepMind CEO、AlphaGo 之父 Demis Hassabis 在近期的一場采訪中,就通用人工智能的發(fā)展現(xiàn)狀進行了一番熱烈的討論。

預測音樂喜好、檢測轉移性腫瘤、生成腦癌的合成掃描圖、基于真實的視頻創(chuàng)建虛擬環(huán)境、識別人口販賣的受害者、打敗國際象棋大師和 Dota 2 專家電子競技隊、自動駕駛。

以上這些只是 2018 年人工智能發(fā)展成就的一些例子,也是該領域迅速發(fā)展的佐證。麥肯錫全球研究所的分析師預測,按照目前的發(fā)展速度,僅在美國,人工智能將在未來 12 年內獲得 20-25%的凈經濟效益(全球為 13 萬億美元)。

一些最令人印象深刻的工作成果來自深度神經網絡(DNN)方面的研究,DNN 是一種基于數據表示的機器學習架構。三十年前,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 在論文“反向傳播錯誤的學習表征”中詳細介紹了一種基礎的權重計算技術——反向傳播。在成本日益下降、性能日益強大的計算機硬件的幫助下,反向傳播已經在計算機視覺、自然語言處理、機器翻譯、藥物設計和材料檢測等方面的取得了巨大飛躍,在其中一些領域,DNN 生成的結果甚至超過了人類專家。

AGI 所面臨的挑戰(zhàn)

那么,DNN 會是超級智能機器人成為現(xiàn)實的一個預兆嗎?Demis Hassabis 并不這么認為。Hassabis 是 DeepMind 的聯(lián)合創(chuàng)始人,DeepMind 是一家總部位于倫敦的機器學習創(chuàng)業(yè)公司,公司的使命是將神經科學和計算機科學的見解應用在通用人工智能(AGI)中——換句話說,AGI 系統(tǒng)可以成功執(zhí)行任何人類可以完成的智能任務。

Hassabis 在 12 月初于蒙特利爾舉行的 NeurIPS 2018 大會上說:“我們還有很長的路要走。從某種程度上說,游戲或棋盤游戲其實非常簡單,因為各種狀態(tài)之間的過渡模式非常易于學習,但現(xiàn)實世界中的 3D 環(huán)境和現(xiàn)實世界本身要復雜得多……”

Hassabis 是國際象棋神童、劍橋大學畢業(yè)生,在職業(yè)生涯早期,他擔任電子游戲 Theme Park 和 Black & White 的首席程序員。他還在倫敦大學學院、麻省理工學院和哈佛大學學習神經科學,在那里,他與其他人一起研究自傳記憶和情景記憶系統(tǒng)。他于 2010 年共同創(chuàng)立了 DeepMind,并三年后推出了一個開創(chuàng)性的人工智能系統(tǒng),這個系統(tǒng)使用原始像素作為輸入在 Atari 游戲中嶄露頭角。

后來谷歌以 4 億英鎊收購了 DeepMind,在完成收購之后,推出的 AlphaGo 一度占據了頭條位置。AlphaGo 是一個人工智能系統(tǒng),在圍棋比賽中擊敗了世界冠軍李世石,并與倫敦大學醫(yī)院合作,開發(fā)出“接近人類水平”的 CT 掃描分割模型。最近,DeepMind 的研究人員推出了蛋白質折疊算法—— AlphaFold——從 43 種蛋白質中準確識別出 25 種蛋白質結構,在第 13 次蛋白質結構預測技術評估(CASP)中獲得一等獎。本月,DeepMind 在科學雜志上發(fā)表了一篇論文,介紹了 AlphaZero 系統(tǒng),它是 AlphaGo 的繼任者,可以玩三種不同的游戲——國際象棋、一種叫做 shogi 的日本象棋,以及圍棋,并足以擊敗頂尖的人類玩家。

盡管 DeepMind 取得了令人矚目的成就,但 Hassabis 警告說,他們并不認為 AGI 即將來臨。他說,與今天的人工智能系統(tǒng)不同,人們利用現(xiàn)實世界的內在知識來進行預測和規(guī)劃。與圍棋、國際象棋和日本象棋新手相比,AlphaGo 和 AlphaZero 在信息方面處于劣勢。

Hassabis 說,“這些 AI 系統(tǒng)首先要學會看,然后才能學會玩。相比算法,人類玩家可以更快地學會玩類似于 Atari 游戲的東西,因為他們可以很快地將圖案轉成像素,然后確定是要往前進還是往后退”。

要讓 AlphaZero 這樣的模型擊敗人類,它需要在一個擁有數千個谷歌專門為機器學習設計的專用芯片的系統(tǒng)上進行 700,000 個訓練步驟——每個步驟代表 4,096 個棋盤位置。國際象棋需要訓練約 9 個小時,日本象棋需要訓練 12 個小時,圍棋需要 13 天。

DeepMind 并不是唯一家嘗試突破當前 AI 設計局限性的公司。

在今年早些時候發(fā)表的一片博文中,OpenAI——一家位于舊金山由 Elon Musk、Reid Hoffman、Peter Thiel 以及其他技術名人支持的非營利性人工智能研究公司——推出了 OpenAI Five,在今年夏天擊敗了 Dota 2 五人團隊(其中有四名職業(yè) Dota 2 玩家)。OpenAI 表示,它每天都要在谷歌云平臺上(配備 256 塊 Nvidia Tesla P100 顯卡和 128,000 個處理器核心)玩游戲。但即使在完成所有訓練之后,它仍然難以將獲得可以應用于游戲之外的任務的技能。

Hassabis 說,“我們的系統(tǒng)無法以有效的方式將知識從一個領域轉移到另一個領域。構建游戲模型相對比較容易,因為從一步移動到另一步是非常簡單的,但我們希望能夠將生成模型能力灌輸給系統(tǒng)……這樣在這些環(huán)境中進行規(guī)劃就變得更容易”。

現(xiàn)今的大多數人工智能系統(tǒng)的可擴展性也較差。AlphaZero、AlphaGo 和 OpenAI Five 利用了一種叫作強化學習的編程范式,其中有一個 AI 控制的軟件代理將學會在環(huán)境中采取行動——例如,棋盤游戲或 MOBA——以最大化獎勵。

Hinton 在接受采訪時說,可以想象一下 Skinner 盒子系統(tǒng)——它的名字源于哈佛大學先驅心理學家 B. F. Skinner——它利用操作性條件來訓練動物,讓它們做出動作,例如按下控制桿、對光或聲音做出響應。當受試動物做出正確的動作,就會獲得某種形式的獎勵,通常是食物或水。

Hinton 說,人工智能強化學習方法的問題在于獎勵信號往往是“微弱的”。在某些環(huán)境中,代理無法從隨機數據中找到模式——即所謂的“嘈雜的電視問題”。

“每隔一段時間,你就會得到一個標量信號,但頻率并不高,信息量也不大,而且你需要基于這些微弱的信號使用數百萬個參數或數萬億個參數來訓練系統(tǒng)。你能做的是使用大量的計算——很多令人印象深刻的演示都依賴于大量的計算。這是一個方向,但它并不能真正吸引到我。我認為研究人員需要的是更好的見解。”

Hinton 過去 30 年來一直在解決 AI 面臨的一些重大挑戰(zhàn),現(xiàn)在主要專注于谷歌的 Brain 深度學習研究團隊和多倫多大學。他被一些人稱為“深度學習教父”。除了在 DNN 方面的開創(chuàng)性工作之外,Hinton 還在機器學習、感知、記憶和符號處理等方面撰寫或合著了 200 多篇出版物,他最近將注意力轉向膠囊神經網絡——包含有助于構建更穩(wěn)定表示的結構的機器學習系統(tǒng)。

他說,數十年的研究讓他確信解決強化學習可擴展性問題的方法是利用結構化架構來放大信號。

Hinton 解釋說,“假設你有一個很大的組織,強化信號排在最前面,首席執(zhí)行官被告知公司今年獲得了大額利潤——這就是他的強化信號。我們假設這種信號每個季度會出現(xiàn)一次。如果要訓練一大堆人員來完成幾項任務,這些信號太弱了,但如果首席執(zhí)行官有一些副總裁,并給每位副總裁一個目標,以便最大化他的獎勵……那么這將帶來更多利潤,他最終會得到獎勵。”

Hinton 說,即使獎勵沒有出現(xiàn)——也許是因為首席執(zhí)行官給副總裁設定了錯誤的目標——這個過程仍然會繼續(xù)。副總裁總是可以學到一些東西,這些東西在未來總會派上用場。

他補充說,“通過設定子目標,并讓人們實現(xiàn)這些子目標,你可以通過創(chuàng)造更多微軟的信號來放大這些它們”。

這是一個看似復雜的思想實驗。這些副總裁實際上需要一個渠道——即中層和低層管理人員——來傳達目標、子目標和相關的獎勵條件。系統(tǒng)中的每個“員工”都需要能夠決定他們是否做了正確的事情,這樣他們才能知道為什么會獲得獎勵。所以他們需要一個語言系統(tǒng)。

Hinton 說,“這是一個讓系統(tǒng)的某些模塊為其他模塊創(chuàng)建子目標的問題。你可以想象一下牧羊人。他們創(chuàng)造了一種非英語語言,訓練有素的牧羊犬和牧羊人可以通過這種語言進行很好的交流。但如果牧羊犬有自己的牧羊犬,那么它必須將從牧羊人那里獲得的東西(比如手勢等)形成一種可以與子牧羊犬交流的方式。”

幸運的是,最近的一項叫作“Transformer”的 AI 突破可能正朝著正確方向邁出一步。

谷歌研究人員在去年的一篇博文和附帶論文“Attention Is All You Need”中介紹了一種新型神經結構——Transformer——能夠在語言翻譯任務中超越最先進的模型,并且需要的訓練計算量也較少。

谷歌于 11 月份開源了 Bidirectional Encoder Representations from Transformers(BERT)。BERT 通過預先訓練可以從任意語料庫生成的任務來學習建立句子之間的關系,并讓開發(fā)人員可以在 30 分鐘內基于一個云 TPU(張量處理單元,谷歌的云托管加速器硬件)或者在幾個小時內基于單個圖形處理單元訓練出“最先進”的 NLP 模型。

Hinton 解釋說,“Transformer 其實是神經網絡。在神經網絡中,活動變化很快,而權重變化緩慢。生物學告訴你,你需要做的是擁有快速變化的活動,然后基于很多不同的時間尺度修改突觸,這樣你就可以記住最近發(fā)生的事情…… 或者很容易恢復記憶。使用 Transformer,一群神經元會找到一些東西,而且不僅僅是將它們發(fā)送給它所連接的人——它還把它們發(fā)送給那些知道如何處理它們的人。”

這并不是一個新想法。Hinton 指出,在 20 世紀 70 年代,大多數關于神經網絡的工作都集中在記憶上,目的是通過修改權重來存儲信息,這樣就可以重新創(chuàng)建信息,而不是簡單地從某種形式的存儲中拉取。

他說,“你實際上并沒有像將文件保存在文件柜中那樣存儲信息——你修改參數,如果我給你一點東西,你就可以填充其余部分,就像根據一些碎片還原出一只恐龍一樣。我們應該將這個想法用于短期記憶,而不僅僅是長期記憶,它將解決各種各樣的問題”。

AI 和偏見

Hinton 認為,從生物學的角度來看,未來的人工智能系統(tǒng)將主要是無監(jiān)督多樣性。無監(jiān)督學習——機器學習的一個分支,從未標記和未分類的測試數據中收集知識——在學習共性和對它們的存在或不存在作出反應的能力方面幾乎是與人類是一樣的。

他說,“一般來說,人們沒有標記數據。我認為這是一種更具生物學意義的學習方式……這也是大腦主要要做的事情”。

Hassabis 表示同意。

他說,“我們在 DeepMind 正在致力于開發(fā)一種具有認知能力的神經科學路線圖,我們認為這些認知能力是為了擁有一個功能齊全的人類 AI 系統(tǒng)所必需的。它能夠轉移學習、概念知識(在某種意義上可能也是一種創(chuàng)造力)、想象未來的場景、反事實和未來規(guī)劃、語言使用和象征性推理。這些都是人類毫不費力就可以完成的事情。”

然而,隨著人工智能越來越復雜,一些技術專家和倫理學家擔心它會吸收和反映現(xiàn)有訓練數據中存在的偏見。事實上,有證據表明這類事情已經發(fā)生過。

谷歌的 AI 研究科學家最近在一個免費提供的開源數據集上設置了一個預訓練的 AI 模型。一張照片——穿著西式長裙和全裙式婚紗的白種人新娘——被標記為“禮服”、“女性”、“婚禮”和“新娘”。然而,另一張照片——也是新娘的照片,但是是亞洲血統(tǒng),穿的是民族服飾——被標記為“服裝”、“事件”和“表演藝術”。更糟糕的是,模型完全遺漏了圖片中的人物。

與此同時,在 7 月份由華盛頓郵報委托進行的一項研究中,亞馬遜和谷歌推出的智能音箱在識別語音時,對英語母語的人的口音識別成功率比非英語母語的人的口音識別成功率高 30%。IBM 和微軟等公司使用 Switchboard 語料庫來衡量語音模型錯誤率,而這個數據集已被證明偏向了該國特定地區(qū)的用戶。

計算機視覺算法在偏見方面并沒有表現(xiàn)得更好。

2012 年發(fā)布的一項研究表明,Cognitec 的面部識別算法對白種人的識別成功率比非洲裔美國人高 5%至 10%。據透露,倫敦警察廳最近部署的系統(tǒng)每次都會產生多達 49 個錯誤的匹配。在今年夏天的亞馬遜 Rekognition 服務測試中,美國公民自由聯(lián)盟證明,使用來自“公共資源”的 25,000 張照片,并將它們與國會成員的官方照片進行比較,有 28 人被誤認為是罪犯。

但 Hinton 并沒有因為這些負面新聞而氣餒。他認為,人工智能的優(yōu)勢在于它所提供的靈活性——以及數據中的偏見是可建模的。

他說,“任何從數據中學到的東西也將學習到數據中的偏見。好在如果你可以對數據中的偏見進行建模,你可以非常有效地抵消它們。有各種各樣的方法。”

他指出,但這并不總是適用于人類。

“如果有人在做這些工作,你可以嘗試對他們的偏見進行建模,告訴他們,表現(xiàn)得沒有偏見并不能減少偏見。所以我認為在機器學習系統(tǒng)中處理偏見要容易得多。”

在 Hinton 看來,一類新興的偏見消除工具有望引領更加公正的 AI 系統(tǒng)。

5 月份,F(xiàn)acebook 發(fā)布了 Fairness Flow,它會自動警告一個算法是否根據一個人的種族、性別或年齡對其做出不公平的判斷。埃森哲發(fā)布了一個工具包,可自動檢測 AI 算法中的偏見,并幫助數據科學家減輕這種偏見。微軟于 5 月份推出了自己的解決方案,谷歌并于 9 月份推出了 What-If 工具——為 TensorFlow 機器學習框架提供的 TensorBoard Web 儀表盤偏見檢測功能。

IBM 在秋季發(fā)布了 AI Fairness 360,這是一款基于云的全自動套件,不斷為 AI 系統(tǒng)如何做出決策并進行推薦調整“提供見解”——例如算法調整或平衡數據——這可能會減輕受偏見的影響。最近,Watson 和 Cloud Platform 小組的研究重點是減輕 AI 模型中的偏見,特別是與面部識別相關的部分。

Hinton 說,“對于速度非常快的計算機來說,你現(xiàn)在可以開發(fā)效率不是很高的軟件,這很容易理解,因為計算機的速度可以抵消掉效率問題。人們不喜歡這樣做,但你喜歡這樣——你想讓你的代碼不是那么高效,這樣你就可以省心些……對于非常精確的事物,你可以讓它們變得不那么精確,以此來實現(xiàn)你想要的其他東西。在我看來這是一個公平的權衡。”

AI 和工作

對于人工智能對就業(yè)市場的影響,Hinton 也持樂觀態(tài)度。

“通用人工智能”這句話本身帶有這樣一種暗示,即這種機器人突然變得比你還聰明。但我認為不會出現(xiàn)那種情況。我認為越來越多的常規(guī)事情將被人工智能系統(tǒng)取代——比如谷歌智能助理。”

Forrester 分析師最近預測,機器人過程自動化(RPA)和人工智能(AI)將會創(chuàng)造出數字工作者——軟件可以自動執(zhí)行傳統(tǒng)上由人類執(zhí)行的任務——明年將有超過 40%的公司,而在 2019 年,美國大約有 10%的就業(yè)機會將被自動化代替。此外,世界經濟論壇、普華永道和 Gartner 預測,到 2025 年,人工智能可以替代多達 7500 萬個工作崗位。

但 Hinton 認為AGI 不會讓人類變得多余。相反,他說,至少在不久的將來,它在大多數情況下對世界的理解都是很短視的。而且他相信,它會以小而有意義的方式繼續(xù)改善我們的生活。

他說,“未來的人工智能將會對你可能想要做的事情以及如何做到了解更多,而且它對你來說非常有用,但它不會取代你。但如果你使用一個為駕駛而開發(fā)的系統(tǒng),并在它的處女駕中使用它,那可能會是一場災難”。

Hinton 說,取代目前由人類完成的那些危險的任務倒是朝著正確方向邁出的一步。

他說:“人們真正應該害怕的是坐在一輛由巨大的神經網絡控制的汽車上,這種神經網絡不會告訴你它在做什么。它應該被叫做出租車司機”。

英文原文:

https://venturebeat.com/2018/12/17/geoffrey-hinton-and-demis-hassabis-agi-is-nowhere-close-to-being-a-reality/

標簽: 代碼 谷歌 網絡

版權申明:本站文章部分自網絡,如有侵權,請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:機器學習與數據科學決策樹指南

下一篇:USNews發(fā)布全球大學CS領域2019排名:清華第一,華科大第六