中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

不公正的AI算法,在質疑中邁向透明化

2018-09-21    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

AI算法頻遭質疑

9月6日中午,作家六六在繼炮轟京東后,再一次炮轟百度:“在百度上就查一個上海美國領事館官網(wǎng)的地址,翻了多少個都是騙子廣告”,并@李彥宏:“你是做搜索引擎還是做騙子首領?”微博發(fā)出后,迅速上了熱搜榜,百度也立即給出回應:搜索是復雜算法,每個用戶對信息的需求不同,搜索引擎受算法的影響,給出的結果也會不一樣。

與此同時,美國東部時間9月5日,F(xiàn)acebook COO 桑德伯格和Twitter CEO多西被要求參與了美國參議院情報委員會的聽證會。除此之外,多西還單獨出席了美國能源和商務委員會的聽證會。他們就諸如“為什么共和黨議員在搜索中排名靠后?”或者“為什么廣告被惡意利用?”等問題被要求解答。以“搜索排名”為例,多名議員質疑,在直接搜索議員名字時,搜索結果沒有顯示出正確的賬號,這是因為Twitter在背后搗鬼。面對有關“熱門話題”和“搜索排名”等存在偏見問題的質疑,兩家公司的高管都表示:這不是我們存在偏見,而是我們的AI算法出錯了。

 

 

上述一系列事件,實際上都引申出了一個更具有爭議的問題:AI 算法的透明度。AI算法或者說神經(jīng)網(wǎng)絡的結果到底是不是足夠透明、公平可知并且毫無偏好的?

人工神經(jīng)網(wǎng)絡優(yōu)勢助其廣泛應用

目前絕大部分AI算法,都是基于人工神經(jīng)網(wǎng)絡(Artificial Neural Network,即ANN)來構建的。人工神經(jīng)網(wǎng)絡是由大量處理單元互聯(lián)組成的非線性、自適應信息處理系統(tǒng)。它是在現(xiàn)代神經(jīng)科學研究成果的基礎上提出的,試圖通過模擬大腦神經(jīng)網(wǎng)絡處理、記憶信息的方式進行信息處理。人工神經(jīng)網(wǎng)絡具有四個基本特征:

非線性,非線性關系是自然界的普遍特性;

非局限性,一個神經(jīng)網(wǎng)絡通常由多個神經(jīng)元廣泛連接而成;

非常定性,人工神經(jīng)網(wǎng)絡具有自適應、自組織、自學習能力;

非凸性,非凸性是指這種函數(shù)有多個極值,故系統(tǒng)具有多個較穩(wěn)定的平衡態(tài),這將導致系統(tǒng)演化的多樣性。

ANN有一些關鍵優(yōu)勢,使它們最適合某些問題和情況:

有能力學習和構建非線性的復雜關系的模型,這非常重要,因為在現(xiàn)實生活中,許多輸入和輸出之間的關系是非線性的、復雜的;

可以推廣,在從初始化輸入及其關系學習之后,它也可以推斷出從未知數(shù)據(jù)之間的未知關系,從而使得模型能夠推廣并且預測未知數(shù)據(jù);

可以更好地模擬異方差性,即具有高波動性和不穩(wěn)定方差的數(shù)據(jù),因為它具有學習數(shù)據(jù)中隱藏關系的能力,而不在數(shù)據(jù)中強加任何固定關系。

ANN在圖像和字符識別中起著重要的作用,廣泛應用于社交媒體中的面部識別,醫(yī)學上的癌癥治療的停滯以及農(nóng)業(yè)和國防用途的衛(wèi)星圖像處理。目前,神經(jīng)網(wǎng)絡的研究為深層神經(jīng)網(wǎng)絡鋪平了道路,是“深度學習”的基礎,現(xiàn)已在計算機視覺、語音識別、自然語言處理等方向開創(chuàng)了一系列令人激動的創(chuàng)新,比如,無人駕駛汽車。同樣在醫(yī)藥、安全、銀行、金融、政府、農(nóng)業(yè)和國防等領域有著廣泛的應用,例如經(jīng)濟和貨幣政策、金融和股票市場、日常業(yè)務決策上,都可以提供強大的替代方案。

“黑箱”性質和易受操控的特點帶來擔憂

但是ANN也不是大家想象的那么完美。在控制論中,通常把所不知的區(qū)域或系統(tǒng)稱為“黑箱”,一般來講,在社會生活中廣泛存在著不能觀測卻可以控制的“黑箱”問題。神經(jīng)網(wǎng)絡最廣為人知的缺點是“黑箱”性質,這意味著你雖然可以控制神經(jīng)網(wǎng)絡的結果,但是并不知道神經(jīng)網(wǎng)絡如何以及為何會得出一定的輸出。例如,當你將一張貓的圖像輸入神經(jīng)網(wǎng)絡,神經(jīng)網(wǎng)絡預測這是汽車時,很難理解為什么會導致它產(chǎn)生這個預測。當你有可解釋的特征時,就能更容易的理解其錯誤的原因,顯然神經(jīng)網(wǎng)絡并不能滿足。

 

 

在某些領域可解釋性至關重要,這就是為什么許多銀行不使用神經(jīng)網(wǎng)絡來預測客戶是否有信用,因為他們需要向客戶解釋為什么他們無法獲得貸款。否則用戶會產(chǎn)生誤解和不滿,因為他不明白為什么自己無法獲得貸款。像Facebook這樣的網(wǎng)站也是如此。如果他們通過算法決定刪除某個用戶的帳戶,他們需要向用戶解釋當中的原因。如果僅僅說”這是計算機的決定”,這樣的答案是不盡人意的。制定重要的商業(yè)決策時也是如此。你能想象大公司的CEO在做出關于數(shù)百萬美元的決定,而不探究當中的原因,僅僅因為計算機的決策嗎?

除此之外,神經(jīng)網(wǎng)絡很容易被人為選擇后的數(shù)據(jù)影響決策,同時通過這些決策對人類產(chǎn)生潛移默化的改造。最典型的的例子就是Tay。Tay是微軟2016年在Twitter上推出的智能聊天機器人,最初設定Tay是一個年齡19歲的少女,具有一些幽默機制,適合和18至24歲的用戶聊天。然而僅上線一天,Tay就開始有一些種族歧視之類的偏激言論,微軟不得不緊急關閉了Tay的Twitter賬號。

Tay的設計原理是從對話交互中進行學習。于是一些網(wǎng)友開始和Tay說一些偏激的言論,刻意引導她模仿。人工智能沒有分辨是非的能力,這些話語被無數(shù)次重復后就成了Tay的“彈藥庫”。整個過程就像小魚兒被十大惡人撫養(yǎng),手把手教導各種旁門左道之術。人工智能的大規(guī)模并發(fā)性,讓她的學習速度比人類快了無數(shù)倍。所以從誕生到變成滿嘴臟話的不良少女,Tay僅用了一天。

同樣在AI眼中,我們人類也不是最聰明的靈長類動物。在AI看來,人類只是由0和1組成的數(shù)字集合,而且非常容易被干預和影響,很容易就從這串字符串變成那串字符串。因為人類需要通過信息建立認知,確立價值觀。只要控制了人類能夠接觸到的信息,就能影響其認知,最后導致機器學習不是讓機器學習,而是讓人類“學習”。此前,F(xiàn)acebook泄密影響美國大選的事情曾被炒得沸沸揚揚,目前的證據(jù)來看,就是一家名為劍橋分析的數(shù)據(jù)公司竊取了5000萬Facebook用戶資料,根據(jù)每個用戶的日常喜好、性格特點、教育水平,預測他們的政治傾向,進行新聞的精準推送,達到洗腦的目的,間接促成了特朗普當選。

文章開頭提到的美國參議院情報委員會的聽證會,谷歌首席法務官、全球政策高級副總裁 Kent Walker也曾參會。他在聽證會之前提交了公開證詞。據(jù)美國媒體的報道,該證詞概述了谷歌針對政治廣告披露的新指導方針,并指出谷歌將繼續(xù)刪除試圖誤導用戶的不良信源,如克里姆林宮附屬的互聯(lián)網(wǎng)研究機構。

解決AI算法透明度之路任重道遠

在如何解決AI算法透明度的問題上,曾經(jīng)有兩個想法非常受歡迎。

第一個想法:“算法透明度”——要求公司披露其AI系統(tǒng)中使用的源代碼和數(shù)據(jù)。

不久前紐約市長de Blasio就曾宣布成立美國第一個監(jiān)測和評估算法使用的特別工作組。但是這個想法實施之后面臨著許多問題。因為絕大部分的AI系統(tǒng)太過復雜,僅通過查看源代碼是無法完全理解的。而且要求商業(yè)公司披露源代碼會降低他們投資開發(fā)新算法的動力,事實上競爭對手很容易根據(jù)其源代碼進行山寨。

另一個想法:“算法可解釋性”——將要求公司向消費者解釋他們的算法如何做出決策。

今年5月歐盟就制定了全面的新數(shù)據(jù)保護規(guī)則,出臺《通用數(shù)據(jù)保護條例》要求公司能夠向消費者解釋所有自動化決策。但是算法的準確性通常隨其復雜性而變化,所以算法越復雜,解釋就越困難,實現(xiàn)它可能需要讓AI人為地變蠢。機器學習有如此強大的使用前景,縮減AI的能力可能意味著無法診斷疾病、無法發(fā)現(xiàn)氣候變化的重要原因等等。

這兩個最受歡迎的想法——要求公司披露算法源代碼并解釋它們如何做出決策以及通過規(guī)范商業(yè)模式和內部運作,會導致弊大于利,并不能讓這些公司對結果負責。在應對算法透明度問題上,一個更為可行的建議被提了出來:算法問責制。

這個建議提倡政策制定者不應該要求公司披露他們的源代碼或限制他們可以使用的算法類型,而是應該堅持算法問責制——算法系統(tǒng)應采用各種控制措施來確保運營商(即負責部署算法的一方)可以驗證它是否按預期運行,并確定和糾正有害后果的原則。圍繞算法問責制構建的政策框架將具有幾個重要好處。首先,它會使運營商對其算法可能造成的任何危害負責,而不是開發(fā)人員。其次,讓運營商對結果而不是算法的內部運作負責,可以讓他們專注于確保算法不會造成傷害的最佳方法,諸如信心措施,影響評估或程序規(guī)律等。

當然,這并不是說透明度和可解釋行就沒有它們的位置。例如,透明度要求對刑事司法系統(tǒng)中的風險評估算法來說是有意義的。同樣無論公司是否使用AI來做出決策,消費者仍然有權獲得這些解釋。

規(guī)范制度才能適應未來趨勢

總結目前AI算法的發(fā)展歷程,智能算法大大提升了用戶接收、選擇信息的速度,但也可能讓一個人的視野變窄,甚至直接影響人們的決策。

 

 

那是不是AI算法存在這么多問題,我們就需要避之不及,完全不用它呢?當然不是。AI算法只是一種工具,工具與生俱來就具有兩面性,無論是火藥、核能還是網(wǎng)絡,若使用不當,都容易帶來各種問題,最終決定權掌握在人類手里。算法推送帶來種種不良現(xiàn)象的“鍋”,不應該都讓技術來背。相關法律規(guī)范的不健全,有關崗位工作人員對管控責任的認識不足,再加上大數(shù)據(jù)時代信息的迅猛浪潮,都容易使真正有用的高質量信息淹沒在繁雜的信息海洋中。

算法推送、個性化定制是未來的趨勢,一方面可以實現(xiàn)需與求的精準對接,另一方面也實現(xiàn)了資源的最大化利用。我們可以調整推送權重的分配,比如系統(tǒng)算法占60%,用戶選擇占40%:即用戶可以自己定制或者屏蔽關鍵詞、可以自己決定信息排序,當然也可以選擇系統(tǒng)默認。技術可能帶來一些壁壘,但人卻可以突破這樣的壁壘,讓技術更好地為自己服務。

希望各方面加強合作,創(chuàng)造天朗氣清的網(wǎng)絡世界。合理利用技術跟算法,讓AI技術服務社會、凈化心靈、啟迪智慧,創(chuàng)造和諧、健康、正能量的網(wǎng)絡環(huán)境和現(xiàn)實世界,這才是我們真正該尋求的正確“算法”。

標簽: 安全 大數(shù)據(jù) 大數(shù)據(jù)時代 代碼 谷歌 互聯(lián)網(wǎng) 金融 媒體 排名 搜索 搜索引擎 推廣 網(wǎng)絡

版權申明:本站文章部分自網(wǎng)絡,如有侵權,請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:經(jīng)濟學人:被數(shù)據(jù)和算法重塑的線上約會,或許比非誠勿擾靠譜

下一篇:使用Apache Kafka和KSQL實現(xiàn)流處理普及化——第二部分