人工智能發展得太快了,這是一件好事

2020-01-21 16:05 來源:未知 作者:石家莊生活網1
人工智能發展得太快了,這是一件好事

這波迅猛的創新給了人類一個機會,去反思我們真正想從這項技術中得到什么——趁現在我們還有時間影響它的進程。

人工智能發展得太快了,這是一件好事

2019 年是見證人工智能(AI)潛力的偉大一年。Waymo 把自動駕駛出租車賣給了亞利桑那州的付費客戶、OpenAI 和 DeepMind 的機器人在兩款大型電子競技游戲中擊敗了頂級專業人士、一種深度學習算法在醫學影像中發現了肺癌腫瘤,其表現與醫生相比毫不遜色——有時甚至勝過后者。

但說到人工智能該做什么,2019 年又是可怕的一年。亞馬遜的面部識別軟件如何?麻省理工學院說,它存在種族歧視問題。據研究人員稱,這家科技巨頭的算法錯誤識別了近三分之一的深膚色女性的面孔(而對于淺膚色男性的面孔,其識別準確率近乎完美)。WeSee 和 HireVue 等公司用來評估威脅和篩選求職者的情緒偵測算法呢? 心理科學協會說,簡直一派胡言。就連不太靠譜的自然語言處理領域也受到了沖擊 : OpenAI 公司開發了頂級系統 GPT-2,只需幾句提示即可生成具有說服力的數百詞文本,但 OpenAI 擔心它可能被“惡意”用于傳播假新聞、仇恨言論或更為惡劣的內容, 風險太大,不適合發布。

換言之,在 2019 年,圍繞這艘被稱為“人工智能”的創新火箭飛船,有兩個問題不可避免地逐漸清晰化。首先,它的加速度超出了大多數人的預期。其次,它有幾個重要的“螺絲”出現了松動。

這是一個可怕的領悟,畢竟全人類都被綁在了這艘火箭上,而不是站在安全距離之外的旁觀者。但 AI 令人憂心的發展進程也有其積極的一面 :一項顛覆性技術的意外后果在當下就顯現出來,不用等到幾年甚至幾十年后,這或許是有史以來第一次。這意味著,雖然我們可能因為前進速度太快而感到不安,但實際上,我們可以抓住油門,控制方向。

人們很容易忘記了,在 2012 年之前,我們今天所謂的 AI——基于人工神經網絡的深度學習——實際上還不存在。利用(以近似生物腦組織的方式組織起來的)數字連接層學習模式識別任務的概念已經擁有幾十年的歷史,但主要停留在學術領域。接著,在 2012 年 9 月,多倫多大學教授、后來的“深度學習教父”杰弗里·辛頓(Geoffrey Hinton)的學生設計了一個神經網絡,出乎意料地在受到高度重視的 ImageNet 計算機視覺挑戰中打破了記錄。該測試要求軟件正確識別數百萬幅圖像的內容,比如鸚鵡或吉他的圖片。學生們開發的神經網絡所犯的錯誤數量是亞軍的一半。

突然間,深度學習“起作用”了。五年內,谷歌和微軟雇傭了大量的深度學習專家,并自詡為“AI 先行”的公司。這股潮流沒有止步于大型科技企業:2018 年,咨詢公司麥肯錫一項覆蓋 2,000 多家公司的全球調查發現,超過四分之三的公司已經整合了 AI 技術或正在進行相關試點項目。

正如安德森·霍洛維茨基金(Andreessen Horowitz)分析師本尼迪克特·埃文斯(Benedict Evans)所言,現代智能手機用 10 年的時間“吞噬世界”; 而網絡花了 20 年。然而,短短五年內,AI 已經從實驗室的新奇玩意進化成了一股經濟力量。據普華永道會計師事務所估計,人工智能在2017年和2018年為全球 GDP 貢獻了 2 萬億美元。“談到 AI 的發展速度,我們當然是在縮短時間周期。”曾擔任美國前總統巴拉克·奧 巴馬(Barack Obama)技術顧問的麻省理工學院人工智能政策研究負責人 R·大衛·埃德爾曼(R. David Edelman)說道。

這種前所未有的速度推動了人工智能的發展和激蕩。2019 年,全球營銷咨詢公司愛德曼與世界經濟論壇合作開展的一項調查顯示,54% 至 75% 的美國普通大眾認為,AI 將傷害窮人,造福富人,加劇社會孤立, 并導致“人類智力的喪失”。三分之一的受訪者甚至認為, 深度換臉(deepfake)視頻——由深度學習網絡生成的名人、政府官員或普通人的以假亂真的視頻——或將掀起“一場信息戰,進而可能引發一場真槍實彈的戰爭”。

那么,社會該如何應對?我們總不能訴諸麻省理工學院的埃德爾曼(與英文同名咨詢公司愛德曼沒有關系)所說的“現代勒德主義”吧,畢竟,在工業革命期間打砸織布機的真勒德分子也沒有成功。但與之相反的觀點——盲目相信創新最終會自行解決問題——也不可取。(整個地球就是強有力的證據,經歷了 100 年的汽車碳排放,它早已千瘡百孔。)

此時 , 火箭飛船的“油門”就派上用場了。技術創新的標準時間軸遵循所謂的“S 曲線”:緩慢的開始,然 后隨著技術的流行而上升,最后隨著它的普及而穩定下 來。對汽車或智能手機等此前一統天下的技術而言,其非預期后果并沒有立即顯現出來,一直到我們爬上了 S 曲線的“ 斜坡 ”,甚至抵達了平穩的“高原”,才發現情況不妙。比如說,汽車的大量使用引發了多場緩慢推進的災難:除了氣候變化,還有被削弱的公共交通,數十年扭曲的城市規劃,以及驚人的大滅絕。2017 年,心理學家珍·特溫吉(Jean Twenge)斷言,智能手機助長了社交 媒體成癮和焦慮情緒,“摧毀了一代人”,而那時候,已經有近 30 億人在使用智能手機。以上兩個例子中,在人類意識到事情不對之前,一切已成定局。但 AI在大約5年的時間里,已經從“不存在”發展到“似乎無處不在”,這實際上給我們提供了一個修正方向的實時反饋機制。

我們能否把神經網絡設計得更好理解,不再像高深莫測的“黑匣子”?如何系統測試深度學習系統中存在的不道德偏見?是否應該設立一個類似FDA(食品及藥物管理局)或 EPA(環境保護局)的機構,審查人工智能實踐及產品?“它(AI 技術)的快速變化使這些問題的提出更為迫切。”尼克·奧布拉多維奇(Nick Obradovich)說道。他是馬克斯·普朗克人類發展研究 所(Max Planck Institute for Human Development) 的一位科學家,專門研究 AI 帶來的社會挑戰。

人工智能發展得太快了,這是一件好事

人工智能的實時清算已經開始了。在 2019 年的 I/ O 大會上,谷歌公布了一個名為 TCAV 的系統,可作為深度學習網絡的“扯淡探測器”。(想確認你的癌癥篩查 AI 發現的是真腫瘤,而不是統計故障?TCAV 能幫你!) 2019 年 5 月,包括美國在內的 42 個國家正式采納了經濟合作與發展組織(OECD)制定的政策指導方針,“同意支持國際標準,確保 AI 系統的設計穩健、安全、公平且值得信賴。”早些時候,麻省理工學院的研究人員創建了一門全新的科學學科——“機器行為”,旨在研究算法和人類“在自然環境下”的互動方式。其研究論文由 二十多位來自經濟學、政治學、機器人學以及社會學等不同領域的專家共同撰寫。

“在未來的某個時候,我們將會針對生活中算法的開發和使用制定一些規則。”機器行為論文的合著者之一奧布拉多維奇說道。與此同時,“訓練有素的社會科學家可以發揮重大作用,介入其中,開始發現當下存在的問題,以及可能即將出現的問題。”

或許,在這種面對創新技術的新興態度激勵下,我們不僅能讓 A“I 起作用”,還能讓它守規矩。它可以打好一個基礎,指導人類應對其它顛覆性的新技術,比如 5G 互聯網、加密貨幣、自動駕駛汽車和 CRISPR 基因編輯。“這種——共同設計系統和社會政策的——典范可以成為供新興創新參考的可重復模式。”埃德爾曼表示,“事實上,這可能是必須的。”畢竟,人工智能不會是與人類命運捆綁的最后一枚火箭。而“有能力”駕馭它的也只有我們了。




上一篇:威海出大招推動經濟高質量發展        下一篇:沒有了

上一篇:威海出大招推動經濟高質量發展

下一篇:沒有了

熱門搜索
20选5复式投注浙江