自AI誕生那天起,人類就開始擔(dān)心一個問題:作為人類頂尖智慧和技術(shù)的結(jié)晶,AI會不會有一天超出人類控制,甚至反噬人類?阿西莫夫的機器人三
自AI誕生那天起,人類就開始擔(dān)心一個問題:作為人類頂尖智慧和技術(shù)的結(jié)晶,AI會不會有一天超出人類控制,甚至反噬人類?
阿西莫夫的“機器人三定律”曾經(jīng)暫時解決了這個問題,但隨著相關(guān)技術(shù)的發(fā)展和應(yīng)用的擴大,人們發(fā)現(xiàn),機器智能所面臨倫理沖突的復(fù)雜性,遠不是簡單的3條定律就能約束的。近幾年各大科技巨頭相繼在AI加大注碼,讓外界對這個問題的擔(dān)憂日趨加重。
在這個問題上,實際上存在一個悖論:當(dāng)你決定針對AI建立一整套倫理體系時,就已經(jīng)默認(rèn)了,人類社會現(xiàn)有的倫理體系已經(jīng)不適用于AI時代,但是反過來,建立新的倫理體系,依照的卻仍然是舊的東西。一句話言之,針對未知的東西,你如何確保你的解決方案是對的?
前一陣子,谷歌就因為這事招致內(nèi)外雙方面的口誅筆伐。
谷歌向后
作為應(yīng)對公共輿論的手段,不少AI科技公司專門成立了所謂的“道德委員會”,用來調(diào)節(jié)“AI和人的關(guān)系”,谷歌也不例外。3月底,該公司聘請了一個由第三方獨立人士組成的AI倫理委員會,取名“先進技術(shù)外部咨詢委員會(ATEAC)”。
從事后來看,谷歌成立ATEAC,與其說是為了真正解決AI發(fā)展所面臨的倫理問題,倒不如說是裝成努力解決問題的樣子,以堵住外界的批評聲音。然而事與愿違,這個組織本身導(dǎo)致了一場紛亂。
周一,谷歌員工集體請愿,要求公司撤掉ATEAC中的一員——凱伊·科爾斯·詹姆斯(Kay Coles James)。到周一晚間,在請愿書上簽字的員工已經(jīng)超過500人。詹姆斯之所以招人恨,是因為他是一名右翼分子,是著名保守派智庫傳統(tǒng)基金會(Heritage Foundation)的總裁。右翼在西方國家本身就是“政治不正確”的同義詞,更何況他還是最政治不正確——反同反變性人——的那批。
外界還有聲音,要求谷歌從委員會中撤掉無人機技術(shù)公司Trumbull Unmanned的CEO吉本斯(Dyan Gibbens),理由同樣是政治不正確,因為她和Trumbull Unmanned另一位創(chuàng)始人都曾經(jīng)和美軍就無人機進行合作。而在美國科技行業(yè),和軍事扯上關(guān)系是非常敏感的事。
從根本上說,倫理學(xué)研究的是我們做的決定對別人的影響,以及我們因此該承擔(dān)什么責(zé)任。所以,所謂倫理委員會本質(zhì)上是要為弱者利益發(fā)聲。而在AI研究領(lǐng)域,由于現(xiàn)在仍處于并將長期處于“實驗”階段,很多事情可能會在無意中越過客觀數(shù)據(jù)處理和道德決策間的界限,導(dǎo)致更復(fù)雜的倫理問題,更加敏感。
《金融時報》評論稱,谷歌為其委員會所做的選擇表明,它不理解這一點,要不然就是有意忽略了問題的復(fù)雜性。
終于,在上周四下午,谷歌公開宣布解散ATEAC:“很明顯,在當(dāng)前的環(huán)境中,ATEAC不能按我們所希望的方式運行。所以我們要解散這個委員會,回到計劃上來。”
或許有人想問,ATEAC解散了,AI技術(shù)的倫理問題怎么解決?
前面提到,ATEAC的存在本身是為了裝裝樣子,這是因為在谷歌內(nèi)部,其實有另一個幾乎與ATEAC名字相同的團隊,即“高級技術(shù)審查委員會(ATRC)”,據(jù)稱這個團隊才有真正的權(quán)利調(diào)動資源研究解決AI倫理困境的方法。
據(jù)彭博報道,相較于獨立人士組成的ATEAC,ATRC的成員都是公司實權(quán)人士。團隊領(lǐng)導(dǎo)人是谷歌首席法律官沃克(Kent Walker),其他成員包括谷歌基礎(chǔ)設(shè)施主管霍爾澤 (Urs Holzle) 、AI主管迪恩(Jeff Dean)、Google.org副總裁富勒(Jacquelline Fuller)、教育和大學(xué)項目副總裁約翰遜(Maggie Johnson)以及谷歌母公司Alphabet旗下領(lǐng)先AI研究公司DeepMind聯(lián)合創(chuàng)始人蘇雷曼(Mustafa Suleyman)。
然而,像ATEAC這種“客觀獨立第三方”組織都不受信賴,更何況是ATRC這種內(nèi)部利益人士組成的不透明小團體呢?
外媒指出,希望ATEAC的取消不會造成谷歌在AI倫理工作上的倒退,而是轉(zhuǎn)為更具建設(shè)性地與外部利益相關(guān)者接觸。
有意思的是,在谷歌宣布解散ATEAC 4天后,歐盟公布了一份官方的AI道德準(zhǔn)則。
歐盟前進
新的準(zhǔn)則和“機器人三定律”有很大不同,它沒有提供一套直接針對AI的道德框架,而是梳理了AI在醫(yī)療、教育和消費技術(shù)等領(lǐng)域一些之前厘不清的問題。
舉例來說,如果某個AI系統(tǒng)在未來某個時候診斷出你有癌癥,在歐盟的指導(dǎo)方針下,AI軟件不會因為你的種族或性別產(chǎn)生偏見,同時,它不會凌駕于醫(yī)生的意見之上,患者可以要求AI解釋治療方案,也可以自主選擇治療方案。
總的來說,相比起“機器人三準(zhǔn)則”的一刀切,歐盟準(zhǔn)則更加溫和,對多種細分場景提出針對性原則,更加適應(yīng)當(dāng)前的技術(shù)發(fā)展,但也更加復(fù)雜。為了實現(xiàn)這一目標(biāo),歐盟召集了52名專家組成小組,他們提出了未來AI系統(tǒng)應(yīng)該滿足的7項要求。具體如下:
1、人的能動性和人工監(jiān)督。AI不應(yīng)該踐踏人類的自主性,AI不允許操縱或脅迫人類,人類應(yīng)該能夠干預(yù)或監(jiān)督軟件做出的每一個決定;
2、技術(shù)的穩(wěn)健性和安全性。AI應(yīng)當(dāng)是安全并且準(zhǔn)確的,它不能輕易被外部攻擊(如對抗性的例子)影響,應(yīng)具有相當(dāng)?shù)目煽啃?
3、隱私和數(shù)據(jù)管理。AI系統(tǒng)必須保證收集到的個人數(shù)據(jù)的安全和私密性,在未經(jīng)允許的情況下,不向任何第三方透露數(shù)據(jù),也不應(yīng)該輕易被盜;
4、透明度。創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應(yīng)是可訪問的,AI輸出的決定也理應(yīng)能“被人類理解和追蹤”,換句話說,操作員應(yīng)能夠解釋其AI系統(tǒng)所做的決定;
5、普惠、公平和非歧視。AI提供的服務(wù)應(yīng)面向所有人,無論年齡、性別、種族或其他特征,反過來說,AI也不應(yīng)該產(chǎn)生基于這些特征的偏見;
6、環(huán)境和社會福祉。AI作出的決策應(yīng)該是可持續(xù)的,即對生態(tài)環(huán)境負(fù)責(zé),還要有助于“積極的社會變革”;
7、問責(zé)制度。應(yīng)設(shè)立機制,確保有人能控制AI系統(tǒng),并對AI決策的后果負(fù)責(zé)。
其中一些準(zhǔn)則非常抽象,很難量化評估,比如“積極的社會變革”的定義就因人而異、因國而異,但大部分準(zhǔn)則都是直截了當(dāng)、操作性強的。這意味著,許多準(zhǔn)則可以通過政府監(jiān)督進行檢驗。舉個例子,共享行政AI系統(tǒng)的訓(xùn)練數(shù)據(jù),可能有助于對抗算法偏見。
雖然這些準(zhǔn)則并沒有法律約束力,但作為歐盟廣泛討論的結(jié)果,它們可能就是未來所有AI相關(guān)立法的基礎(chǔ)。歐盟一再表示,它希望成為AI倫理領(lǐng)域的領(lǐng)導(dǎo)者。早前的超級嚴(yán)格的《通用數(shù)據(jù)保護條例》已經(jīng)表明了他們在信息技術(shù)安全使用方面的決心。
這不是應(yīng)為歐洲人多有良心,只是大勢決定,在投資和前沿技術(shù)研究方面,它已經(jīng)失去了和美國及中國競爭的能力。所以,想要在AI時代保持存在感,它只能選擇技術(shù)以外的方面——比如倫理——作為未來方向。
除了7條準(zhǔn)則外,歐盟在同日還發(fā)布了一份“值得信賴的AI評估列表”,羅列出了AI軟件中所有潛在弱點或危險的問題,包括“您是否驗證了系統(tǒng)在意外情況的行為”和“您是否評估了數(shù)據(jù)集中的數(shù)據(jù)類型和范圍”等細節(jié)問題。這些評估清單只是初步的,但歐盟將在未來幾年收集各公司的反饋,并在2020年提交一份關(guān)于其公共事業(yè)的最終報告。
新的節(jié)點?
面對AI倫理問題,谷歌寸步難行,歐盟大步前進,這種鮮明對比似乎預(yù)示著,AI技術(shù)的發(fā)展已經(jīng)到了一個新的節(jié)點,即技術(shù)的影響已經(jīng)滲透到社會的每一個角落,私人公司通過技術(shù)獲利的欲望和公共利益的沖突開始顯現(xiàn),單獨某個公司很難再以一己之力摸索出行業(yè)前進的方向。
至少對于谷歌而言是如此。有業(yè)內(nèi)人士懷疑,在谷歌聲明的倫理原則與其財務(wù)利益相抵觸的情況下,由高管組成的內(nèi)部AI倫理委員會不太可能對谷歌起到認(rèn)真的制衡作用。
這一點在《金融時報》的采訪中也有所體現(xiàn),某公司高管向記者表示,他對歐盟的監(jiān)管準(zhǔn)則表示歡迎,因為在競爭日益激烈的AI領(lǐng)域,這是唯一讓他知道公司該在哪里“收手”的標(biāo)準(zhǔn)。除此以外,它不會承認(rèn)任何形式的限制。
數(shù)字版權(quán)組織Access Now的政策經(jīng)理希德韋吉(Fanny Hidvegi)表示:“評估列表是該報告最重要的部分。它提供了一個實用的、前瞻性的角度,指導(dǎo)我們?nèi)绾螠p輕AI的潛在危害。在我們看來,歐盟有潛力和責(zé)任走在這項工作的前列。同時我們認(rèn)為,歐盟不應(yīng)僅僅滿足于制定倫理準(zhǔn)則。”