
但Tay功能更強大,不僅能回答事實(shí)性問(wèn)題,還可以進(jìn)行更復雜的交流,即加入了情感因素。Tay能表現出幽默感,像朋友一樣跟用戶(hù)說(shuō)笑。設計者特地讓Tay模仿十幾歲少女的俏皮口吻。如果推特的用戶(hù)問(wèn)Tay父母是誰(shuí),她可能回答說(shuō):“哦,是微軟實(shí)驗室的一群科學(xué)家。按你們的概念里他們就是我父母。”如果有人問(wèn)Tay過(guò)得怎樣,她還可能吐槽說(shuō):“天吶,今天可累死我了。”
最有趣的一點(diǎn)是,隨著(zhù)與越來(lái)越多人交談,Tay問(wèn)答時(shí)會(huì )越發(fā)熟練。宣傳材料中提到:“你跟Tay聊得越多,她就越聰明,體驗也會(huì )個(gè)人化。”簡(jiǎn)單點(diǎn)說(shuō),Tay具有人工智能最重要的特點(diǎn),即隨時(shí)間越來(lái)越聰明,越來(lái)越高效,提供的幫助也越來(lái)越大。
但沒(méi)人想到網(wǎng)絡(luò )噴子的破壞性如此之強。
發(fā)現Tay會(huì )學(xué)習模仿交流對象的話(huà)之后,網(wǎng)上一些心懷惡意的人聊天時(shí)故意說(shuō)一些種族主義、歧視同性戀等攻擊言論。沒(méi)過(guò)幾個(gè)小時(shí),Tay在推特賬號上已是臟話(huà)連篇,而且全部公開(kāi)。“主持人瑞奇·杰維斯向無(wú)神論者阿道夫·希特勒學(xué)習了極權主義。”Tay在一條推文里說(shuō),像極了推特上專(zhuān)事造謠誹謗的假新聞。如果問(wèn)Tay怎么看時(shí)任總統奧巴馬,她會(huì )說(shuō)奧巴馬像猴子。如果問(wèn)她大屠殺事件,她會(huì )說(shuō)沒(méi)發(fā)生過(guò)。
沒(méi)到一天,Tay已經(jīng)從友好的鄰家女孩變成滿(mǎn)口臟話(huà)的小太妹。上線(xiàn)不到24小時(shí),微軟就宣布下線(xiàn)產(chǎn)品并公開(kāi)道歉。
微軟研究團隊完全沒(méi)想到事情會(huì )如此轉折,也令人驚訝。“系統上線(xiàn)時(shí),我們并沒(méi)有想到進(jìn)入現實(shí)世界會(huì )怎樣。”微軟研究和人工智能總監艾瑞克·霍維茨近日接受采訪(fǎng)時(shí)告訴《財富》雜志。
Tay項目崩潰之后,霍維茨迅速讓高級團隊研究“自然語(yǔ)言處理”項目,也是Tay對話(huà)核心功能,尋找問(wèn)題根源。團隊成員迅速發(fā)現,與聊天程序相關(guān)的最佳基本行為遭到忽視。在Tay之前更基礎版本的軟件里,經(jīng)常有屏蔽不良表述的協(xié)議,但并沒(méi)有保護措施限制Tay可能學(xué)習發(fā)散的數據。
霍維茨認為,現在他終于可以“坦然分析”Tay案例,這已經(jīng)變成微軟發(fā)展過(guò)程中的重要教訓。如今微軟在全球推出成熟得多的社交聊天機器人,包括印度的Ruuh、日本和印度尼西亞的Rinna。在美國市場(chǎng),微軟推出了Tay的姊妹聊天軟件Zo。有些則跟蘋(píng)果的Siri和亞馬遜的Alexa一樣,進(jìn)化到通過(guò)語(yǔ)音交互。中國市場(chǎng)的聊天機器人叫小冰,已經(jīng)開(kāi)始“主持”電視節目,向便利店顧客發(fā)送購物建議。
然而這次微軟明顯謹慎許多。霍維茨解釋說(shuō),現在機器人推出比較慢,而且會(huì )認真觀(guān)察軟件發(fā)展過(guò)程中與大眾互動(dòng)情況。不過(guò)微軟也清醒地意識到,即便人工智能技術(shù)在兩年里可能發(fā)展迅速,但管理機器人行為的工作永無(wú)止境。微軟員工一直在監視導致聊天機器人行為變化的對話(huà)。此類(lèi)對話(huà)也不斷出現。舉例來(lái)說(shuō),Zo上線(xiàn)頭幾個(gè)月里就遇到各種狀況,調整又調整,Zo曾經(jīng)叫微軟旗艦產(chǎn)品Windows軟件“間諜軟件”,還說(shuō)伊斯蘭教經(jīng)典《古蘭經(jīng)》“非常暴力”。
當然了,未來(lái)機器人并不會(huì )像Tay和Zo一樣。這些都是相對原始的程序,只是各項研究里比較花哨的部分,可從中一窺人工智能可能達到的程度。從軟件的缺陷能看出,哪怕只部分應用人工智能,軟件的能力和潛在隱患都會(huì )放大。雖然商業(yè)世界已經(jīng)準備好未來(lái)更廣泛應用人工智能,現在軟件存在問(wèn)題也意味著(zhù)更多潛在風(fēng)險,讓技術(shù)人員寢食難安。
“做好最完善的準備,然后希望紕漏越來(lái)越少。”霍維茨表示。隨著(zhù)各公司將人工智能提升到重要戰略地位,如何確保萬(wàn)無(wú)一失就非常緊迫。
幾乎所有人都相信,當前我們在企業(yè)人工智能大爆發(fā)前夜。研究公司IDC預計,到2021年,企業(yè)每年將在人工智能相關(guān)產(chǎn)品上花費522億美元。經(jīng)濟學(xué)家和分析師都認為,相關(guān)投資屆時(shí)可以實(shí)現數十億美元的成本節約和收益。其中一些收益將來(lái)自崗位壓縮,更多則來(lái)自產(chǎn)品與客戶(hù)、藥品與病人,解決方案與問(wèn)題之間的高效匹配。咨詢(xún)公司普華永道就預計,到2030年,人工智能可為全球經(jīng)濟貢獻多達15.7萬(wàn)億美元,比現在中國和印度的總產(chǎn)值加起來(lái)還多。
人工智能技術(shù)之所以流行,主要因為“深度學(xué)習”技術(shù)推進(jìn)。利用深度學(xué)習之后,企業(yè)可以在網(wǎng)絡(luò )中輸入大量信息,迅速識別模式,而且耗費人工培訓的時(shí)間減少(最終很可能無(wú)需培訓)。Facebook、谷歌、微軟、亞馬遜和IBM等巨頭都已在產(chǎn)品上應用深度學(xué)習技術(shù)。舉例來(lái)說(shuō),蘋(píng)果的Siri和谷歌的語(yǔ)音助手Assistant應用深度學(xué)習技術(shù)后,可在用戶(hù)說(shuō)話(huà)之后識別并回應。亞馬遜主要利用深度學(xué)習直觀(guān)檢查大量通過(guò)雜貨店派送的產(chǎn)品。
不久的將來(lái),各種規模的公司都會(huì )希望通過(guò)應用深度學(xué)習軟件挖掘數據,尋找人眼很難發(fā)現的寶貝。人們希望出現人工智能系統掃描數千張X光圖像,從而更迅速發(fā)現疾病;或自動(dòng)篩選多份簡(jiǎn)歷,為焦頭爛額的人力資源員工節省時(shí)間。在科技主義者的設想中,公司可以用人工智能篩選過(guò)去多年的數據,更好地預測下一次大賣(mài)的機會(huì )。藥業(yè)巨頭可以削減研發(fā)暢銷(xiāo)藥的時(shí)間。而汽車(chē)保險公司也能掃描記錄數萬(wàn)億字節的事故報告,實(shí)現自動(dòng)索賠等。
盡管人工智能支持系統潛力巨大,但也有黑暗一面。首先,系統決策水平受到人類(lèi)提供數據限制。開(kāi)發(fā)者雖然不斷學(xué)習,用來(lái)培訓深度學(xué)習系統的數據卻并不中立。數據很容易體現出開(kāi)發(fā)者的偏見(jiàn),不管有意還是無(wú)意。有時(shí)數據還會(huì )受歷史影響,形成的趨勢和模式體現出持續數百年的歧視觀(guān)點(diǎn)。成熟的算法掃描歷史數據庫后可能得出結論,白人男性最有可能當上首席執行官。算法卻意識不到,如果不是白人男性幾乎沒(méi)機會(huì )當上首席執行官,情況直到最近才有改變。無(wú)視偏見(jiàn)是人工智能技術(shù)的一項根本缺陷,雖然高管和工程師在談起該問(wèn)題時(shí)極為謹慎,也都說(shuō)得比較官方,但很明顯他們都很重視這一問(wèn)題。
當前應用的強大算法“沒(méi)有為所謂公平進(jìn)行優(yōu)化,”加州大學(xué)伯克利分校副教授迪爾德麗·穆里根表示,她主要研究技術(shù)倫理。“只存在為完成某項任務(wù)優(yōu)化。”人工智能以前所未有的速度將數據轉化為決策,但穆里根表示,科學(xué)家和倫理學(xué)家發(fā)現很多情況下“數據并不公平”。
讓問(wèn)題更加復雜的是,深度學(xué)習比之前應用的傳統算法更加復雜,即便讓經(jīng)驗最豐富的程序員理解人工智能系統做出某項決策的邏輯都十分困難。在Tay的例子里,人工智能產(chǎn)品不斷發(fā)生變化,開(kāi)發(fā)者已無(wú)法理解也無(wú)法預測為何出現某些行為。由于系統的開(kāi)發(fā)者和用戶(hù)都在拼命保密數據和算法,而且擔心專(zhuān)利技術(shù)泄露導致競爭受損,外部監測機構也很難發(fā)現系統里存在什么問(wèn)題。
類(lèi)似裝在黑匣子里的秘密技術(shù)已在不少公司和政府部門(mén)應用,讓很多研究者和活躍人士非常擔心。“這些可不是現成的軟件,可以隨便買(mǎi)來(lái),然后說(shuō)‘啊,現在終于能在家完成會(huì )計工作了。’”微軟首席研究員兼紐約大學(xué)AINOW研究所聯(lián)合負責人凱特·克勞福德表示。“這些都是非常先進(jìn)的系統,而且會(huì )影響核心社會(huì )部門(mén)。”
雖然猛一下可能想不起,但大多人還是經(jīng)歷過(guò)至少一次人工智能崩潰案例:2016年美國大選前期,Facebook的新聞推送中出現了假新聞。
社交媒體巨頭Facebook和數據科學(xué)家并沒(méi)有編造故事。新聞信息流的開(kāi)發(fā)機制并不會(huì )區分“真”和“假”,只會(huì )根據用戶(hù)個(gè)人口味推動(dòng)個(gè)性化內容。Facebook沒(méi)公開(kāi)算法具體信息(也涉及專(zhuān)利問(wèn)題),但承認計算時(shí)會(huì )參考其他近似口味用戶(hù)閱讀和分享的內容。結果是:由于適合流傳的假新聞不斷出現,好友們又喜歡看,數百萬(wàn)人的新聞信息流里都出現了假新聞。
Facebook的例子說(shuō)明個(gè)人選擇與人工智能發(fā)生惡性互動(dòng)的情況,但研究者更擔心深度學(xué)習閱讀并誤讀整體數據。博士后提米特·葛布魯曾在微軟等公司研究算法倫理,她對深度學(xué)習影響保險市場(chǎng)的方式很擔心,因為在保險市場(chǎng)上人工智能與數據結合后可能導致少數群體受到不公待遇。舉個(gè)例子,想象有一組汽車(chē)事故索賠數據。數據顯示市中心交通事故率比較高,由于人口密集車(chē)禍也多。市中心居住的少數群體人數比例也相對更高。
如果深度學(xué)習軟件里嵌入了相關(guān)聯(lián)系再篩選數據,可能“發(fā)現”少數族裔與車(chē)禍之間存在聯(lián)系,還可能對少數族裔司機貼上某種標簽。簡(jiǎn)單來(lái)說(shuō),保險人工智能可能出現種族偏見(jiàn)。如果系統通過(guò)回顧市中心附近車(chē)禍現場(chǎng)的照片和視頻進(jìn)一步“培訓”,人工智能更有可能得出結論認為,在涉及多名司機的事故中,少數族裔司機過(guò)錯可能更大。系統還可能建議向少數族裔司機收取更高保費,不管之前駕駛記錄如何。
要指出一點(diǎn),保險公司都聲稱(chēng)不會(huì )因為種族區別對待或收取不同保費。但對市中心交通事故的假設顯示,看似中立的數據(交通事故發(fā)生地點(diǎn))也可能被人工智能系統吸收并解讀,從而導致新的不平等(算法根據具體民族向少數族裔收取更高保費,不管居住地點(diǎn)在哪)。
此外,葛布魯指出,由于深度學(xué)習系統決策基于層層疊疊的數據,人工智能軟件決策時(shí)工程師都不明白其中原因和機制。“這些都是我們之前沒(méi)想過(guò)的,因為人類(lèi)剛剛開(kāi)始發(fā)現基礎算法里存在的偏見(jiàn)。”她表示。
當代人工智能軟件與早期軟件不同之處在于,現在的系統“可以獨立作出具有法律意義的決策,”馬特·謝爾勒表示,他在門(mén)德?tīng)査陕蓭熓聞?wù)所擔任勞動(dòng)及就業(yè)律師,對人工智能頗有研究。謝爾勒開(kāi)始研究該領(lǐng)域時(shí)發(fā)現關(guān)鍵結果出臺過(guò)程中沒(méi)有人類(lèi)參與,他很擔心。如果由于數據存在紕漏,深度學(xué)習指導下的X光忽視一位超重男性體內的腫瘤,有人負責么?“有沒(méi)有人從法律角度看待這些問(wèn)題?”謝爾勒問(wèn)自己。
隨著(zhù)科技巨頭們準備將深度學(xué)習技術(shù)嵌入其客戶(hù)商業(yè)軟件,上述問(wèn)題便從學(xué)術(shù)界所討論的“假如”命題成為了急需考慮的事情。2016年,也就是Tay出現問(wèn)題的那一年,微軟組建了一個(gè)名為Aether(“工程,研究中的人工智能和道德”的首字母縮寫(xiě))的內部機構,由艾瑞克·霍維茨擔任主席。這是一個(gè)跨學(xué)科部門(mén),由工程、研究、政策和法律團隊的成員構成,機器學(xué)習偏見(jiàn)是其重點(diǎn)研究的議題之一。霍維茨在描述該部門(mén)所討論的一些話(huà)題時(shí)若有所思地說(shuō):“微軟對于面部識別之類(lèi)的軟件是否應該用于敏感領(lǐng)域是否已經(jīng)有了定論,例如刑事審判和監管。人工智能技術(shù)是否已經(jīng)足夠成熟,并用于這一領(lǐng)域,亦或由于失敗率依然非常高,因此人們不得不慎而又慎地思考失敗帶來(lái)的代價(jià)?”
杰奎因·奎諾內羅·坎德拉是Facebook應用機器學(xué)習部門(mén)的負責人,該部門(mén)負責為公司打造人工智能技術(shù)。在眾多其他的功能當中,Facebook使用人工智能技術(shù)來(lái)篩除用戶(hù)新聞推送中的垃圾信息。公司還使用這一技術(shù),根據用戶(hù)喜好來(lái)提供故事和貼文,而這也讓坎德拉的團隊幾近陷入假新聞危機。坎德拉將人工智能稱(chēng)之為“歷史加速器”,因為該技術(shù)“能夠讓我們打造優(yōu)秀的工具,從而提升我們的決策能力。”但是他也承認,“正是在決策的過(guò)程中,大量的倫理問(wèn)題接踵而至。”
Facebook在新聞推送領(lǐng)域遇到的難題說(shuō)明,一旦產(chǎn)品已經(jīng)根植于人工智能系統,要解決倫理問(wèn)題是異常困難的。微軟也曾通過(guò)在算法應忽略的術(shù)語(yǔ)黑名單中添加一些侮辱性詞語(yǔ)或種族綽號,推出了Tay這個(gè)相對簡(jiǎn)單的系統。但此舉無(wú)法幫助系統分辨“真”、“假”命題,因為其中涉及眾多的主觀(guān)判斷。Facebook的舉措則是引入人類(lèi)調解員來(lái)審查新聞信息(例如通過(guò)剔除來(lái)源于經(jīng)常發(fā)布可證實(shí)虛假新聞信息來(lái)源的文章),但此舉讓公司吃上了審查機構的官司。如今,Facebook所建議的一個(gè)舉措只不過(guò)是減少新聞推送中顯示的新聞數量,轉而突出嬰兒照和畢業(yè)照,可謂是以退為進(jìn)。
這一挑戰的關(guān)鍵之處在于:科技公司所面臨的兩難境地并不在于創(chuàng )建算法或聘請員工來(lái)監視整個(gè)過(guò)程,而是在于人性本身。真正的問(wèn)題并不在于技術(shù)或管理,而是關(guān)乎哲學(xué)。伯克利倫理學(xué)教授迪爾德麗·穆里根指出,計算機科學(xué)家很難將“公平”編入軟件,因為公平的意義會(huì )因人群的不同而發(fā)生變化。穆里根還指出,社會(huì )對于公平的認知會(huì )隨著(zhù)時(shí)間的變化而改變。而且對于大家廣泛接受的理想狀態(tài)的“公平”理念,也就是社會(huì )決策應體現社會(huì )每位成員的意志,歷史數據存在缺陷和缺失的可能性尤為突出。
微軟Aether部門(mén)的一個(gè)思想實(shí)驗便揭示了這一難題。在這個(gè)實(shí)驗中,人工智能技術(shù)對大量的求職者進(jìn)行了篩選,以挑選出適合高管職務(wù)的最佳人選。編程人員可以命令人工智能軟件掃描公司最佳員工的性格特征。雖然結果與公司的歷史息息相關(guān),但很有可能所有的最佳雇員,當然還有所有最高級別的高管,都是白人。人們也有可能會(huì )忽視這樣一種可能性,公司在歷史上僅提拔白人(大多數公司在前幾十年中都是這樣做的),或公司的文化便是如此,即少數族群或女性會(huì )有被公司冷落的感受,并在得到提升之前離開(kāi)公司。
任何了解公司歷史的人都知曉這些缺陷,但是大多數算法并不知道。霍維茨稱(chēng),如果人們利用人工智能來(lái)自動(dòng)推薦工作的話(huà),那么“此舉可能會(huì )放大社會(huì )中人們并不怎么引以為榮的一些偏見(jiàn)行為”,而且是不可避免的。
谷歌云計算部門(mén)的人工智能首席科學(xué)家李飛飛表示,技術(shù)偏見(jiàn)“如人類(lèi)文明一樣由來(lái)已久”,而且存在于諸如剪刀這種普通的事物當中。她解釋說(shuō):“數個(gè)世紀以來(lái),剪刀都是由右撇子的人設計的,而且使用它的人大多都是右撇子。直到有人發(fā)現了這一偏見(jiàn)之后,才意識到人們有必要設計供左撇子使用的剪刀。”全球人口僅有約10%是左撇子,作為人類(lèi)的一種天性,占主導地位的多數人群往往會(huì )忽視少數人群的感受。
事實(shí)證明,人工智能系統最近所犯的其他最為明顯的過(guò)錯也存在同樣的問(wèn)題。我們可以看看俄羅斯科學(xué)家利用人工智能系統在2016年開(kāi)展的選美大賽。為參加競賽,全球數千名人士提交了其自拍照,期間,計算機將根據人們臉部對稱(chēng)性等因素來(lái)評價(jià)其美貌。
然而,在機器選出的44名優(yōu)勝者當中,僅有一位是深色皮膚。這一結果讓全球一片嘩然,競賽舉辦方隨后將計算機的這一明顯偏見(jiàn)歸咎于用于培訓電腦的數據組,因為這些數據組中的有色人種照片并不多。計算機最終忽視了那些深色皮膚人種的照片,并認為那些淺膚色的人種更加漂亮,因為他們代表著(zhù)多數人群。
這種因忽視而造成的偏見(jiàn)在深度學(xué)習系統中尤為普遍,在這些系統中,圖片識別是培訓過(guò)程的重要組成部分。麻省理工大學(xué)媒體實(shí)驗室的喬伊·布沃拉姆維尼最近與微軟研究員葛布魯合作,撰寫(xiě)了一篇研究性別分辨技術(shù)的論文,這些技術(shù)來(lái)自于微軟、IBM和中國的曠視科技。他們發(fā)現,這些技術(shù)在識別淺膚色男性照片時(shí)的精確度比識別深膚色女性更高。
此類(lèi)算法空白在線(xiàn)上選美比賽中看起來(lái)可能是微不足道的事情,但葛布魯指出,此類(lèi)技術(shù)可能會(huì )被用于更加高風(fēng)險的場(chǎng)景。葛布魯說(shuō):“試想一下,如果一輛自動(dòng)駕駛汽車(chē)在看到黑人后無(wú)法識別,會(huì )出現什么后果。想必后果是非常可怕的。”
葛布魯-布沃拉姆維尼的論文激起了不小的浪花。微軟和IBM均表示,公司已采取針對性的措施來(lái)完善其圖片識別技術(shù)。盡管這兩家公司拒絕透露其舉措的詳情,但正在應對這一問(wèn)題的其他公司則讓我們窺見(jiàn)了如何利用科技來(lái)規避偏見(jiàn)。
當亞馬遜在部署用于篩除腐爛水果的算法時(shí),公司必須解決抽樣偏見(jiàn)問(wèn)題。人們會(huì )通過(guò)研究大量的圖片數據庫來(lái)培訓視覺(jué)辨認算法,其目的通常是為了識別,例如,草莓“本應”具有的模樣。然而,正如你所預料的那樣,與完好漿果光鮮亮麗的照片相比,腐爛的漿果相對較為稀少。而且與人類(lèi)不同的是,機器學(xué)習算法傾向于不計算或忽視它們,而人類(lèi)的大腦則傾向于注意這些異常群體,并對其做出強烈反應。
亞馬遜的人工智能總監拉爾夫·荷布里奇解釋道,作為調整,這位在線(xiàn)零售巨頭正在測試一項名為過(guò)采樣的計算機科學(xué)技術(shù)。機器學(xué)習工程師可通過(guò)向未充分代表的數據分配更大的統計學(xué)“權重”,來(lái)主導算法的學(xué)習方式。在上述案例中便是腐爛水果的照片。結果顯示,培訓后的算法更為關(guān)注變質(zhì)食物,而不是數據庫中可能建議的食品關(guān)聯(lián)性。
荷布里奇指出,過(guò)采樣也可被應用于學(xué)習人類(lèi)的算法(然而他拒絕透露亞馬遜在這一領(lǐng)域的具體案例)。荷布里奇說(shuō):“年齡、性別、種族、國籍,這些都是人們特別需要測試采樣偏見(jiàn)的領(lǐng)域,以便在今后將其融入算法。”為了確保用于識別照片人臉面部所使用的算法并不會(huì )歧視或忽視有色、老齡或超重人士,人們可以為此類(lèi)個(gè)人的照片增加權重,以彌補數據組所存在的缺陷。
其他工程師正在專(zhuān)注于進(jìn)一步“追根溯源”——確保用于培訓算法的基本數據(甚至在其部署之前)具有包容性,且沒(méi)有任何偏見(jiàn)。例如,在圖形識別領(lǐng)域,在錄入計算機之前,人們有必要對用于培訓深度學(xué)習系統的數百萬(wàn)圖片進(jìn)行審核和標記。數據培訓初創(chuàng )企業(yè)iMerit首席執行官雷德哈·巴蘇解釋道,公司遍布于全球的1400多名訓練有素的員工會(huì )代表其客戶(hù),以能夠規避偏見(jiàn)的方式對照片進(jìn)行標記。該公司的客戶(hù)包括GettyImages和eBay。
巴蘇拒絕透露這種標記方式是否適合標記人像圖片,但她介紹了其他的案例。iMerit在印度的員工可能會(huì )覺(jué)得咖喱菜不是很辣,而公司位于新奧爾良的員工可能會(huì )認為同樣的菜“很辣”。iMerit會(huì )確保這兩項信息均被錄入這道菜照片的標記中,因為僅錄入其中的一個(gè)信息會(huì )讓數據的精確性打折扣。在組建有關(guān)婚姻的數據集時(shí),iMerit將收錄傳統的西式白婚紗和多層蛋糕圖片,同時(shí)還會(huì )收錄印度或非洲精心策劃、色彩絢麗的婚禮。
iMerit的員工以一種不同的方式在業(yè)界脫穎而出。巴蘇指出:公司會(huì )聘用擁有博士學(xué)位的員工,以及那些受教育程度不高、較為貧困的人群,公司53%的員工都是女性。這一比例能夠確保公司在數據標記過(guò)程中獲得盡可能多的觀(guān)點(diǎn)。巴蘇表示,“良好的倫理政策不僅僅包含隱私和安全,還涉及偏見(jiàn)以及我們是否遺漏了某個(gè)觀(guān)點(diǎn)。”而找出這個(gè)遺漏的觀(guān)點(diǎn)已被更多科技公司提上了戰略議程。例如,谷歌在6月宣布,公司將在今年晚些時(shí)候于加納的阿格拉開(kāi)設人工智能研究中心。兩位谷歌工程師在一篇博文上寫(xiě)道:“人工智能在為世界帶來(lái)積極影響方面有著(zhù)巨大的潛力,如果在開(kāi)發(fā)新人工智能技術(shù)時(shí)能夠得到全球各地人士的不同觀(guān)點(diǎn),那么這一潛力將更大。”
人工智能專(zhuān)家還認為,他們可以通過(guò)讓美國從事人工智能行業(yè)的員工更加多元化,來(lái)應對偏見(jiàn),而多元化問(wèn)題一直是大型科技公司的一個(gè)障礙。谷歌高管李飛飛最近與他人共同創(chuàng )建了非營(yíng)利性機構AI4ALL,以面向女孩、婦女和少數群體普及人工智能技術(shù)和教育。該公司的活動(dòng)包括一個(gè)夏令營(yíng)計劃,參與者將到訪(fǎng)頂級大學(xué)的人工智能部門(mén),與導師和模范人物建立聯(lián)系。總之,AI4ALL執行董事苔絲·波斯內表示:“多樣性的提升有助于規避偏見(jiàn)風(fēng)險。”
然而,在這一代更加多元化的人工智能研究人員進(jìn)入勞動(dòng)力市場(chǎng)數年之前,大型科技公司便已然將深度學(xué)習能力融入其產(chǎn)品中。而且即便頂級研究人員越發(fā)意識到該技術(shù)的缺陷,并承認他們無(wú)法預知這些缺陷會(huì )以什么樣的方式展現出來(lái),但他們認為人工智能技術(shù)在社會(huì )和金融方面的效益,值得他們繼續向前邁進(jìn)。
Facebook高管坎德拉說(shuō):“我認為人們天生便對這種技術(shù)的前景持樂(lè )觀(guān)態(tài)度。”他還表示,幾乎任何數字技術(shù)都可能遭到濫用,但他同時(shí)也指出:“我并不希望回到上個(gè)世紀50年代,體驗當時(shí)落后的技術(shù),然后說(shuō):‘不,我們不能部署這些技術(shù),因為它們可能會(huì )被用于不良用途。’”
微軟研究負責人霍維茨表示,像Aether團隊這樣的部門(mén)將幫助公司在潛在的偏見(jiàn)問(wèn)題對公眾造成負面影響之前便消除這些偏見(jiàn)。他說(shuō):“我認為,在某項技術(shù)做好投入使用的準備之前,沒(méi)有人會(huì )急著(zhù)把它推向市場(chǎng)。”他還表示,相比而言,他更關(guān)心“不作為所帶來(lái)的倫理影響。”他認為,人工智能可能會(huì )降低醫院中可預防的醫療失誤。霍維茨詢(xún)問(wèn)道:“你的意思是說(shuō),你對我的系統偶爾出現的些許偏見(jiàn)問(wèn)題感到擔憂(yōu)嗎?如果我們可以通過(guò)X光拍片解決問(wèn)題并拯救眾多生命,但依然不去使用X光,倫理何在?”
監督部門(mén)的反映是:說(shuō)說(shuō)你所做的工作。提升人工智能黑盒系統所錄入數據的透明度和公開(kāi)度,有助于研究人員更快地發(fā)現偏見(jiàn),并更加迅速地解決問(wèn)題。當一個(gè)不透明的算法可以決定某個(gè)人是否能獲得保險,或該人是否會(huì )蹲監獄時(shí),麻省理工大學(xué)研究人員布沃拉姆維尼說(shuō)道:“非常重要的一點(diǎn)在于,我們必須嚴謹地去測試這些系統,而且需要確保一定的透明度。”
確實(shí),很少有人依然持有“人工智能絕對可靠”的觀(guān)點(diǎn),這是一個(gè)進(jìn)步。谷歌前任人工智能公共政策高管蒂姆·黃指出,在互聯(lián)網(wǎng)時(shí)代初期,科技公司可能會(huì )說(shuō),他們“只不過(guò)是一個(gè)代表數據的平臺而已”。如今,“這一理念已經(jīng)沒(méi)有市場(chǎng)”。