• <strike id="fdgpu"><input id="fdgpu"></input></strike>
    <label id="fdgpu"></label>
    <s id="fdgpu"><code id="fdgpu"></code></s>

  • <label id="fdgpu"></label>
  • <span id="fdgpu"><u id="fdgpu"></u></span>

    <s id="fdgpu"><sub id="fdgpu"></sub></s>
    您當前的位置是:  首頁(yè) > 新聞 > 國際 >
     首頁(yè) > 新聞 > 國際 >

    未來(lái)熱門(mén)職業(yè):為機器人看病的心理醫生

    2017-08-03 14:29:41   作者:   來(lái)源:華爾街日報   評論:0  點(diǎn)擊:


      人工智能工程師現在面臨一個(gè)問(wèn)題:他們常常不知道自己研發(fā)出來(lái)的那個(gè)玩意兒在想什么。為了解決這一難題,工程師求助于認知心理學(xué)。
    圖為1968年影片《2001太空漫游》中的超級電腦哈兒(HAL),它眼睛里映出的是男主角戴維﹒鮑曼(Dave Bowman)。戴維想讓哈兒做的不過(guò)就是打開(kāi)救生艙門(mén)。ENLARGE
    圖為1968年影片《2001太空漫游》中的超級電腦哈兒(HAL),它眼睛里映出的是男主角戴維﹒鮑曼(Dave Bowman)。戴維想讓哈兒做的不過(guò)就是打開(kāi)救生艙門(mén)。圖片來(lái)源:EVERETT COLLECTION
      人工智能工程師現在面臨一個(gè)問(wèn)題:他們常常不知道自己研發(fā)出來(lái)的那個(gè)玩意兒在想什么。
      隨著(zhù)人工智能日趨復雜和普及,它的影響力也越來(lái)越大。在判定誰(shuí)該入獄,誰(shuí)能獲得貸款方面,人工智能都已經(jīng)開(kāi)始施展拳腳。有人建議,在一輛自動(dòng)駕駛汽車(chē)發(fā)生不可避免的車(chē)禍時(shí),應由人工智能判斷哪個(gè)人的存活幾率最大。
      初創(chuàng )企業(yè)現在無(wú)論做什么,都喜歡給自己貼上人工智能的標簽。蹭人工智能名頭的方式越來(lái)越狡猾,請務(wù)必謹慎定義。一般來(lái)說(shuō),人們普遍認為人工智能指的是模仿人類(lèi)智慧和能力的科技。
      人工智能領(lǐng)域中發(fā)展尤為神勇的一個(gè)分支是神經(jīng)網(wǎng)絡(luò ),該系統可像人類(lèi)那樣通過(guò)訓練來(lái)“學(xué)習”,把學(xué)習經(jīng)驗轉變?yōu)槟M神經(jīng)元網(wǎng)絡(luò )。最終生成的不是代碼,而是晦澀難辨、紛亂復雜的數百萬(wàn)、甚至數十億個(gè)人工神經(jīng)元。這也解釋了創(chuàng )造現代人工智能的科學(xué)家何以對人工智能完成任務(wù)的方式表示費解。
      大多數研究人員一致認為,了解人工智能是一項迫在眉睫的挑戰。如果我們不理解人工智能的工作方式,那我們如何確定它是否帶有偏見(jiàn),又如何預測它可能出現的錯誤?
    隨著(zhù)人工智能的日趨復雜和普及,它的影響力也越來(lái)越大。有人建議,在自動(dòng)駕駛汽車(chē)發(fā)生不可避免的碰撞時(shí),應由人工智能判斷哪個(gè)司機的存活幾率最大。圖為處于自動(dòng)駕駛模式的優(yōu)步車(chē)輛。知道人工智能什么時(shí)候會(huì )有意外之舉,這一點(diǎn)很重要。圖片來(lái)源:ERIC RISBERG/ASSOCIATED PRESS
    隨著(zhù)人工智能的日趨復雜和普及,它的影響力也越來(lái)越大。有人建議,在自動(dòng)駕駛汽車(chē)發(fā)生不可避免的碰撞時(shí),應由人工智能判斷哪個(gè)司機的存活幾率最大。圖為處于自動(dòng)駕駛模式的優(yōu)步車(chē)輛。知道人工智能什么時(shí)候會(huì )有意外之舉,這一點(diǎn)很重要。圖片來(lái)源:ERIC RISBERG/ASSOCIATED PRESS
      人工智能會(huì )不會(huì )是種族主義者?它會(huì )不會(huì )有一些意想不到的“腦回路”,引發(fā)自動(dòng)駕駛車(chē)輛失靈,造成車(chē)禍?這些我們都無(wú)法提前預知。只有在它做出了無(wú)數個(gè)決定后,我們才可能了解到它是否有偏見(jiàn)。知道人工智能何時(shí)會(huì )失靈,何時(shí)會(huì )有意外之舉,何時(shí)會(huì )告訴我們:“對不起,戴維,恐怕我辦不到”,這一點(diǎn)非常重要。
      曾在圖片社交網(wǎng)站Pinterest Inc.研究機器學(xué)習的軟件工程師TracyChou說(shuō):“現在的一大問(wèn)題是,人們以為人工智能或機器學(xué)習不帶偏見(jiàn),十分中立。之所以有這個(gè)印象,很重要的一個(gè)原因是,大家沒(méi)有認識到,設計人工智能模式的是人,給它們選擇訓練數據的也是人。”
      谷歌翻譯(Google Translate)便是一例。比如,讓它將英文單詞“doctor”(醫生)譯成葡萄牙語(yǔ),它給出的總是陽(yáng)性名詞medico,而不是陰性名詞medica。讓它翻“nurse”(護士),它給出的則是陰性名詞enfermeira,而不是陽(yáng)性名詞enfermeiro。
      陰謀嗎?非也。用本身就帶有偏見(jiàn)的文學(xué)庫來(lái)訓練翻譯系統,后者自然一脈相承地也有了偏見(jiàn)。若研究人員刪除種族這個(gè)類(lèi)別,數據一樣帶有偏見(jiàn),因為還有其他與種族關(guān)系密切的數據(比如一個(gè)人在哪里生活),那些數據就成了種族的代名詞。
      機器人畢竟不是人,我們不能直接問(wèn)一個(gè)機器人,你為什么要做這件事?不錯,人工智能可以出色地完成一些片面任務(wù),而實(shí)際上,即便是那些會(huì )說(shuō)話(huà)的機器人,其自我反思能力跟一只蟑螂差不了多少。
    2017年1月,人工智能研究者、軟件工程師、DeepMind Technologies聯(lián)合創(chuàng  )始人哈薩比斯(Demis Hassabis)在德國慕尼黑大會(huì )上講話(huà)。圖片來(lái)源:TOBIAS HASE/DPA/ZUMA PRESS
    2017年1月,人工智能研究者、軟件工程師、DeepMind Technologies聯(lián)合創(chuàng )始人哈薩比斯(Demis Hassabis)在德國慕尼黑大會(huì )上講話(huà)。圖片來(lái)源:TOBIAS HASE/DPA/ZUMA PRESS
      這是個(gè)很難攻克的課題,美國國防高等研究計劃署(Defense Advanced Research Projects Agency,簡(jiǎn)稱(chēng):Darpa)正在為“可解釋人工智能”項目提供資金支持。
      下面說(shuō)說(shuō)這個(gè)課題為何難以被攻克。在計算機科學(xué)領(lǐng)域,要想解決某個(gè)問(wèn)題,有個(gè)好辦法是讓工程師編寫(xiě)一個(gè)神經(jīng)網(wǎng)絡(luò )(相當于原腦),然后給它灌輸海量數據來(lái)訓練它。舉例來(lái)說(shuō),只要人工智能有足夠的時(shí)間去消化一堆貼有“貓”標簽的圖像,那它就可以挑出貓的照片。
      難點(diǎn)在于,神經(jīng)網(wǎng)絡(luò )是通過(guò)內在的“自我改造”完成學(xué)習任務(wù)的。人腦基本上也是這樣工作的。就像我們無(wú)法理解人腦中約860億個(gè)神經(jīng)元之間的相互連接一樣,人工智能“思考”的具體方式亦令我們費解。
      工程師將上述情況稱(chēng)為“可解釋性”問(wèn)題(也就是尚無(wú)法解釋?zhuān)焉窠?jīng)網(wǎng)絡(luò )稱(chēng)為“黑匣子”(我們可以模擬和觀(guān)察、但無(wú)法了解其內部的東西。)
      Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人員宣布了一個(gè)探索機器心智的獨辟蹊徑之道:像對待孩子一樣對待機器。
      也就是說(shuō),工程師對人工智能使用認知心理學(xué)技術(shù),這并不是比喻。參與這個(gè)項目的DeepMind的科學(xué)家巴雷特(David Barrett)說(shuō),為了梳理人工智能的所思所想,DeepMind團隊對人工智能用的測試題和材料與心理學(xué)家對兒童用的一模一樣。
      巴雷特說(shuō),幾十年來(lái)通過(guò)認知科學(xué)解開(kāi)人腦之謎的研究如今應用到了機器上,有可能打開(kāi)一扇認識人工智能的新大門(mén),讓人工智能變得更易懂。
      DeepMind的研究結果之一是讓我們知道了,至少有一種人工智能(用來(lái)認字的“一次性學(xué)習模式”,那些字只給它看一眼)用的是和人類(lèi)一樣的解決問(wèn)題的方式,真是令人吃驚。它也是通過(guò)形狀來(lái)識別物體,哪怕沒(méi)人教它這么做,哪怕識別隨機物體還可以通過(guò)顏色、質(zhì)地或動(dòng)作等其他方式。以前它的學(xué)習方式不為人知。
      理解只是我們與人工智能互動(dòng)的第一步。機器人心理學(xué)的另一半可被形容為“心理治療”,也就是說(shuō),改變它的想法。
      巴雷特說(shuō),工程師在創(chuàng )造人工智能時(shí),為了找到最棒的那個(gè),一般會(huì )做出很多版本,而使用認知心理學(xué)能讓工程師擁有更多“實(shí)權”,可以選擇那些按照人類(lèi)希望的方式去“思考”的機器。又或許,人工智能的思考方式與我們不同,而且更好,這樣我們就可以學(xué)點(diǎn)解決問(wèn)題的新辦法。
      結果就是,當我們用人工智能替代人類(lèi)決策者時(shí),人工智能有更上一層樓的潛力,變得更少出錯,更加可靠,因為人工智能的行為是可衡量的,我們或許可以精確追溯它們做決定的整個(gè)過(guò)程。
      對于人類(lèi)的行為,我們一直也是這么要求的(如在法庭上剖析一個(gè)商業(yè)決定),但眾所周知,人類(lèi)是不可靠的敘述者。有了機器人后,我們終于迎來(lái)了剛正不阿的決策者,它們的所有偏見(jiàn)和一閃而過(guò)的沖動(dòng)都可以被仔細審視和修正。
    【免責聲明】本文僅代表作者本人觀(guān)點(diǎn),與CTI論壇無(wú)關(guān)。CTI論壇對文中陳述、觀(guān)點(diǎn)判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

    專(zhuān)題

    亚洲精品网站在线观看不卡无广告,国产a不卡片精品免费观看,欧美亚洲一区二区三区在线,国产一区二区三区日韩 鹤山市| 曲麻莱县| 拜泉县| 永胜县| 谷城县| 中阳县| 滕州市| 汉寿县| 清涧县| 郓城县| 寿阳县| 牟定县| 连城县| 时尚| 云阳县| 湖北省| 盖州市| 横山县| 新乐市| 定安县| 琼中| 石台县| 新化县| 牟定县| 永宁县| 清水县| 平泉县| 余姚市| 文成县| 鲜城| 岳普湖县| 大英县| 田阳县| 郧西县| 乌兰察布市| 郎溪县| 阿克陶县| 新闻| 南康市| 广南县| 正定县| http://444 http://444 http://444 http://444 http://444 http://444