如何把控人工智能

    作者: 來源:人民日?qǐng)?bào) 發(fā)布時(shí)間:2018年05月16日 點(diǎn)擊數(shù):812 字號(hào):【

    近年來,隨著人工智能技術(shù)的快速發(fā)展,公眾的擔(dān)憂有所上升。最響亮的聲音之一來自于已故的斯蒂芬·霍金教授,他認(rèn)為人工智能可能會(huì)毀滅人類。那么,該如何看待人工智能的威脅?應(yīng)該采取行動(dòng)控制人工智能嗎?是否要像對(duì)待核能和其他潛在危險(xiǎn)的技術(shù)一樣,制定法律甚至是國際條約來控制人工智能的發(fā)展?

    回答這些問題之前,首先需要明確的是,人工智能的成就目前仍很有限?,F(xiàn)在的人工智能系統(tǒng)能夠執(zhí)行20年前計(jì)算機(jī)不可能完成的任務(wù)。比如,現(xiàn)在全世界每天都有數(shù)以百萬計(jì)的人在使用文本自動(dòng)翻譯工具;無人駕駛汽車即將問世,未來10年將出現(xiàn)在馬路上;計(jì)算機(jī)現(xiàn)在比人更善于識(shí)別人臉等。盡管這些成就令人印象深刻,但人們還是不知道應(yīng)該如何使機(jī)器具有意識(shí)和自我感知。因此,在可預(yù)見的未來,人工智能接管世界仍將是科幻小說的情節(jié)。當(dāng)然這并不意味著我們可以高枕無憂。

    人工智能系統(tǒng)越來越多地被用于做出決策,這對(duì)人們產(chǎn)生了直接影響。例如,銀行發(fā)現(xiàn)人工智能系統(tǒng)善于預(yù)測(cè)潛在客戶是否會(huì)成為優(yōu)質(zhì)客戶——是否會(huì)按時(shí)還債等。他們可以通過使用大量的客戶記錄,來“培訓(xùn)”一個(gè)人工智能系統(tǒng)。一段時(shí)間后,這一系統(tǒng)將能夠分析潛在客戶的詳細(xì)信息,從而預(yù)測(cè)其是否優(yōu)質(zhì)。對(duì)于銀行來說,可以迅速而低廉地決定是否需要一個(gè)特定的客戶。但對(duì)于客戶自身而言,應(yīng)該會(huì)感到擔(dān)憂:如果銀行的人工智能系統(tǒng)在某種程度上存在偏見怎么辦?

    這就是算法偏見。當(dāng)前人工智能浪潮的一個(gè)特點(diǎn)是,系統(tǒng)無法像人那樣,解釋或合理化其所做的決定。所以,銀行可能會(huì)使用人工智能系統(tǒng)來決定不與你做生意,但卻不能給你解釋原因。這公平嗎?銀行這樣運(yùn)作合乎道德嗎?誰來對(duì)這個(gè)決定負(fù)責(zé)?

    這些問題不容忽視。一種解決辦法是,建議對(duì)人工智能技術(shù)的使用進(jìn)行監(jiān)管。我認(rèn)為通過一般法律來管理人工智能的使用是不現(xiàn)實(shí)的,這似乎有點(diǎn)像試圖通過立法來管理數(shù)學(xué)的使用。一個(gè)似乎正在被接受的辦法是,如果軟件做出了影響你的決定,那么你應(yīng)該有權(quán)知道這個(gè)決定是如何做出的,使用了哪些和你有關(guān)的數(shù)據(jù),標(biāo)準(zhǔn)是什么。我認(rèn)為這比較合理。使人工智能可解釋化和透明化,是當(dāng)今這一領(lǐng)域面臨的最大挑戰(zhàn)之一。

    在某些情況下,人工智能決策可能直接事關(guān)生死,比如在戰(zhàn)場(chǎng)上使用人工智能系統(tǒng)。盡管目前還沒有證據(jù)表明這種“致命性自主武器”已經(jīng)被使用,但確實(shí)已經(jīng)具備了可能性。過去5年來,人工智能領(lǐng)域的科學(xué)家們積極行動(dòng),希望政府認(rèn)識(shí)到這一問題的嚴(yán)重性并做出應(yīng)對(duì)。最近英國政府在一份報(bào)告中明確表示,永遠(yuǎn)不給人工智能系統(tǒng)傷害人的權(quán)力。

    人工智能只是一種技術(shù),就像任何技術(shù)一樣,可以用來造福人類,也可能帶來危害。條件反射式的立法,對(duì)于把控人工智能不太可能奏效。我們需要以負(fù)責(zé)和道德的方式使用人工智能,正如最近全球關(guān)于自主武器的討論取得進(jìn)展一樣,國際社會(huì)需要應(yīng)對(duì)解決人工智能帶來的挑戰(zhàn)。

    日本超级污网站,国产AV大学生情侣AV浪潮,国产无码一区二区精品,亚洲av第一页国产精品 日本在线视频一区