導讀:人工智能亦可稱機器智能,通常是指由普通計算機程序來呈現(xiàn)人類智能的技術(shù),其核心問題包括建構(gòu)能夠跟人類比肩甚至超越人類的推理、知識、規(guī)劃、學習、交流、使用工具和操控機械等能力。
人工智能亦可稱機器智能,通常是指由普通計算機程序來呈現(xiàn)人類智能的技術(shù),其核心問題包括建構(gòu)能夠跟人類比肩甚至超越人類的推理、知識、規(guī)劃、學習、交流、使用工具和操控機械等能力。隨著人工智能技術(shù)的不斷發(fā)展,在大眾對這項技術(shù)刷新認識的同時,也產(chǎn)生了諸多的疑問及質(zhì)疑。
中科院自動化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅
作為中國人工智能的從業(yè)者,希望中國的人工智能發(fā)展成什么樣?就此相關(guān)問題,記者對中科院自動化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅進行了專訪。
大眾對人工智能的認識存在偏差
有人曾說,一個不再像人類一樣思維的機器,會引起大家的恐慌。在人工智能發(fā)展的過程當中,有很多人在疑問:人工智能實現(xiàn)通用智能、超級智能,是不是最大的風險?對此,曾毅回答道,在實現(xiàn)通用人工智能的途徑中一定會存在風險,但真正的風險,現(xiàn)在看來并不是通用智能或者超級智能,而是在于人工智能發(fā)展的道路過程當中已經(jīng)涌現(xiàn)出來的風險以及安全、倫理問題。
難以保障隱私的用戶數(shù)據(jù)(圖片來自網(wǎng)絡)
對于人工智能這樣由算法專家構(gòu)建的服務,極可能存在算法歧視、偏見等潛在問題,這些就足以使人工智能對我們的社會產(chǎn)生巨大的負面的影響。比如在人工智能的應用中,數(shù)據(jù)隱私泄露的問題非常廣泛,用戶可以把數(shù)據(jù)庫當中的用戶數(shù)據(jù)刪除,這樣看似用戶數(shù)據(jù)就被消除掉了,但其實數(shù)據(jù)庫已經(jīng)使用了它的數(shù)據(jù),數(shù)據(jù)特征已經(jīng)被模型學到了,這個時候用戶數(shù)據(jù)是不可能完全拿回的。曾毅談道,雖然類似歐盟在極力推動的“GDPR歐洲通用數(shù)據(jù)保護條例”有相關(guān)規(guī)定,但目前幾乎沒有一家企業(yè)真正完全符合GDPR,而大眾極度卻缺乏個人數(shù)據(jù)隱私保護意識。
曾毅表示,公眾很關(guān)注人工智能的社會影響,但是礙于大眾對于人工智能的風險不是太了解,所以人工智能技術(shù)的科普比任何時候都重要。
面對當前人工智能實際應用的安全問題需建立監(jiān)管平臺
面對人工智能的風險,當下存在嚴重兩極化:比如美國加州就決定禁用人臉識別技術(shù),但也有更多企業(yè)對風險持視而不見的態(tài)度??傮w而言,人工智能發(fā)展是主旋律,但是人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動?!爸窃慈斯ぶ悄苎芯吭喊踩珎惱硌芯恐行牟季值闹匾椖烤褪菑募夹g(shù)的角度來解決人工智能模型當中存在的風險問題,而不僅僅是停留在倫理原則上的討論?!痹阏f。
人臉識別技術(shù)(圖片來自網(wǎng)絡)
此外,曾毅還提出兩點建議:一方面,不管是企業(yè)、科研機構(gòu)、還是政府,在指導人工智能發(fā)展的時候,應該建立不同層級的人工智能倫理和治理委員會。另外一方面,應該號召國家建立人工智能服務和產(chǎn)品的監(jiān)管平臺?!叭缃竦陌l(fā)展模式是企業(yè)做完產(chǎn)品上線,一旦出了問題,有關(guān)部門再去約談,像前一段時間的換臉軟件就是這樣的。如果有監(jiān)管平臺,企業(yè)將用戶知情同意書傳上來,立刻就能發(fā)現(xiàn)其中的哪些原則違反了國家的法律或者是人工智能發(fā)展的原則,就可以在產(chǎn)生社會負面影響之前,規(guī)避掉存在的風險。”
保持對人工智能發(fā)展的敬畏和理性,是非常關(guān)鍵的。曾毅呼吁提升人工智能的技術(shù)人員對于風險和倫理問題的重視,使得他們真正在開發(fā)人工智能的時候,心中有紅線;在發(fā)展的方向上保證他們創(chuàng)造的人工智能產(chǎn)品向著對人類有益的方向發(fā)展。(記者 張蕃)
受訪專家:中科院自動化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅
本文來自:中國數(shù)字科技館