亚洲AV免费看深爱成人|日韩av另类一级特黄片在线|中国免费一级黄片|国产av一二三区|亚洲有码AV在线|久久亚洲国产日韩欧美|成人免费AV网站|婷婷一区综合一区|亚洲AV无码导航|高级欧美成人网站

如何構(gòu)建負責任的AI?中科院曾毅:可持續(xù)發(fā)展與治理須協(xié)同

發(fā)布時間:2024-01-26 13:37:18 瀏覽量:209次

“放眼全球可以看到,談人工智能倫理最多的公司,往往爆出的倫理問題也很突出,甚至有些公司的倫理研究團隊還承擔著廣告和公關的職能,由于與研發(fā)和應用團隊的分離,他們很難將倫理研究成果應用到設計、研發(fā)、部署等步驟中,甚至是起到了倫理清洗的作用?!?月3日,首屆全球數(shù)字經(jīng)濟大會人工智能產(chǎn)業(yè)治理主題論壇上,中國科學院自動化研究所研究員、國家新一代人工智能治理專委會委員曾毅發(fā)表《負責任的人工智能:可持續(xù)發(fā)展與治理的深度協(xié)同》主題演講,他認為,應該將人工智能倫理和治理嵌入到企業(yè)全流程和產(chǎn)品全生命周期中來。

曾毅

曾毅的建議也在此次會上得到積極回應。北京智源人工智能研究院和瑞萊智慧共同發(fā)起,百度、華為、螞蟻集團、寒武紀等數(shù)十家研究機構(gòu)與創(chuàng)新企業(yè)聯(lián)合參與的首個《人工智能產(chǎn)業(yè)擔當宣言》正式發(fā)布,該宣言強調(diào)科技企業(yè)在推動人工智能自律自治穩(wěn)健發(fā)展中應積極承擔的責任。

AI技術應具有可持續(xù)性

“談到人工智能,為什么要治理?”在演講中,曾毅拋出這個問題。他總結(jié)說,人工智能在發(fā)展過程中出現(xiàn)了倫理問題或者有潛在風險,人工智能倫理通俗來講可以概括為兩件事情,第一,人工智能應該做什么,什么是正當?shù)??第二,人工智能不應該做什么,什么是不當?shù)摹?/p>

曾毅認為,人工智能技術應該具有可持續(xù)性?!笆裁词遣豢沙掷m(xù)的人工智能?”曾毅說,看似智能,實際上幾乎沒有理解能力的信息處理工具,不是真正可持續(xù)的人工智能,在這個基礎上再擴張其應用場景和能力,卻缺乏對其負面影響的關注,這樣的人工智能非常有問題。

反之,如果是創(chuàng)建具有真正意義的智能機器,應用到人類生態(tài)和社會以及全球的可持續(xù)發(fā)展中,避免和最小化對社會和生態(tài)產(chǎn)生的負面影響,這樣的技術是可持續(xù)的人工智能。

“比如說人工智能應用于健康、教育,但是它也可能給健康和教育帶來負面影響,要真正做到人工智能賦能可持續(xù)發(fā)展,也要同步關注它產(chǎn)生的負面影響。”曾毅說。

遺憾的是,曾毅團隊曾分析了計算機科學和人工智能領域發(fā)表的英文文獻,發(fā)現(xiàn)800萬篇人工智能和計算機科學相關論文中,只有0.1%是真正和可持續(xù)發(fā)展目標高度關聯(lián)的;而且,絕大多數(shù)論文的應用偏向于教育、健康,究其原因,還是這兩個領域機遇多、能賺錢。

“如果人工智能創(chuàng)新的目標就是賺錢,那么大多數(shù)可持續(xù)發(fā)展目標無法通過人工智能來實現(xiàn)?!痹氵€呼吁,人工智能的創(chuàng)新者和企業(yè)更多地關注人工智能賦能野生動物保護、環(huán)境保護與氣候行動等議題。

AI治理與發(fā)展從來不存在沖突

在曾毅看來,可持續(xù)的人工智能,必須是善治的。治理先行還是發(fā)展優(yōu)先?它們從來不是競爭關系,因為人工智能穩(wěn)健發(fā)展,二者缺一不可,而且需要深度協(xié)同,從來不存在治理阻礙發(fā)展的問題,治理管控的是野蠻生長。

“盡管很多企業(yè)關注隱私問題,也有企業(yè)在隱私計算方面努力,但現(xiàn)在的技術進展真的足以保護用戶嗎?現(xiàn)狀恐怕很慘痛?!痹阏f。

他舉例說,很多國家禁用人臉識別,我國也頒布了人臉識別的規(guī)范,盡管人臉識別在一些場合被禁用,并沒有得到更多相關企業(yè)的反對,一個不爭的事實就是企業(yè)恐怕可以找到替代方案,步態(tài)識別、指紋識別、聲紋識別等等相關技術存在的技術和倫理風險和人臉識別是非常相似的,但是沒有引起公眾關注。

“人臉識別技術的禁用并不代表這個問題被解決了,實際上人臉識別存在的風險,比如隱私泄露對公平性的侵犯,技術不成熟性導致種族和性別之間的歧視,在任何一個生物特征識別的方法中都存在?!痹阏f,禁用一個特定技術并不能解決問題,應當通過學術界和產(chǎn)業(yè)界的共同努力解決這些技術中存在的技術和倫理痛點。

再比如,AI“監(jiān)控”進校園,學生再無隱私可言,國外則發(fā)展出了一套反人臉識別的技術,比如在人臉上貼膠帶或者戴特定的眼鏡,以規(guī)避人臉的檢測。

但在曾毅看來,針對校園霸凌、師生之間的糾紛,發(fā)生問題缺失證據(jù)等場景人工智能仍有發(fā)揮善用的空間。如果設計一個產(chǎn)品,平時保護學生隱私,發(fā)生異常事件時被激活并記錄異常事件,及時通知校方或報警,這樣的設計才是負責任的人工智能設計。

尚未能完全有效保護用戶

盡管不少人工智能手段,有助推動社會善治,但也存在不少尚未解決的大問題。

曾毅以用戶應該享有的“數(shù)據(jù)撤銷”權利為例,人工智能企業(yè)目前僅能做到的只是停留在可以從數(shù)據(jù)庫中刪除用戶數(shù)據(jù)。

然而,如何在人工智能的模型和服務中刪除用戶的數(shù)據(jù)和特征,這在技術上存在巨大挑戰(zhàn),幾乎沒有人可以做到在一個深度學習模型中刪除單個用戶對模型形成的影響。

“蠻力的解決辦法就是重新訓練人工智能模型,而多長時間訓練一次,一個月?半年?一些大模型訓練一次耗費五百萬元?!痹阏f,更新數(shù)據(jù)的代價就是,很多企業(yè)選擇不去更新。

有些方法試圖保護用戶數(shù)據(jù),代價是犧牲其它方面。曾毅再舉例說,聯(lián)邦學習可以在不分享自己數(shù)據(jù)的情況下,在分享的數(shù)據(jù)模型基礎上聯(lián)合學習,在保護用戶隱私數(shù)據(jù)的同時受益于其他企業(yè)的模型,服務于自己的企業(yè),但這回避了一個關鍵問題,即用戶知情同意,“用戶是否同意把自己的數(shù)據(jù),以模型的形式改善或服務于其它的企業(yè)和應用?如果沒有,這就違反了用戶知情同意”。

在曾毅看來,這似乎是為了解決問題A引入了問題B,更完善的用戶知情同意機制需要進一步建立。差分隱私是隱私保護中應用比較多的技術,但為了保護隱私而使模式識別率下降10%到30%,可能很多企業(yè)也會猶豫。

【記者】郜小平

【出品】南方產(chǎn)業(yè)智庫

【作者】 郜小平

南方產(chǎn)業(yè)智庫

來源:南方+ - 創(chuàng)造更多價值

熱門課程推薦

熱門資訊

請綁定手機號

x

同學您好!

您已成功報名0元試學活動,老師會在第一時間與您取得聯(lián)系,請保持電話暢通!
確定