日韩黄色视频网址_无码好片_激情综合激情五月_高h视频在线观看,人禽杂交无码AV,夜色福利院免费AV,2021最新国产成人精品,AV在线无码不卡,久久频这里精品99香蕉,免费高清欧美一级A片,好看的午夜色色影院

便利伴隨著擔(dān)憂 “刷臉”會不會刷走安全
2018-08-16 07:39:52 來源: 人民日報
關(guān)注新華網(wǎng)
微博
Qzone
評論
圖集

  人工智能的應(yīng)用帶來便利,,也引發(fā)數(shù)據(jù)濫用,、隱私侵犯的擔(dān)憂

  “刷臉”會不會刷走安全(解碼·人臉識別技術(shù))

  隨著數(shù)據(jù)的積累、計算機算力的躍升和算法的優(yōu)化,,人工智能正在讓生活變得高效,。語音識別,、圖像識別使身份認證更可信賴,,短短幾秒就能證明“你就是你”;智能診療和自動駕駛,,更讓人們看到了戰(zhàn)勝疾病,、減少事故的新機會;人工智能還可以輕松戰(zhàn)勝圍棋高手,,寫出優(yōu)美的詩句……其自主性和創(chuàng)造性正在模糊人和機器的分野,。

  但是,當(dāng)隱私侵犯,、數(shù)據(jù)泄露,、算法偏見等事件層出不窮時,人們又不得不反思:人工智能的持續(xù)進步和廣泛應(yīng)用帶來的好處是巨大的,,為了讓它真正有益于社會,,同樣不能忽視的還有對人工智能的價值引導(dǎo)、倫理調(diào)節(jié)以及風(fēng)險規(guī)制,。

  “刷臉”應(yīng)用更廣泛,,對隱私權(quán)的威脅值得重視

  “刷臉”進站、“刷臉”支付,、“刷臉”簽到,、“刷臉”執(zhí)法……人臉識別技術(shù)正走進更為廣闊的應(yīng)用場景,與指紋,、虹膜等相比,,人臉是一個具有弱隱私性的生物特征,因此,,這一技術(shù)對于公民隱私保護造成的威脅性尤其值得重視,。“人臉圖像或視頻廣義上講也是數(shù)據(jù),,如果沒有妥善保管和合理使用,,就會容易侵犯用戶的隱私,。”中國社會科學(xué)院哲學(xué)研究所研究員段偉文說,。

  通過數(shù)據(jù)采集和機器學(xué)習(xí)來對用戶的特征,、偏好等“畫像”,互聯(lián)網(wǎng)服務(wù)商進而提供一些個性化的服務(wù)和推薦等,,從正面看是有利于供需雙方的一種互動,。但對于消費者來說,這種交換是不對等的,。就頻頻發(fā)生的個人數(shù)據(jù)侵權(quán)的事件來看,,個人數(shù)據(jù)權(quán)利與機構(gòu)數(shù)據(jù)權(quán)力的對比已經(jīng)失衡,在對數(shù)據(jù)的收集和使用方面,,消費者是被動的,,企業(yè)和機構(gòu)是主動的。段偉文表示,,“數(shù)據(jù)實際上成為被企業(yè)壟斷的資源,,又是驅(qū)動經(jīng)濟的要素?!比绻碳抑粡淖陨砝娉霭l(fā),,就難免會對個人數(shù)據(jù)過度使用或者不恰當(dāng)披露。

  “大數(shù)據(jù)時代,,個人在互聯(lián)網(wǎng)上的任何行為都會變成數(shù)據(jù)被沉淀下來,,而這些數(shù)據(jù)的匯集都可能最終導(dǎo)致個人隱私的泄露?!焙蠋煼洞髮W(xué)人工智能道德決策研究所所長李倫認為,,用戶已經(jīng)成為被觀察、分析和監(jiān)測的對象,。

  算法應(yīng)更客觀透明,,要避免歧視與“殺熟”

  在信息爆炸的時代,數(shù)據(jù)的處理,、分析,、應(yīng)用很多都是由算法來實現(xiàn)的,越來越多的決策正被算法所取代,。從內(nèi)容推薦到廣告投放,,從信用額度評估到犯罪風(fēng)險評估,算法無處不在——它操作的自動駕駛或許比司機更加安全,,它得出的診斷結(jié)果可能比醫(yī)生更準確,,越來越多的人開始習(xí)慣一個由算法構(gòu)建的“打分”社會。

  作為一種信息技術(shù),算法在撥開信息和數(shù)據(jù)“迷霧”的同時,,也面臨著倫理上的挑戰(zhàn):利用人工智能來評估犯罪風(fēng)險,,算法可以影響刑罰;當(dāng)自動駕駛汽車面臨危險,,算法可以決定犧牲哪一方,;應(yīng)用于武器系統(tǒng)的算法甚至可以決定攻擊的目標……由此引發(fā)了一個不容忽視的問題:如何確保算法的公正?

  騰訊研究院法律研究中心高級研究員曹建峰認為,,即使作為一種數(shù)學(xué)表達,,算法本質(zhì)上也是“以數(shù)學(xué)方式或者計算機代碼表達的意見”。算法的設(shè)計,、模型,、目的、成功標準,、數(shù)據(jù)使用等,,都是編程人員的主觀選擇,偏見會有意或者無意地嵌入算法,,使之代碼化,?!八惴ú⒉豢陀^,,在算法決策起作用的諸多領(lǐng)域,算法歧視也并不鮮見,?!?/p>

  “算法決策多數(shù)情況下是一種預(yù)測,用過去的數(shù)據(jù)預(yù)測未來的趨勢,,算法模型和數(shù)據(jù)輸入決定著預(yù)測的結(jié)果,,因此這兩個要素也就成為算法歧視的主要來源?!辈芙ǚ褰忉屨f,,除了主觀因素以外,數(shù)據(jù)本身也會影響算法的決策和預(yù)測,?!皵?shù)據(jù)是社會現(xiàn)實的反映,數(shù)據(jù)可能是不正確,、不完整或者過時的,,訓(xùn)練數(shù)據(jù)本身也可能是歧視性的,用這樣的數(shù)據(jù)訓(xùn)練出來的算法系統(tǒng),,自然也會帶上歧視的烙印,。”

  2016年3月,微軟人工智能聊天機器人Tay上線,,在與網(wǎng)民互動過程中,,很短時間內(nèi)就“誤入歧途”,集性別歧視,、種族歧視于一身,,最終微軟不得不讓它“下崗”。曹建峰認為,,算法傾向于將歧視固化或放大,,使歧視長存于整個算法之中。因此,,如果將算法應(yīng)用在犯罪評估,、信用貸款、雇傭評估等關(guān)系人們切身利益的場合,,一旦產(chǎn)生歧視,,就可能危害個人乃至社會的利益。

  此外,,深度學(xué)習(xí)還是一個典型的“黑箱”算法,,可能連設(shè)計者都不知道算法如何決策,因而要在系統(tǒng)中發(fā)現(xiàn)是否存在歧視和歧視根源,,技術(shù)上也較為困難,。“算法的‘黑箱’特征使其決策邏輯缺乏透明性和可解釋性,?!崩顐愓f,隨著大數(shù)據(jù)“殺熟”,、算法歧視等事件的出現(xiàn),,社會對算法的質(zhì)疑也逐漸增多。政府和企業(yè)在使用數(shù)據(jù)的過程中,,必須提高對公眾的透明度,,讓選擇權(quán)回歸個人。

  加強核查監(jiān)管,,加大對數(shù)據(jù)濫用等行為的懲戒力度

  2017年7月,,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》)?!兑?guī)劃》強調(diào),,促進人工智能行業(yè)和企業(yè)自律,切實加強管理,,加大對數(shù)據(jù)濫用,、侵犯個人隱私,、違背道德倫理等行為的懲戒力度。

  “雖然‘刷臉’的應(yīng)用越來越多,,但人工智能目前仍處于起步階段,,需加大對數(shù)據(jù)和隱私的保護力度,關(guān)注和防范由算法濫用所導(dǎo)致的決策失誤和社會不公,?!痹趥€人數(shù)據(jù)權(quán)利的保護方面,段偉文建議,,應(yīng)促使數(shù)據(jù)交易各方對自己的行為負責(zé),,讓每個人知道自己的數(shù)據(jù)如何被處理,特別是用于其他用途的情形,,減少數(shù)據(jù)濫用,,讓人們清楚知道自己的“臉”還是否安全。

  段偉文認為,,要進一步加強人工智能的倫理設(shè)計,,對算法的理論預(yù)設(shè)、內(nèi)在機制與實踐語境等進行全流程追問與核查,,從算法決策的結(jié)果和影響中的不公正入手,,反向核查其機制與過程有無故意或不自覺的曲解與誤導(dǎo),揭示存在的問題,,并促使其修正和改進,。

  在曹建峰看來,應(yīng)對人工智能帶來的倫理問題,,一是要構(gòu)建算法治理的內(nèi)外部約束機制,,將人類社會的法律、道德等規(guī)范和價值嵌入人工智能系統(tǒng),;二是在人工智能研發(fā)中貫徹倫理原則,促使研發(fā)人員遵守基本的倫理準則,;三是對算法進行必要的監(jiān)管,,提升算法自身的代碼透明性和算法決策的透明性;四是針對算法決策和歧視以及造成的人身財產(chǎn)損害,,提供法律救濟,。

  “我們生活在一個人機共生的時代,人類與機器之間勢必將發(fā)生各種沖突和矛盾,,僅靠法律和制度很難完全解決,?!崩顐惐硎?,人們還應(yīng)努力提升自身的科學(xué)素養(yǎng),,主動維護自身的權(quán)利,社會也應(yīng)盡快建立討論人工智能倫理問題的公共平臺,,讓各方充分表達意見,,促進共識的形成。(本報記者 谷業(yè)凱)

+1
【糾錯】 責(zé)任編輯: 郝多
新聞評論
加載更多
金山嶺長城艷麗晚霞如畫卷
金山嶺長城艷麗晚霞如畫卷
“天空之鏡”——茶卡鹽湖
“天空之鏡”——茶卡鹽湖
鐵路工人:戰(zhàn)高溫 保安全
鐵路工人:戰(zhàn)高溫 保安全
江蘇泗洪:高溫下的采蓮人
江蘇泗洪:高溫下的采蓮人

?
010020020110000000000000011101011123276554