導(dǎo)讀: 歐盟委員會(huì)(European Commission)周一公布了人工智能道德準(zhǔn)則,旨在在人工智能系統(tǒng)深入社會(huì)之前影響其發(fā)展。這種干預(yù)可能有助于打破監(jiān)管機(jī)構(gòu)被迫追趕新興技術(shù)的模式,這些技術(shù)往往會(huì)帶來意想不到的負(fù)面后果。
歐盟委員會(huì)(European Commission)周一公布了人工智能道德準(zhǔn)則,旨在在人工智能系統(tǒng)深入社會(huì)之前影響其發(fā)展。這種干預(yù)可能有助于打破監(jiān)管機(jī)構(gòu)被迫追趕新興技術(shù)的模式,這些技術(shù)往往會(huì)帶來意想不到的負(fù)面后果。
周一,英國提出新規(guī)定,要求互聯(lián)網(wǎng)公司對(duì)清除其平臺(tái)上的有害內(nèi)容承擔(dān)法律責(zé)任,凸顯了這么做的重要性。
歐盟在科技監(jiān)管方面已走在全球前列,去年出臺(tái)了一項(xiàng)具有里程碑意義的數(shù)據(jù)隱私法,同時(shí)以反競爭行為和未繳稅款為由,對(duì)大型科技公司提起訴訟。
人工智能吸引了公眾的想象力,并對(duì)潛在的濫用發(fā)出了可怕的警告,這是歐盟最新的監(jiān)管領(lǐng)域。這不是一個(gè)簡單的話題。例如,谷歌上周關(guān)閉了其新成立的人工智能倫理委員會(huì),原因是一群員工要求該組織的一個(gè)保守派智庫首領(lǐng)離開。
歐盟委員會(huì)制定了指導(dǎo)人工智能發(fā)展和建立信任的7項(xiàng)原則。雖然這些指導(dǎo)方針沒有約束力,但它們可能成為未來幾年進(jìn)一步行動(dòng)的基礎(chǔ)。
透明度是關(guān)鍵
歐洲負(fù)責(zé)數(shù)字經(jīng)濟(jì)的最高官員瑪麗亞-加布里爾(Mariya Gabriel)表示,使用人工智能系統(tǒng)的公司應(yīng)該對(duì)公眾透明。
例如,基于算法拒絕索賠的保險(xiǎn)公司應(yīng)該確保客戶知道如何以及為什么做出這個(gè)決定,人類應(yīng)該能夠介入且可以推翻這個(gè)決定。
歐盟委員會(huì)表示,未來的人工智能系統(tǒng)需要在整個(gè)生命周期內(nèi)安全可靠。它還表示,數(shù)據(jù)保護(hù)必須是一個(gè)優(yōu)先事項(xiàng),用戶必須可以控制自己的信息。這項(xiàng)規(guī)則指引將責(zé)任完全推給了那些構(gòu)建和部署人工智能系統(tǒng)的人。
避免歧視
Gabriel還表示,公司需要確保他們的人工智能系統(tǒng)是公平的。她舉例說,在招聘過程中使用的一種算法使用的數(shù)據(jù)來自一家只聘用男性的公司,這種算法可能會(huì)拒絕女性候選人。
非營利性組織AlgorithmWatch表示,雖然制定指導(dǎo)方針是個(gè)好主意,但歐洲的做法存在問題。
美因茨大學(xué)(University of Mainz)教授、哲學(xué)家托馬斯-梅辛格(Thomas Metzinger)幫助起草了指導(dǎo)方針,但批評(píng)他們沒有禁止使用人工智能開發(fā)武器。其他人則擔(dān)心這些指導(dǎo)方針會(huì)對(duì)創(chuàng)新產(chǎn)生影響。
歐盟現(xiàn)在將嘗試與大型科技公司合作,通過一個(gè)試點(diǎn)項(xiàng)目來解決這些問題和其他問題。