2018年12月26日 星期三

歐盟AI道德準則草案:有份可信賴AI評估列表

歐盟AI道德準則草案:有份可信賴AI評估列表
北京新浪網 (2018-12-25
 歐盟近年來一直宣稱自己是「可信賴人工智慧」的推動者。
12月18日,歐盟人工智慧高級別專家組(AI HLEG)正式向社會發佈了一份
人工智慧道德準則草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI,以下簡稱草案),
該草案被視為是歐洲製造「可信賴人工智慧」的討論起點。

「可信賴人工智慧」有兩個必要的組成部分:
首先,它應該尊重基本權利、規章制度、核心原則及價值觀,以確保「道德目的」,
其次,它應該在技術上強健且可靠,因為即使有良好的意圖,缺乏對技術的掌握也會造成無意的傷害。
為人工智慧系統提供具體實施和操作層面的指導。

  草案共37頁,第一章通過闡述人工智慧應該遵守的基本權利、原則和價值觀,
試圖確保人工智慧的道德目的。
根據第一章所闡述的原則,第二章給出了實現「可信賴人工智慧」的準則和詳細要求,
既涉及道德目的,也涉及技術穩健性,既有技術層面的要求,也有非技術層面的要求。
第三章則為「可信賴人工智慧」提供了一張具體但非窮盡的評估列表。

「未經知情同意的識別」
人工智慧中的人臉識別等技術使得公共或私人組織能夠有效的識別個人。
草案認為,「為了維護歐洲公民的自主權,人工智慧的這一使用需要得到適當的控制」。
具體而言,
區分
個體識別
個體跟蹤
目標監視
大規模監視
對於實現「可信賴人工智慧」至關重要。
「隱蔽的人工智慧系統」
專家組提出,人們「應當牢記,人與機器之間的混淆會產生多種後果,比如依戀、影響或降低作為人的價值
因此,人形機器人機器人的發展應經過仔細的道德評估。」
AI的開發、部署和使用應以人為中心
須反應公民的福利、無害、人類自主、爭議和可解釋性等社會價值觀道德原則
其次是評估AI對人類及其共同利益的可能影響,尤其需要注意兒童、殘障人士和少數群體等弱勢群體的情況。
第三是人們需要承認並意識到人工智慧在為個人和社會帶來實質性好處的同時也可能產生負面影響,
人們需要「對嚴重關切的領域保持警惕」。
該草案將於2019年3月提交到歐盟委員會。

沒有留言:

張貼留言

如何免費增加monica AI使用次數

⚡chrome 線上應用程式商店-Monica-ChatGPT4驅動的AI Copilot https://chromewebstore.google.com/detail/monica-your-ai-copilot-po/ofpnmcalabcbjgholdjcjblkibo...