無障礙鏈接

突發新聞

聯合國譴責警方利用大數據的種族定性做法


執法人員在邊境檢查站站崗。 (2020年9月15日)
執法人員在邊境檢查站站崗。 (2020年9月15日)
聯合國譴責警方利用大數據的種族定性做法
please wait

No media source currently available

0:00 0:01:01 0:00

聯合國專家星期四(11月26日)表示,警察和邊防人員必須防止(combat)種族定性,並確保他們使用通過人工智能收集的“大數據”不會加劇對少數族裔的偏見。

專家認為向公共實體和私人公司出售分析系統的公司,必須受到監管,以防止濫用個人數據,使偏見繼續下去。

聯合國消除歧視委員會(CERD)成員維蕾娜·謝潑德(Verene Shepherd)對路透社表示: “這是一種快速發展的技術手段,執法部門利用大數據來確定誰可能做什麼。這就是它的危險所在。”

她還說:“我們聽說過一些公司使用這些算法根據膚色進行歧視。”

謝潑德和CERD的其他專家已就預防和防止執法官員的種族定性提出一般性建議(Preventing and Combating Racial Profiling by Law Enforcement Officials),一般性建議是協助182個國家履行《消除一切形式種族歧視公約》義務的法律指南。

謝潑德說,少數族裔和活動人士越來越多地抱怨人工智能、面部識別和其他新技術的使用。

“它在美國被廣泛使用,我們也收到了來自歐盟非裔社區的投訴。在拉丁美洲,非裔和土著居民抱怨種族定性”,她還以巴西和哥倫比亞為例,“在這些地區,我們聽說此類案例更為普遍。”

她還表示,許多警察使用“預測性”分析系統,根據一個社區的逮捕記錄,進行身份檢查、交通攔截和搜查。

CERD警告說,將種族定性作為一種執法工具,除了違法之外,也可能是無效乃至適得其反的。“受到歧視性執法的人往往對警方不太信任,因此也不太願意與警方合作。”

(本文參考路透社的報導)

XS
SM
MD
LG