應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

禁止算法識(shí)別性別,能消解歧視嗎?

2021-04-22 10:12 腦極體

導(dǎo)讀:算法對(duì)于少數(shù)群體的偏見,已經(jīng)成為困擾科技界的一大難題。

海外科技圈的政治正確風(fēng)潮,早已不算新聞了,并且已經(jīng)遍布科技領(lǐng)域的各個(gè)角度。

Facebook將默認(rèn)“男性在前”的新增好友logo,改為“女性在前”,并且大小相當(dāng)。還提供了除男、女之外的非傳統(tǒng)性別供用戶選擇,比如無(wú)性別、雙性人、跨性別等等,恨不得將“性別平等”四個(gè)大字貼在腦門兒上;

在日常管理中,科技公司對(duì)政治不正確的言論也保持著十足的警惕。比如谷歌就曾因一位工程師散布“有害無(wú)益的性別主義成見”而將其開除。

在對(duì)可能的冒犯充滿審慎的大環(huán)境下,一些反面聲音也出現(xiàn)了。

《紐約時(shí)報(bào)》就曾發(fā)文稱“政治正確是美國(guó)精英階層的虛偽”,也有業(yè)內(nèi)人士認(rèn)為“不合邏輯、肆無(wú)忌憚的政治正確正在阻礙科技創(chuàng)新”等等。最直接的例子,就是IBM宣布退出了人臉識(shí)別技術(shù)的研發(fā),原因是為了消除種族歧視,因?yàn)槟壳暗乃惴o(wú)法對(duì)黑人面部做出精準(zhǔn)判斷。

事實(shí)上,算法對(duì)于少數(shù)群體的偏見,已經(jīng)成為困擾科技界的一大難題。

目前,歐盟的數(shù)字保護(hù)組織掀起了一項(xiàng)新的運(yùn)動(dòng),要求像禁止在城市大規(guī)模部署面部識(shí)別一樣,禁止利用算法來(lái)主動(dòng)預(yù)測(cè)某人的性別和性取向。

用算法判斷男女這件事,為什么讓歐洲人覺得難以接受?對(duì)此的抗議是對(duì)科技倫理的合理討論,還是過度政治正確下對(duì)科技創(chuàng)新的掣肘呢?

性別二元論的算法,真的危險(xiǎn)嗎?

對(duì)于人工智能新技術(shù),歐盟有許多不可承受之重。不能接受個(gè)人數(shù)據(jù)被濫用,有了史上最嚴(yán)的隱私保護(hù)法案GDPR;為了防止技術(shù)風(fēng)險(xiǎn),計(jì)劃五年內(nèi)公共場(chǎng)所禁用人臉識(shí)別。

現(xiàn)在,為了避免歧視與偏見,連算法對(duì)男、女性別的識(shí)別,歐盟也開始拒絕了。

如果說對(duì)黑人面部的識(shí)別不到位是源自于機(jī)器視覺技術(shù)的天然缺陷,那么如果禁止自動(dòng)性別識(shí)別,可能就直接把既定的社會(huì)規(guī)則在算法世界的投射給掐滅了。

比如現(xiàn)實(shí)中,如果你是一家便利店的老板,見到顧客的第一反應(yīng)就能識(shí)別出對(duì)方的生理性別是男是女,從而判斷出自己所在商圈的性別分布概率。但現(xiàn)在,歐洲的運(yùn)動(dòng)發(fā)起者們則希望算法不要采集并分析性別數(shù)據(jù)。

那么,讓算法判斷男女這件事,真的很危險(xiǎn)嗎?

首先,性別識(shí)別算法的判斷基于二元論,即男或女,無(wú)法涵蓋多元人群的性別表達(dá)。

在數(shù)據(jù)上,除了Facebook這類深受“政治正確”影響的平臺(tái),絕大多數(shù)數(shù)據(jù)標(biāo)注公司都會(huì)采用性別二元論,依照傳統(tǒng)的生物特征和性別理解,來(lái)為人臉進(jìn)行標(biāo)注。比如短發(fā)就歸類為男人,化妝就歸類為女人。這就導(dǎo)致許多變性人和跨性別者,會(huì)直接被誤認(rèn)。從而在一些以性別為基礎(chǔ)的活動(dòng)中遭受不公正的待遇,比如此前柏林為慶祝同工同酬日,會(huì)向女性提供打折地鐵票,就是使用面部掃描來(lái)識(shí)別女性,這顯然會(huì)讓一些跨性別者無(wú)法被覆蓋。

其次,數(shù)字線索的失真會(huì)直接影響算法的有效性,從而喪失預(yù)期的商業(yè)價(jià)值。

性別識(shí)別算法被用來(lái)做什么?一般都脫離不了商業(yè)目的或公共安全,比如可以通過識(shí)別男女來(lái)縮小追蹤嫌疑人的范圍,分析某人的聲音并匯總他們的購(gòu)物習(xí)慣來(lái)提升電商平臺(tái)的推薦算法。亞馬遜等大型科技公司銷售的商業(yè)系統(tǒng)中,性別分類都是標(biāo)配。

但現(xiàn)實(shí)中機(jī)靈的商家能根據(jù)一個(gè)人的聲情行表判斷出對(duì)方的大致偏好或心理性別,進(jìn)而提供個(gè)性化服務(wù)。在數(shù)字世界中,這些特征被簡(jiǎn)化為二元結(jié)構(gòu)的時(shí)候,不可能達(dá)成預(yù)期的準(zhǔn)確度。

比如斯坦福大學(xué)研發(fā)的“AI gaydar”系統(tǒng),號(hào)稱可以 81%的準(zhǔn)確率來(lái)識(shí)別男同性戀,但遭到了來(lái)自普林斯頓大學(xué)、谷歌等多位研究人員的質(zhì)疑,認(rèn)為其研究存在嚴(yán)重缺陷,模型并沒有發(fā)現(xiàn)不同性取向的人面部特征有何差異。

顯然,部署這樣的算法不僅會(huì)因?yàn)槭д`而讓當(dāng)事人感到冒犯,也無(wú)法給應(yīng)用者帶來(lái)有益的商業(yè)價(jià)值。

科技媒體《theverge》就曾報(bào)道過一個(gè)“僅限女孩”的社交應(yīng)用Giggle,試圖用面部識(shí)別來(lái)驗(yàn)證用戶身份。如果算法失誤,不僅會(huì)失去一個(gè)新用戶,恐怕還會(huì)引發(fā)輿論指責(zé)。

出于擔(dān)憂,數(shù)字權(quán)利組織Access Now與其他60多個(gè)非政府組織一起,要求歐盟委員會(huì)禁止自動(dòng)性別識(shí)別這項(xiàng)技術(shù)。

聽到這里,大部分人可能已經(jīng)有點(diǎn)迷惑了,畢竟作為消費(fèi)者或用戶,在商業(yè)社會(huì)中一個(gè)人被全方位地審視和判斷,早就是心照不宣的事兒了,且不管有沒有用,就算被一個(gè)算法認(rèn)錯(cuò)性別,很重要嗎?直接禁止會(huì)不會(huì)矯枉過正了?

當(dāng)偽君子遇上真小人

必須承認(rèn),自動(dòng)性別識(shí)別在現(xiàn)實(shí)中的威脅并沒有那么大,對(duì)其的抗拒,很大程度上確實(shí)是受“實(shí)現(xiàn)所有類型的人平等”的政治正確形態(tài)影響。

發(fā)起機(jī)構(gòu)之一Access Now的員工就表示,這種性別識(shí)別技術(shù)目前的應(yīng)用主要是有針對(duì)性的廣告,比如某一性別專用的App、廣告投放,未來(lái)還可能限制進(jìn)入浴室/更衣室等區(qū)域。錯(cuò)誤的判定結(jié)果就可能導(dǎo)致歧視,比如給男性對(duì)象投放汽車廣告,給女性用戶投放連衣裙廣告。

試想一下,未來(lái)廣告推薦算法都不能判斷用戶的性別,對(duì)大家投放一致的廣告,是不是就是一個(gè)更好的社會(huì)呢?

冷靜下來(lái)想,似乎并不能成立。

這也是科技領(lǐng)域政治正確被反對(duì)者廣為批判的原因:

1.以科技研發(fā)為代價(jià),卻僅僅消除了口頭歧視,而未能改變根本矛盾。

除了IBM停止人臉識(shí)別技術(shù)之外,亞馬遜也關(guān)停了給簡(jiǎn)歷打分的AI算法,原因是通過識(shí)別性別關(guān)鍵詞而給女性應(yīng)聘者更低的分?jǐn)?shù)。那么,停用算法,避免了公然的系統(tǒng)偏見,是不是就為黑人或女性創(chuàng)造了更平等的環(huán)境呢?顯然沒有直接關(guān)系。

男女在高管職位上的懸殊比例,不會(huì)因?yàn)榘选癱hairman”改為中性詞“chairperson”而消失。

如果政治正確的倡議和運(yùn)動(dòng)沒有撼動(dòng)資本制度的能量,那么只是淪為少數(shù)群體的發(fā)泄途徑,而掌握著主控權(quán)和選擇權(quán)的依然是資本。

2.當(dāng)政治正確延伸到微侵略性領(lǐng)域,過度保護(hù)進(jìn)一步延緩創(chuàng)新。

包容多元群體原本是一件符合人類基本道德觀的好事,可是當(dāng)被用于批判一些微侵略事件——即對(duì)任何邊緣化或少數(shù)群體有意或無(wú)意地表示負(fù)面偏見的評(píng)論,如果一個(gè)男性以傲慢的態(tài)度向女性解釋一些簡(jiǎn)單的東西,就會(huì)被指責(zé)為“爹味”、“普且信”,引起摩擦。

過于泛化的政治正確,會(huì)帶來(lái)更多的身份沖突,導(dǎo)致依賴團(tuán)隊(duì)協(xié)作的科技創(chuàng)新,群體之間的合作變得更加困難。

一位美國(guó)工程師就透露,由于希望證明女性和男性一樣擅長(zhǎng)工程,她有意識(shí)地避免在會(huì)議上坐在其他女性旁邊,盡量自己解決問題,避免尋求幫助。

顯然,在受政治正確約束的文化中,自我保護(hù)變得比創(chuàng)造性工作更加重要,不僅優(yōu)勢(shì)人群如白人男性擔(dān)心被指責(zé)、不敢直接解決問題,那么被過度保護(hù)的群體也可能與潛在的支持隔離開來(lái),變得效率更低,技能提升速度也更慢。

如果說公然的歧視與偏見是“真小人”,那么過度的政治正確又容易淪為“偽君子”,被視作一種無(wú)法真正解決問題的偽善。

那么,有沒有第三種可能,建立一個(gè)“真君子”的科技世界呢?

尋找第三種可能

如果說當(dāng)下的數(shù)據(jù)隱私保護(hù)運(yùn)動(dòng),是為了不讓科技的潛在缺陷傷害少數(shù)群體或邊緣人群。但顯然,一個(gè)理想的數(shù)字世界,并不會(huì)因此自動(dòng)到來(lái),除了“科技不能做什么”,或許還應(yīng)該主動(dòng)去思考“科技能夠?yàn)橐粋€(gè)更包容、多元的社會(huì)做什么”。

舉個(gè)最簡(jiǎn)單的例子,谷歌輸入大量“穿白大褂、帶聽診器”的男性照片,讓AI將醫(yī)生形象與男性聯(lián)系在一起。從統(tǒng)計(jì)學(xué)的角度,算法形成偏見似乎情有可原,因?yàn)橐恢币詠?lái)都是這樣運(yùn)作的,但比起政治正確的制衡與爭(zhēng)議,從根源上改變少數(shù)群體在數(shù)字世界的“失聲”局面,或許更具有建設(shè)性。

我們知道,算法對(duì)黑人、女性等的偏見,一個(gè)最主要的原因就是訓(xùn)練語(yǔ)料的缺失。

數(shù)據(jù)顯示,全世界有42%,也就是11億的女性都沒有銀行賬戶,這自然會(huì)導(dǎo)致金融算法對(duì)女性打出更低的分級(jí),讓女性比男性更難從銀行中借貸。所以在涉及金融科技產(chǎn)品時(shí),更應(yīng)該主動(dòng)將女性需求納入到產(chǎn)品和服務(wù)當(dāng)中,比如考慮到女性的風(fēng)險(xiǎn)偏好,幫助縮小兩性在投資領(lǐng)域的差距。

再比如,今天科技領(lǐng)域普遍存在的關(guān)鍵工程崗位的男女性別比例失衡問題。在努力改變性別定勢(shì)思維與偏見的同時(shí),或許察覺到女性在STEAMD學(xué)科,即科學(xué)、技術(shù)、工程、藝術(shù)和數(shù)學(xué)領(lǐng)域上過早的限制,才是縮小未來(lái)性別差距的真正方式,也能為IT、AI等領(lǐng)域帶來(lái)源源不斷的新生力量。

從根本上建立起相關(guān)支持體系,鼓勵(lì)少數(shù)群體實(shí)現(xiàn)自身發(fā)展,才是鏟除AI偏見、建立多元化社會(huì)的起點(diǎn)。

當(dāng)下的AI是一個(gè)天生的偏見者,只有追溯到它出生的地方去尋求改變,一個(gè)天下大同的理想數(shù)字世界才會(huì)真正走來(lái)。

本文經(jīng)腦極體授權(quán)轉(zhuǎn)載。