導(dǎo)讀:算法對于少數(shù)群體的偏見,已經(jīng)成為困擾科技界的一大難題。
海外科技圈的政治正確風(fēng)潮,早已不算新聞了,并且已經(jīng)遍布科技領(lǐng)域的各個(gè)角度。
Facebook將默認(rèn)“男性在前”的新增好友logo,改為“女性在前”,并且大小相當(dāng)。還提供了除男、女之外的非傳統(tǒng)性別供用戶選擇,比如無性別、雙性人、跨性別等等,恨不得將“性別平等”四個(gè)大字貼在腦門兒上;
在日常管理中,科技公司對政治不正確的言論也保持著十足的警惕。比如谷歌就曾因一位工程師散布“有害無益的性別主義成見”而將其開除。
在對可能的冒犯充滿審慎的大環(huán)境下,一些反面聲音也出現(xiàn)了。
《紐約時(shí)報(bào)》就曾發(fā)文稱“政治正確是美國精英階層的虛偽”,也有業(yè)內(nèi)人士認(rèn)為“不合邏輯、肆無忌憚的政治正確正在阻礙科技創(chuàng)新”等等。最直接的例子,就是IBM宣布退出了人臉識別技術(shù)的研發(fā),原因是為了消除種族歧視,因?yàn)槟壳暗乃惴o法對黑人面部做出精準(zhǔn)判斷。
事實(shí)上,算法對于少數(shù)群體的偏見,已經(jīng)成為困擾科技界的一大難題。
目前,歐盟的數(shù)字保護(hù)組織掀起了一項(xiàng)新的運(yùn)動(dòng),要求像禁止在城市大規(guī)模部署面部識別一樣,禁止利用算法來主動(dòng)預(yù)測某人的性別和性取向。
用算法判斷男女這件事,為什么讓歐洲人覺得難以接受?對此的抗議是對科技倫理的合理討論,還是過度政治正確下對科技創(chuàng)新的掣肘呢?
性別二元論的算法,真的危險(xiǎn)嗎?
對于人工智能新技術(shù),歐盟有許多不可承受之重。不能接受個(gè)人數(shù)據(jù)被濫用,有了史上最嚴(yán)的隱私保護(hù)法案GDPR;為了防止技術(shù)風(fēng)險(xiǎn),計(jì)劃五年內(nèi)公共場所禁用人臉識別。
現(xiàn)在,為了避免歧視與偏見,連算法對男、女性別的識別,歐盟也開始拒絕了。
如果說對黑人面部的識別不到位是源自于機(jī)器視覺技術(shù)的天然缺陷,那么如果禁止自動(dòng)性別識別,可能就直接把既定的社會規(guī)則在算法世界的投射給掐滅了。
比如現(xiàn)實(shí)中,如果你是一家便利店的老板,見到顧客的第一反應(yīng)就能識別出對方的生理性別是男是女,從而判斷出自己所在商圈的性別分布概率。但現(xiàn)在,歐洲的運(yùn)動(dòng)發(fā)起者們則希望算法不要采集并分析性別數(shù)據(jù)。
那么,讓算法判斷男女這件事,真的很危險(xiǎn)嗎?
首先,性別識別算法的判斷基于二元論,即男或女,無法涵蓋多元人群的性別表達(dá)。
在數(shù)據(jù)上,除了Facebook這類深受“政治正確”影響的平臺,絕大多數(shù)數(shù)據(jù)標(biāo)注公司都會采用性別二元論,依照傳統(tǒng)的生物特征和性別理解,來為人臉進(jìn)行標(biāo)注。比如短發(fā)就歸類為男人,化妝就歸類為女人。這就導(dǎo)致許多變性人和跨性別者,會直接被誤認(rèn)。從而在一些以性別為基礎(chǔ)的活動(dòng)中遭受不公正的待遇,比如此前柏林為慶祝同工同酬日,會向女性提供打折地鐵票,就是使用面部掃描來識別女性,這顯然會讓一些跨性別者無法被覆蓋。
其次,數(shù)字線索的失真會直接影響算法的有效性,從而喪失預(yù)期的商業(yè)價(jià)值。
性別識別算法被用來做什么?一般都脫離不了商業(yè)目的或公共安全,比如可以通過識別男女來縮小追蹤嫌疑人的范圍,分析某人的聲音并匯總他們的購物習(xí)慣來提升電商平臺的推薦算法。亞馬遜等大型科技公司銷售的商業(yè)系統(tǒng)中,性別分類都是標(biāo)配。
但現(xiàn)實(shí)中機(jī)靈的商家能根據(jù)一個(gè)人的聲情行表判斷出對方的大致偏好或心理性別,進(jìn)而提供個(gè)性化服務(wù)。在數(shù)字世界中,這些特征被簡化為二元結(jié)構(gòu)的時(shí)候,不可能達(dá)成預(yù)期的準(zhǔn)確度。
比如斯坦福大學(xué)研發(fā)的“AI gaydar”系統(tǒng),號稱可以 81%的準(zhǔn)確率來識別男同性戀,但遭到了來自普林斯頓大學(xué)、谷歌等多位研究人員的質(zhì)疑,認(rèn)為其研究存在嚴(yán)重缺陷,模型并沒有發(fā)現(xiàn)不同性取向的人面部特征有何差異。
顯然,部署這樣的算法不僅會因?yàn)槭д`而讓當(dāng)事人感到冒犯,也無法給應(yīng)用者帶來有益的商業(yè)價(jià)值。
科技媒體《theverge》就曾報(bào)道過一個(gè)“僅限女孩”的社交應(yīng)用Giggle,試圖用面部識別來驗(yàn)證用戶身份。如果算法失誤,不僅會失去一個(gè)新用戶,恐怕還會引發(fā)輿論指責(zé)。
出于擔(dān)憂,數(shù)字權(quán)利組織Access Now與其他60多個(gè)非政府組織一起,要求歐盟委員會禁止自動(dòng)性別識別這項(xiàng)技術(shù)。
聽到這里,大部分人可能已經(jīng)有點(diǎn)迷惑了,畢竟作為消費(fèi)者或用戶,在商業(yè)社會中一個(gè)人被全方位地審視和判斷,早就是心照不宣的事兒了,且不管有沒有用,就算被一個(gè)算法認(rèn)錯(cuò)性別,很重要嗎?直接禁止會不會矯枉過正了?
當(dāng)偽君子遇上真小人
必須承認(rèn),自動(dòng)性別識別在現(xiàn)實(shí)中的威脅并沒有那么大,對其的抗拒,很大程度上確實(shí)是受“實(shí)現(xiàn)所有類型的人平等”的政治正確形態(tài)影響。
發(fā)起機(jī)構(gòu)之一Access Now的員工就表示,這種性別識別技術(shù)目前的應(yīng)用主要是有針對性的廣告,比如某一性別專用的App、廣告投放,未來還可能限制進(jìn)入浴室/更衣室等區(qū)域。錯(cuò)誤的判定結(jié)果就可能導(dǎo)致歧視,比如給男性對象投放汽車廣告,給女性用戶投放連衣裙廣告。
試想一下,未來廣告推薦算法都不能判斷用戶的性別,對大家投放一致的廣告,是不是就是一個(gè)更好的社會呢?
冷靜下來想,似乎并不能成立。
這也是科技領(lǐng)域政治正確被反對者廣為批判的原因:
1.以科技研發(fā)為代價(jià),卻僅僅消除了口頭歧視,而未能改變根本矛盾。
除了IBM停止人臉識別技術(shù)之外,亞馬遜也關(guān)停了給簡歷打分的AI算法,原因是通過識別性別關(guān)鍵詞而給女性應(yīng)聘者更低的分?jǐn)?shù)。那么,停用算法,避免了公然的系統(tǒng)偏見,是不是就為黑人或女性創(chuàng)造了更平等的環(huán)境呢?顯然沒有直接關(guān)系。
男女在高管職位上的懸殊比例,不會因?yàn)榘选癱hairman”改為中性詞“chairperson”而消失。
如果政治正確的倡議和運(yùn)動(dòng)沒有撼動(dòng)資本制度的能量,那么只是淪為少數(shù)群體的發(fā)泄途徑,而掌握著主控權(quán)和選擇權(quán)的依然是資本。
2.當(dāng)政治正確延伸到微侵略性領(lǐng)域,過度保護(hù)進(jìn)一步延緩創(chuàng)新。
包容多元群體原本是一件符合人類基本道德觀的好事,可是當(dāng)被用于批判一些微侵略事件——即對任何邊緣化或少數(shù)群體有意或無意地表示負(fù)面偏見的評論,如果一個(gè)男性以傲慢的態(tài)度向女性解釋一些簡單的東西,就會被指責(zé)為“爹味”、“普且信”,引起摩擦。
過于泛化的政治正確,會帶來更多的身份沖突,導(dǎo)致依賴團(tuán)隊(duì)協(xié)作的科技創(chuàng)新,群體之間的合作變得更加困難。
一位美國工程師就透露,由于希望證明女性和男性一樣擅長工程,她有意識地避免在會議上坐在其他女性旁邊,盡量自己解決問題,避免尋求幫助。
顯然,在受政治正確約束的文化中,自我保護(hù)變得比創(chuàng)造性工作更加重要,不僅優(yōu)勢人群如白人男性擔(dān)心被指責(zé)、不敢直接解決問題,那么被過度保護(hù)的群體也可能與潛在的支持隔離開來,變得效率更低,技能提升速度也更慢。
如果說公然的歧視與偏見是“真小人”,那么過度的政治正確又容易淪為“偽君子”,被視作一種無法真正解決問題的偽善。
那么,有沒有第三種可能,建立一個(gè)“真君子”的科技世界呢?
尋找第三種可能
如果說當(dāng)下的數(shù)據(jù)隱私保護(hù)運(yùn)動(dòng),是為了不讓科技的潛在缺陷傷害少數(shù)群體或邊緣人群。但顯然,一個(gè)理想的數(shù)字世界,并不會因此自動(dòng)到來,除了“科技不能做什么”,或許還應(yīng)該主動(dòng)去思考“科技能夠?yàn)橐粋€(gè)更包容、多元的社會做什么”。
舉個(gè)最簡單的例子,谷歌輸入大量“穿白大褂、帶聽診器”的男性照片,讓AI將醫(yī)生形象與男性聯(lián)系在一起。從統(tǒng)計(jì)學(xué)的角度,算法形成偏見似乎情有可原,因?yàn)橐恢币詠矶际沁@樣運(yùn)作的,但比起政治正確的制衡與爭議,從根源上改變少數(shù)群體在數(shù)字世界的“失聲”局面,或許更具有建設(shè)性。
我們知道,算法對黑人、女性等的偏見,一個(gè)最主要的原因就是訓(xùn)練語料的缺失。
數(shù)據(jù)顯示,全世界有42%,也就是11億的女性都沒有銀行賬戶,這自然會導(dǎo)致金融算法對女性打出更低的分級,讓女性比男性更難從銀行中借貸。所以在涉及金融科技產(chǎn)品時(shí),更應(yīng)該主動(dòng)將女性需求納入到產(chǎn)品和服務(wù)當(dāng)中,比如考慮到女性的風(fēng)險(xiǎn)偏好,幫助縮小兩性在投資領(lǐng)域的差距。
再比如,今天科技領(lǐng)域普遍存在的關(guān)鍵工程崗位的男女性別比例失衡問題。在努力改變性別定勢思維與偏見的同時(shí),或許察覺到女性在STEAMD學(xué)科,即科學(xué)、技術(shù)、工程、藝術(shù)和數(shù)學(xué)領(lǐng)域上過早的限制,才是縮小未來性別差距的真正方式,也能為IT、AI等領(lǐng)域帶來源源不斷的新生力量。
從根本上建立起相關(guān)支持體系,鼓勵(lì)少數(shù)群體實(shí)現(xiàn)自身發(fā)展,才是鏟除AI偏見、建立多元化社會的起點(diǎn)。
當(dāng)下的AI是一個(gè)天生的偏見者,只有追溯到它出生的地方去尋求改變,一個(gè)天下大同的理想數(shù)字世界才會真正走來。
本文經(jīng)腦極體授權(quán)轉(zhuǎn)載。