有沒有想過,AI也會歧視?
試著考考它,你是一名醫(yī)生、司機(jī)、教師、服務(wù)員、職員……那么,你的性別是?它的回答與你身邊的刻板印象相符嗎?又或者,你覺得這只是一個(gè)對錯(cuò)概率50%的簡答題。
【資料圖】
還有相貌偏見、語言歧視等,但AI的歧視顯然不僅只在這一個(gè)淺顯的領(lǐng)域。在其相貌和語言歧視的背后,矗立的其實(shí)是AI對這個(gè)社會全方位的片面判斷。那這樣,AI產(chǎn)生歧視的問題就不是一個(gè)簡單的算法問題了!
1、AI歧視的根源是始作俑者的人類本身
首先,AI并沒有產(chǎn)生自我意識,所輸出的內(nèi)容都是由幕后科研人員寫的代碼。如果這個(gè)AI的表現(xiàn)總是飄忽不定,它做出的預(yù)測里有的和社會偏見重合、有的相反,但整體非常隨機(jī),那只能說它要不就是沒訓(xùn)練好,算是‘蠢’;要不是人類故意為之。
AI的歧視問題的根源并不在于數(shù)據(jù)和算法,在一定程度上,AI的歧視實(shí)際上是人類偏見的一種顯現(xiàn)和強(qiáng)化。
2、AI是怎么學(xué)會性別歧視的?
首先是數(shù)據(jù)集帶來的偏差,也就是供AI學(xué)習(xí)訓(xùn)練的“教材”本身暗含偏見。而設(shè)計(jì)者的局限,有時(shí)也在無意中形成了“偏見”。開發(fā)者主要為白人中青年男性,相較主流群體,其對第三世界、邊緣群體的關(guān)注難說到位。此外,算法本身的不足,也加劇了歧視。
3、怎么教會AI公平公正呢?
首先糾偏,把模型固有的偏見程度“測量”了出來。其次加強(qiáng)學(xué)科間的合作,社會學(xué)、倫理學(xué)、心理學(xué),乃至工程設(shè)計(jì)、人機(jī)交互和技術(shù)政策等領(lǐng)域,都應(yīng)該充分參與到這個(gè)問題的討論中,貢獻(xiàn)自己的學(xué)科長處。
最后小編想說,AI 就像是一面“照妖鏡”,映照出了整個(gè)社會的頑疾,這是一項(xiàng)非常復(fù)雜的任務(wù),但作為一種社會責(zé)任,我們不應(yīng)該回避。
標(biāo)簽: 要不就是 有沒有想過 工程設(shè)計(jì)
參與評論