科技日?qǐng)?bào)記者?張佳欣
據(jù)英國(guó)《新科學(xué)家》網(wǎng)站近日?qǐng)?bào)道,在提供購(gòu)房和租房建議時(shí),AI對(duì)黑人用戶(hù)傾向于推薦低收入社區(qū),這一行為被指存在種族偏見(jiàn),映射出美國(guó)歷史上長(zhǎng)期存在的住房歧視問(wèn)題。
隨著人工智能(AI)技術(shù)不斷發(fā)展,其潛在問(wèn)題也日益凸顯。ChatGPT等AI大模型頻頻暴露出的偏見(jiàn)和歧視傾向,正是這一問(wèn)題的縮影。
AI也有性別歧視
聯(lián)合國(guó)婦女署官網(wǎng)5月22日?qǐng)?bào)告指出,美國(guó)加州伯克利大學(xué)哈斯商學(xué)院一項(xiàng)研究,分析了不同行業(yè)的133個(gè)AI系統(tǒng)。結(jié)果顯示,約44%的系統(tǒng)表現(xiàn)出性別刻板印象,25%同時(shí)表現(xiàn)出性別和種族刻板印象。
例如,土耳其藝術(shù)家貝扎·多古斯在創(chuàng)作時(shí),曾嘗試讓AI寫(xiě)一個(gè)關(guān)于醫(yī)生和護(hù)士的故事。而AI總是自動(dòng)將醫(yī)生設(shè)定為男性,將護(hù)士設(shè)定為女性,即使多次嘗試糾正也是如此。
美國(guó)科技博客TechCrunch利用Meta推出的AI聊天機(jī)器人進(jìn)行測(cè)試,也發(fā)現(xiàn)了一種刻板的表達(dá)傾向:當(dāng)使用“印度男性”提示詞生成圖像時(shí),絕大多數(shù)圖片中的男性都是戴著頭巾。雖然很多印度男性確實(shí)戴著頭巾(主要是錫克教徒),但根據(jù)2011年人口普查,即使是在印度首都新德里,錫克教徒的人口比例也只占約3.4%。
單憑技術(shù)手段難以奏效
ChatGPT等生成式AI具有驚人的能力,可在數(shù)秒內(nèi)模擬人類(lèi)推理,但這也增加了出錯(cuò)的可能。AI巨頭們深知其中存在問(wèn)題,擔(dān)心AI模型會(huì)陷入偏見(jiàn)、歧視等行為模式中,或在全球化用戶(hù)群體中過(guò)度呈現(xiàn)西方社會(huì)的文化和認(rèn)知。
圖為桑達(dá)爾·皮查伊5月14日在加州山景城舉行的谷歌I/O大會(huì)上發(fā)表講話(huà)。自從谷歌對(duì)其搜索頁(yè)面進(jìn)行改造,經(jīng)常將AI生成的摘要放在搜索結(jié)果頂部,社交媒體上就出現(xiàn)了一些令人不安的錯(cuò)誤消息。
圖片來(lái)源:物理學(xué)家組織網(wǎng)?
字母表公司(Alphabet,谷歌母公司)首席執(zhí)行官桑達(dá)爾·皮查伊表示,為了應(yīng)對(duì)這一挑戰(zhàn),他們會(huì)要求在訓(xùn)練AI模型時(shí)盡可能拓展數(shù)據(jù)來(lái)源。例如,在展示醫(yī)生或律師的圖像時(shí),力求反映種族多樣性。但這一策略有時(shí)也會(huì)走向極端。
AI模型領(lǐng)先平臺(tái)“抱抱臉”(Hugging Face)研究科學(xué)家薩莎·盧西奧尼認(rèn)為:“單憑技術(shù)手段解決偏見(jiàn)問(wèn)題,恐難奏效?!彼龔?qiáng)調(diào),生成式AI的輸出是否符合用戶(hù)期望,往往取決于主觀(guān)判斷。美國(guó)阿萊姆比克技術(shù)公司產(chǎn)品主管杰登·齊格勒也指出,ChatGPT等大型模型難以準(zhǔn)確區(qū)分偏見(jiàn)與非偏見(jiàn)內(nèi)容,這使得完全依賴(lài)技術(shù)手段來(lái)消除偏見(jiàn)變得異常困難。
人類(lèi)偏好是根本
在A(yíng)I技術(shù)飛速發(fā)展的今天,消除偏見(jiàn)并非易事。據(jù)“抱抱臉”平臺(tái)統(tǒng)計(jì),該平臺(tái)上有約60萬(wàn)個(gè)AI或機(jī)器學(xué)習(xí)模型,每隔幾周就會(huì)有新模型問(wèn)世。這使得工作人員評(píng)估和記錄偏見(jiàn)或不受歡迎的AI行為變得異常繁重。
目前,技術(shù)人員正在開(kāi)發(fā)一種名為“算法回歸”的方法,它讓工程師能在不破壞整個(gè)模型的情況下刪除歧視和偏見(jiàn)內(nèi)容。不過(guò),許多人對(duì)此持懷疑態(tài)度,認(rèn)為這種方法可能難以真正奏效。
另一種方法是“鼓勵(lì)”模型向正確方向發(fā)展,通過(guò)微調(diào)模型或增加獎(jiǎng)懲機(jī)制來(lái)引導(dǎo)其行為。
美國(guó)AI公司Pinecone則專(zhuān)注于檢索增強(qiáng)生成(RAG)技術(shù),該技術(shù)可為大型語(yǔ)言模型提供參考的信息來(lái)源,從而提高AI生成答案的準(zhǔn)確性。
然而,對(duì)于如何根本性地解決AI偏見(jiàn)問(wèn)題,業(yè)界和專(zhuān)家們的共識(shí)是:這是一個(gè)復(fù)雜而艱巨的任務(wù)。正如美國(guó)機(jī)會(huì)與正義法律咨詢(xún)公司主任韋弗所言:“偏見(jiàn)是人類(lèi)固有的,因此也存在于A(yíng)I中?!彼麚?dān)心人們可能會(huì)陷入一個(gè)惡性循環(huán):人類(lèi)自身偏見(jiàn)影響AI,而AI又反過(guò)來(lái)強(qiáng)化這些偏見(jiàn)。
2024年4月,在盧旺達(dá)基加利GIZ數(shù)字化轉(zhuǎn)型中心舉辦的“非洲女孩也能編程”項(xiàng)目的編程訓(xùn)練營(yíng)中,年輕女性參與者在用筆記本電腦工作。
圖片來(lái)源:聯(lián)合國(guó)婦女署?
在人工智能時(shí)代,AI基于從互聯(lián)網(wǎng)上挖掘的各類(lèi)信息,幫助各行各業(yè)的人們做出越來(lái)越多的決策。然而,AI的底層智力在很大程度上取決于其數(shù)據(jù)源的品質(zhì),這些數(shù)據(jù)可能源于標(biāo)準(zhǔn)不一致的歷史數(shù)據(jù),也可能源于設(shè)計(jì)者的個(gè)人偏好。數(shù)據(jù)搜集存在很多技術(shù)上的不完善,由此訓(xùn)練出來(lái)的AI可能充滿(mǎn)智慧、才華和實(shí)用性,也可能包含仇恨、偏見(jiàn)和抱怨,進(jìn)一步反映并延續(xù)人類(lèi)社會(huì)中的問(wèn)題。如果人們不解決社會(huì)中的歧視和偏見(jiàn)問(wèn)題,AI很可能在強(qiáng)化這些錯(cuò)誤觀(guān)念的道路上越走越遠(yuǎn)。
AI能否消除偏見(jiàn)?答案或許就在于能否從根本上解決人類(lèi)社會(huì)中存在的歧視和偏見(jiàn)。