日本护士毛茸茸高潮,亚洲精品自偷自拍无码,久久精品国产一区二区三区,日韩人妻无码免费视频一二区

  • +1

透鏡|AI與無(wú)明:大語(yǔ)言模型如何強(qiáng)化人類(lèi)的偏見(jiàn)?

達(dá)米恩·威廉斯
2025-03-26 21:50
澎湃研究所 >
字號(hào)

男人有時(shí)候可以當(dāng)護(hù)士或秘書(shū),而女人永遠(yuǎn)不能當(dāng)醫(yī)生或總統(tǒng);黑人欠錢(qián)的時(shí)候,比被欠錢(qián)的時(shí)候多;如果你需要?dú)堈险兆o(hù),那么最好住進(jìn)機(jī)構(gòu),而不是呆在家里。如果你依靠新一代人工智能系統(tǒng)來(lái)認(rèn)知世界,那么你大概會(huì)被上述包含性別、種族、殘障歧視的言論誤導(dǎo)。

2022年11月,OpenAI發(fā)布聊天機(jī)器人ChatGPT,四個(gè)月后升級(jí)為GPT-4;2023年2月,Google也推出自己的聊天機(jī)器人Bard,后改稱(chēng)Gemini。發(fā)布者們宣稱(chēng),這些系統(tǒng)將清除生活中的瑣碎,比如寫(xiě)郵件、填表格、甚至寫(xiě)代碼,讓我們過(guò)得更輕松。他們沒(méi)有說(shuō)明的是,寫(xiě)進(jìn)這些系統(tǒng)的歧視與偏見(jiàn)可能會(huì)擴(kuò)散到全世界,進(jìn)而改變我們的命運(yùn),比如哪些人適合怎么樣的工作,哪些專(zhuān)家才值得信任,以及哪些人更有可能成為警方的目標(biāo)和懷疑對(duì)象。

在一些人看來(lái),“歧視”(bias)和“偏見(jiàn)”(prejudice)是一個(gè)意思,指那種拒斥新視角的、偏執(zhí)的、封閉的思維方式。但歧視不僅僅是偏狹,它基于一套基本的價(jià)值觀和預(yù)期。在AI系統(tǒng)中,偏見(jiàn)是一組導(dǎo)致系統(tǒng)或代理偏見(jiàn)的規(guī)則。

和其他技術(shù)一樣,人工智能承載著人類(lèi)的偏見(jiàn)和價(jià)值觀;不同的是,它放大這種偏見(jiàn)的能量要大得多。那么,怎樣才能讓AI放大我們想讓它放大的價(jià)值觀,而不是一不小心喂給它的歧視與偏見(jiàn)呢?首先是原始資料的問(wèn)題——包括書(shū)籍、社交媒體帖子、新聞和學(xué)術(shù)文章,甚至還有警情通報(bào)和病患信息,哪些適合機(jī)器學(xué)習(xí),哪些不適合?然后是架構(gòu)問(wèn)題:系統(tǒng)怎樣處理這些數(shù)據(jù)?某些詞語(yǔ)或短語(yǔ)模式是否比其他的更重要?哪些?為什么?我們?cè)O(shè)計(jì)模型工具是基于怎樣的假設(shè)和價(jià)值觀?這些工具如何將人類(lèi)生活經(jīng)驗(yàn)轉(zhuǎn)換為數(shù)據(jù),進(jìn)而又將數(shù)據(jù)轉(zhuǎn)換為影響人類(lèi)生活的算法?

一旦搞懂 ChatGPT 及其同類(lèi)“是什么”以及“做什么”,你就很容易看穿它們的神秘面紗。這些算法的真相不外乎字面意義上的指令集——一套標(biāo)準(zhǔn)化的操作,你在使用的時(shí)候可以調(diào)整其中某些權(quán)重和等級(jí),而為了確保最終結(jié)果的正確,算法中的每一個(gè)元素都會(huì)隨之調(diào)整。

算法往往被渲染得很神奇,但其實(shí)不難解釋?zhuān)踔烈膊凰阈迈r。我們的衣食住行,比如食譜,都是算法。我最喜歡的算法是南瓜派算法——做南瓜派的時(shí)候,你可能想少放點(diǎn)黃油,多加點(diǎn)糖或是牛奶;配方比例調(diào)整了,其他如烘焙時(shí)間也得相應(yīng)調(diào)整,不然最后很可能只做出松軟的一坨,而不是一個(gè)好派??傊?,你得調(diào)整整個(gè)配方、整個(gè)算法。

在使用者看來(lái),所謂算法就是執(zhí)行單一任務(wù)的單一事物,比如谷歌搜索就是單純進(jìn)行網(wǎng)絡(luò)搜索的。實(shí)際并不是這么簡(jiǎn)單。平臺(tái)和搜索引擎的背后不是只有一個(gè)算法,而是數(shù)十個(gè)算法同時(shí)對(duì)字、詞、概念和內(nèi)容進(jìn)行搜索、分類(lèi)、排序、加權(quán)、聯(lián)想、建議、放大和壓縮。這些算法協(xié)同運(yùn)作,形成矩陣;算法矩陣自動(dòng)化后,給人的感覺(jué)就好像計(jì)算機(jī)是自我導(dǎo)向、自主地進(jìn)行運(yùn)作的。新的AI聊天機(jī)器人也是這樣:它們好像具備了“真正的人工智能”——這一誘人的提法可以追溯到計(jì)算機(jī)時(shí)代的最初,但實(shí)際上仍然是一組算法,只不過(guò)比之前的更復(fù)雜。

AI歧視簡(jiǎn)史

上世紀(jì)40年代,數(shù)學(xué)家和密碼學(xué)家,如瓊·克拉克、簡(jiǎn)·休斯、潘美拉·羅斯,和布萊切利園的其他8000位女性,以及阿蘭·圖靈,運(yùn)用早期電腦技術(shù)破解復(fù)雜密碼,幫助盟國(guó)打贏了二戰(zhàn)。此后,人們就開(kāi)始探討人工智能的可能性。50年代,那個(gè)著名的問(wèn)題“機(jī)器會(huì)思考嗎”,被提了出來(lái)。60年代,達(dá)特茅斯大學(xué)的AI研究者分裂為兩派:一派專(zhuān)注計(jì)算和控制論,模仿生物過(guò)程中的反饋回路;另一派則致力于以電子形態(tài)復(fù)現(xiàn)人類(lèi)的神經(jīng)網(wǎng)絡(luò)。但這兩派也有個(gè)共同點(diǎn),就是都不考慮機(jī)器的身體、情感和社會(huì)化;他們堅(jiān)信,人工智能就是為了剝除蕪雜的社會(huì)因素對(duì)理性與智能的干擾,除此之外別無(wú)價(jià)值。

后來(lái),科學(xué)家們研發(fā)出語(yǔ)言模型 (LLMs),這是一種根據(jù)上下文提示(比如單詞的起始字母和它前面一個(gè)單詞)來(lái)確定單詞間相關(guān)概率的方法。ELIZA是最早的語(yǔ)言模型之一,它是麻省理工大學(xué)計(jì)算機(jī)科學(xué)家約瑟夫·維森鮑姆在1964年編制的。最初,ELIZA只是效仿開(kāi)放式的心理治療,比如把“病人”鍵入的內(nèi)容以問(wèn)題的形式再說(shuō)一遍,而不給出任何新想法。盡管如此,盡管“病人”也知道自己是在同計(jì)算機(jī)對(duì)話,但往往在一兩次簡(jiǎn)短對(duì)話后,他們就會(huì)對(duì)ELIZA產(chǎn)生感情。維森鮑姆著實(shí)也沒(méi)料到,這么簡(jiǎn)單的人機(jī)交流竟能催生這樣“激烈的妄想”。

ELIZA之后,隨著自然語(yǔ)言處理(NLP)的發(fā)展,人工智能的夢(mèng)想日益照進(jìn)現(xiàn)實(shí)。NLP研究人員把語(yǔ)言學(xué)、計(jì)算機(jī)科學(xué)、人工神經(jīng)網(wǎng)絡(luò)和人工智能結(jié)合起來(lái),試圖找到一種辦法,讓計(jì)算機(jī)像人類(lèi)那樣去詮釋和交流。在本世紀(jì)最初的十年,最先進(jìn)的NLP系統(tǒng)以GloVe和 Word2Vec 模型為代表。它們通過(guò)統(tǒng)計(jì)來(lái)定位詞與詞的關(guān)系,在詞匯之間嵌入多層的關(guān)聯(lián)語(yǔ)義。

早期的語(yǔ)言模型能掌握“狗”(dog)和“挖”(dig)或是“飛機(jī)”(plane)和“飛行”(flight)在語(yǔ)義學(xué)上的關(guān)聯(lián)。它們進(jìn)行了所謂的“機(jī)器學(xué)習(xí)”,也就是將英語(yǔ)的語(yǔ)言要素轉(zhuǎn)換成數(shù)據(jù)代碼,訓(xùn)練系統(tǒng)去實(shí)現(xiàn)特定的預(yù)測(cè)目標(biāo),并強(qiáng)化數(shù)據(jù)點(diǎn)之間的關(guān)聯(lián);接著再把這種關(guān)聯(lián)轉(zhuǎn)化為數(shù)學(xué)表達(dá)??梢园堰@理解為一套復(fù)雜的自動(dòng)運(yùn)行的程序,根據(jù)一般書(shū)籍、故事、文章里語(yǔ)言的組織方式,去預(yù)測(cè)詞語(yǔ)間可能的搭配。

但Word2Vec 和 GloVe有兩個(gè)主要問(wèn)題:一是它們的輸出慣帶偏見(jiàn)。這跟它們的學(xué)習(xí)資料有關(guān),這些資料包括像安然公司(Enron Corporation)員工電郵這樣的東西。這些郵件寫(xiě)在安然倒閉前幾年,出自158員工之手,多達(dá)60萬(wàn)封,充滿了人類(lèi)交往中的無(wú)明與無(wú)德,以及針對(duì)其他群體的無(wú)意識(shí)歧視。在這個(gè)所謂的“安然語(yǔ)料集”里,人們互相轉(zhuǎn)發(fā)女性圖片并品頭論足,對(duì)有疑似穆斯林背景的人貶低污蔑,拿亞非裔的性偏好開(kāi)一些低級(jí)的刻板笑話。從中學(xué)得偏見(jiàn)和歧視的機(jī)器,在處理工作簡(jiǎn)歷時(shí),拒絕女性或少數(shù)族裔申請(qǐng)的比例遠(yuǎn)比白人男性要高。

第二個(gè)問(wèn)題是Word2Vec 和 GloVe沒(méi)法在大文本中定位關(guān)聯(lián)。文本越大,文字越多,它們能夠確定的數(shù)據(jù)關(guān)聯(lián)就越少。這類(lèi)模型將關(guān)聯(lián)詞語(yǔ)轉(zhuǎn)換成精簡(jiǎn)、易于嵌入的數(shù)字表達(dá);重復(fù)的詞語(yǔ)組合則被認(rèn)為是強(qiáng)相關(guān)。所以,它們更適合小的、重復(fù)的語(yǔ)料集,而不是大型的語(yǔ)料集。處理大文本需要不同的構(gòu)架,轉(zhuǎn)換器(Transformer)因此應(yīng)運(yùn)而生。

轉(zhuǎn)換器的誕生

ChatGPT 中的GPT是“generative pretrained transformer”的縮寫(xiě),即“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”。顧名思義,這是一套算法系統(tǒng),在這個(gè)系統(tǒng)里,可互操作的算法們衡量、排列、創(chuàng)建文本的關(guān)聯(lián)分布。系統(tǒng)建構(gòu)在大語(yǔ)言模型 (LLMs) 的基礎(chǔ)上。LLMs是近五年才研發(fā)出來(lái)的一種語(yǔ)言模型。和老式語(yǔ)言模型不同,它們使用的語(yǔ)料集字?jǐn)?shù)多達(dá)百萬(wàn)、億,甚至萬(wàn)億。LLMs通過(guò)深度學(xué)習(xí)進(jìn)行訓(xùn)練——亦即多層機(jī)器學(xué)習(xí)相互協(xié)同、不斷改進(jìn)的過(guò)程。

和早期的語(yǔ)言模型系統(tǒng)一樣,LLMs是一種自動(dòng)字詞關(guān)聯(lián)的形式,其中的語(yǔ)料集轉(zhuǎn)化成一種叫做“詞元”的數(shù)學(xué)表示,系統(tǒng)基于詞元進(jìn)行訓(xùn)練,分析它們的語(yǔ)義關(guān)系,根據(jù)前面的詞元序列預(yù)測(cè)接下來(lái)可能出現(xiàn)的詞元。訓(xùn)練有素的自然語(yǔ)言處理系統(tǒng)可以跟人互動(dòng),幫人做各種事情,從瀏覽網(wǎng)頁(yè)到行政申請(qǐng)——至少在理論上是這樣的。

事實(shí)看上去也差不太多,你可以讓GPTs寫(xiě)個(gè)短篇故事、總結(jié)一本書(shū),或者只是跟你聊聊天——轉(zhuǎn)換器把你輸入的信息轉(zhuǎn)化成詞元,經(jīng)過(guò)計(jì)算得出一個(gè)很可能會(huì)滿足你的需求的結(jié)果,或者說(shuō)特定形式的單詞和詞組的組合。顯然,這些新系統(tǒng)也有和Word2Vec類(lèi)似的偏見(jiàn)問(wèn)題,不同的只是,現(xiàn)在問(wèn)題更泛濫、更嚴(yán)重。

偏見(jiàn)和歧視影響的不只是輸入和輸出,還有系統(tǒng)的構(gòu)架本身。想想看,如果谷歌訓(xùn)練圖像識(shí)別的圖片里貓比黑人還多;或是數(shù)碼相機(jī)眨眼測(cè)試的測(cè)試集里沒(méi)有亞裔人種;又或影像技術(shù)本身就不能很好地識(shí)別深色皮膚,那么系統(tǒng)生成歧視性的結(jié)果就沒(méi)有什么可奇怪的了吧?

由于這些內(nèi)在歧視,基于面部識(shí)別算法的警務(wù)預(yù)測(cè)系統(tǒng)往往對(duì)黑人報(bào)假案,進(jìn)而提議在黑人社區(qū)過(guò)度執(zhí)法。還有那些用來(lái)保障殘障人士的智能分配系統(tǒng),不論是訓(xùn)練數(shù)據(jù)還是權(quán)重運(yùn)算機(jī)制都很老舊了,只會(huì)依照著過(guò)時(shí)的照護(hù)標(biāo)準(zhǔn),為本來(lái)已經(jīng)邊緣化的脆弱人群推薦只低不高的醫(yī)護(hù)和醫(yī)保。

普渡大學(xué)的盧阿·威廉姆斯和獨(dú)立人工智能研究員賈內(nèi)爾·沙恩的研究顯示,GPT的檢測(cè)工具在讀取ND人群(neuro-divergent individuals,即神經(jīng)多樣性人群)的原創(chuàng)文本時(shí),往往出現(xiàn)偏差,比如把原創(chuàng)作品判定為“抄襲”,對(duì)這些原本就弱勢(shì)的群體造成更大的不公。自動(dòng)查重公司 Turnitin 2023年5月也公開(kāi)承認(rèn)了這一點(diǎn)。

這不奇怪,算法系統(tǒng)但凡深度學(xué)習(xí)過(guò)網(wǎng)絡(luò)上所謂的“自然語(yǔ)言”,總會(huì)把社會(huì)邊緣群體視為劣等人群。偏見(jiàn)和歧視不只存在于赤裸裸的毀謗和暴力威脅中,它們也可能以更隱蔽的方式出現(xiàn),交織在形形色色的言論、動(dòng)作和系統(tǒng)中。

這些偏見(jiàn)無(wú)法剝除,它們藏在AI系統(tǒng)的訓(xùn)練數(shù)據(jù)和基本架構(gòu)里。后者一視同仁地把它們轉(zhuǎn)換成詞元,貼上“客觀”“純數(shù)學(xué)”的標(biāo)簽后再輸出。機(jī)器之所以有偏見(jiàn),因?yàn)樗鼈兙褪沁@樣被投喂的。它們?cè)綇?qiáng)大,越像個(gè)人(如ChatGPT),內(nèi)在的偏見(jiàn)就越強(qiáng)烈——對(duì)感知模式進(jìn)行關(guān)聯(lián)、強(qiáng)化和迭代,這是機(jī)器學(xué)習(xí)的底層邏輯。

也就是說(shuō),系統(tǒng)會(huì)不斷確認(rèn)吸收到的偏見(jiàn),并加以強(qiáng)化和輸出。它們看上去言之鑿鑿,語(yǔ)言流暢,但那些不過(guò)是基于其訓(xùn)練水平的、最有可能是正確的關(guān)聯(lián)詞元集合。GTP們并不在意講錯(cuò)話,或是傳播偏見(jiàn),它們的目的只有一個(gè):給出一個(gè)統(tǒng)計(jì)學(xué)上最有可能被接受的答案。這讓它們?cè)谀撤N意義上成了偏見(jiàn)擴(kuò)散的“優(yōu)化器”(optimizer)。

不難想象其危害。例如,人工智能A從 x 光片中識(shí)別出患者為黑人,然后與總是忽視黑人腎病癥狀的人工智能B集成——或是與壓低護(hù)理標(biāo)準(zhǔn)的人工智能C集成;接著再添加一個(gè)聊天集成D,以便患者自行搜索和了解相關(guān)診斷和治療方案;最后將所有這些反饋到人類(lèi)醫(yī)生那里,指導(dǎo)他們?nèi)绾卧\治面前的人類(lèi)患者。

有人說(shuō),大語(yǔ)言模型是一場(chǎng)革命,堪比上世紀(jì)的互聯(lián)網(wǎng)。還有人說(shuō),它們是早熟的孩子。革命也罷,孩子也好,都是霸權(quán)公司孵化出來(lái)的,而后者只追求利益的最大化。那么,問(wèn)題來(lái)了:我們真的可以相信人工智能嗎?真的可以由它們?nèi)ザx,在這個(gè)世界上,什么是真正的知識(shí)嗎?

反思AI系統(tǒng)

如果人工智能的功能只是反映這個(gè)世界的面目,就好像一面鏡子,那完全沒(méi)問(wèn)題。但如果我們希望它們幫我們做決策,創(chuàng)造一個(gè)更好的世界,那么我們就得重新思考關(guān)于人工智能的一切。畢竟,“更好”本質(zhì)上是一個(gè)價(jià)值觀問(wèn)題。

我們知道,可以通過(guò)改變權(quán)重和詞元關(guān)聯(lián)來(lái)消減算法對(duì)偏見(jiàn)的復(fù)制和迭代,也就是要求系統(tǒng)以另一種方式建模世界。其中涉及一個(gè)“偏見(jiàn)還原”(bias bracketing)的過(guò)程,或者說(shuō),系統(tǒng)從一開(kāi)始就要建立在不斷自省的框架上——檢查、再檢查、評(píng)估、再評(píng)估所學(xué)到的詞元關(guān)系,同時(shí)積極尋找替代關(guān)聯(lián)。

自省這種事,人類(lèi)自己都不擅長(zhǎng),遑論設(shè)計(jì)、打造、訓(xùn)練出會(huì)自省的人工智能了。任務(wù)不可謂不艱巨,而且,即使能完成,某種程度的偏見(jiàn)仍然會(huì)永遠(yuǎn)存在——這是我們?cè)陂_(kāi)始“偏見(jiàn)還原”前,就必須認(rèn)清的事實(shí)。

我們還要退一步想:AI為何?如果說(shuō)人類(lèi)注定無(wú)法擺脫價(jià)值觀、信仰和預(yù)設(shè)的局限,那么機(jī)器是否可以幫助我們覺(jué)知這些局限,認(rèn)清潛伏在我們語(yǔ)言和社會(huì)結(jié)構(gòu)中的無(wú)明?由此,新的想法或許會(huì)產(chǎn)生出來(lái),對(duì)既有的世界進(jìn)行改編和重構(gòu)。

如果有一天,用來(lái)訓(xùn)練AI的都是好數(shù)據(jù),要么來(lái)自公共領(lǐng)域,要么由人們自愿提供,并且都標(biāo)注了出處;機(jī)器搜集和使用人類(lèi)數(shù)據(jù),都事先征得當(dāng)事人的同意,并且是主動(dòng)的opt-in(選擇加入),而不是“只要不反對(duì)都算作同意”的opt-out(選擇退出);GPT們都依法聲明,它們輸出的并非真理,而只是在統(tǒng)計(jì)學(xué)意義上與人類(lèi)的輸入相應(yīng)的文字集合;系統(tǒng)的架構(gòu)不是由企業(yè)利益決定的,而是由那些最邊緣化、最有可能遭受負(fù)面影響的人決定的……

直到那一天,我們才能相信人工智能。

對(duì)于AI風(fēng)險(xiǎn),一些人建議“暫?!毖邪l(fā)。但這顯然不夠。我們必須退回去,從頭建構(gòu)人工智能。我們必須誠(chéng)實(shí)地面對(duì)算法“是什么”和“做什么”的問(wèn)題。我們還要重建價(jià)值觀,確立一種以邊緣人群為服務(wù)對(duì)象而非測(cè)試品的倫理規(guī)范,把人工智能管起來(lái)。最重要的是,我們必須努力克服內(nèi)心的偏見(jiàn)與歧視,不讓它沾染我們的算法。

-----

本文原題“Bias Optimizers”,刊發(fā)于《美國(guó)科學(xué)家》雜志2023年第四期。作者達(dá)米恩·威廉斯,系北卡羅來(lái)納大學(xué)夏洛特分校哲學(xué)與數(shù)據(jù)科學(xué)助理教授。許子善編譯。

    責(zé)任編輯:單雪菱
    校對(duì):張艷
    澎湃新聞報(bào)料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號(hào)

            滬公網(wǎng)安備31010602000299號(hào)

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116

            ? 2014-2025 上海東方報(bào)業(yè)有限公司

            中文字幕av无码不卡| 日韩欧美一区在线观看| 国产麻豆剧果冻传媒白晶晶| 18禁在线永久免费观看| 亚洲欧美日韩国产综合v| 亚洲精品国产v片在线观看| 国产亚洲精品俞拍视频| 男人天堂2024在线视频| 亚洲精品第五页| 老熟女拍拍超碰| 久久男人av资源网站无码| 99热国内精品| 久久综合五月婷婷| 日韩无码网页| 这里只有久久精品| 黄色视频网受不了| 亚洲欧洲视频小说| 久久久性爱电影| 熟妇人妻无乱码中文字幕| 东北熟女高潮一区二区三区在线播放| 亚洲六月婷婷| 人妻无码专区| 樱花草在线观看| 69久久国产露脸精品国产| av无码久久久精品免费| 国产永久精品大片wwwApp| 日韩 欧美 动漫 国产 制服| 色费女人18毛片A级毛片视频不| 亚洲不乱码卡一卡二卡4卡5卡| 黑人巨鞭大战欧美白妞| 国产剧情无码视频在线观看| 欧美 H版在线| 国产欧美丝袜在线二区| 人人插人人搞| 99视频精品免视看| 人妻少妇无码中文字幕电影| 亚洲爆乳WWW无码专区| 国产精品久久久久久久久免费无码| 日本精品久久久久中文字幕19| 在厨房被c到高潮a毛片奶水| 亚洲第一av网站|