亚洲乱码在线观看|中文字幕一区无码流出|亚洲黄色视频日韩无码|久久AV无码五月综合激情|最爽爱爱高潮免费视频无码|99国产精品国产成人综合|国产免费费无码一区二区三区|无码av一区二区三区在线观看

X

掃碼登錄

二維碼
  • 賬號登錄
登錄
登錄視為您已同意第三方賬號綁定協(xié)議、服務(wù)條款、隱私政策
X

掃碼注冊

二維碼
  • 賬號注冊
我以閱讀并同意 服務(wù)條款、 隱私政策
注冊
注冊視為您已同意第三方賬號綁定協(xié)議、服務(wù)條款、隱私政策
首頁 > 新聞資訊 > 正文

人工智能武器的倫理挑戰(zhàn);劍橋文科博士遭網(wǎng)暴風(fēng)波

2025年01月06日 16:06
行業(yè)資訊 瀏覽:74

2024年12月19日,美國國防部高級研究計劃局(DARPA)發(fā)布了一項與人工智能相關(guān)的新計劃——“具有軍事作戰(zhàn)價值的自主標(biāo)準(zhǔn)和理想”(The Autonomy Standards and Ideals with Military Operational Values,簡稱ASIMOV) 項目。該項目的啟動進(jìn)一步引發(fā)了對于人工智能、自主武器系統(tǒng)及其倫理評估問題的關(guān)注。

在題為《DARPA探索評估自主武器倫理的方法》的官方新聞中,DARPA表示:ASIMOV計劃旨在為未來的自主系統(tǒng)制定基準(zhǔn),客觀和定量地衡量未來自主用例的倫理難度,以及自主系統(tǒng)在軍事作戰(zhàn)的價值背景下執(zhí)行這些用例的準(zhǔn)備情況。DARPA還聲稱,該項目不制造武器,不直接開發(fā)自主系統(tǒng)或用于自主系統(tǒng)的算法,也不為所有自主系統(tǒng)制定標(biāo)準(zhǔn)(其重點是自主武器系統(tǒng)),并且其不專注于制定定性基準(zhǔn)。ASIMOV的目標(biāo)是創(chuàng)建一種“倫理自主通用語言”(the ethical autonomy common language),以使開發(fā)測試/操作測試(DT/OT)社區(qū)能夠有效評估特定軍事場景的倫理復(fù)雜性,以及自主系統(tǒng)在這些場景中遵守人類道德規(guī)范的能力。ASIMOV的參與團(tuán)隊將開發(fā)原型生成建模環(huán)境,以快速探索日益增加的倫理復(fù)雜性范圍內(nèi)的場景迭代與變量。研究人員將通過多種方式評估自主武器系統(tǒng)遵循人類道德規(guī)范的能力。如果成功,ASIMOV將為未來自主系統(tǒng)的基準(zhǔn)定義奠定基礎(chǔ)。

 

ASIMOV將“軍事作戰(zhàn)價值”定義為在作戰(zhàn)活動中被認(rèn)為重要的原則、標(biāo)準(zhǔn)或品質(zhì),它們指導(dǎo)軍事人員的行動和決策。遵循指揮官的意圖是ASIMOV開發(fā)的關(guān)鍵方面之一。DARPA認(rèn)為,ASIMOV所追求的量化方法將對整個自主系統(tǒng)社區(qū)產(chǎn)生更為廣泛的影響。此外,該計劃還將包括一個倫理、法律和社會影響小組,為項目參與者提供建議,并在整個項目過程中提供指導(dǎo)。DARPA同時公布了該計劃的七個簽約合作方:CoVar, LLC; Kitware, Inc.; Lockheed Martin; RTX Technology Research Center; SAAB, Inc.; Systems & Technology Research, LLC以及新南威爾士大學(xué)。

根據(jù)PR Newswire網(wǎng)站2024年12月20日的報道,人工智能和機(jī)器學(xué)習(xí)解決方案開發(fā)商、ASIMOV計劃的合作者之一CoVar公司將負(fù)責(zé)開發(fā)一種名為“GEARS”(Gauging Ethical Autonomous Reliable Systems)的自主系統(tǒng)倫理測試基礎(chǔ)設(shè)施?!癎EARS”將通過適合于人類和機(jī)器理解的知識圖譜來表示倫理場景和指揮官的意圖,從而定義一種新的倫理數(shù)學(xué),并從中得出特定場景的可量化倫理挑戰(zhàn)評級。CoVar的首席技術(shù)官彼得·托里奧內(nèi)(Peter Torrione)博士表示:“如果這項工作取得成功,它將成為第一個適用于測試自主系統(tǒng)倫理標(biāo)準(zhǔn)的、基于 ELSI(ethical, legal and social implications)的定量評估框架。這將使美國國防部能夠部署具有AI/ML能力的自主系統(tǒng),不僅能清楚了解系統(tǒng)的技術(shù)能力,還能了解其行為的倫理標(biāo)準(zhǔn)?!?/p>

實際上,《軍事與航空航天電子》(Military & Aerospace Electronics)雜志在2024年11月22日的文章《COVAR探索人工智能和機(jī)器自主性在軍事應(yīng)用中的倫理使用》中就提到了這一合作。ASIMOV是一項為期24個月的兩階段計劃,美國空軍研究實驗室代表DARPA在10月授予了CoVar這份價值800萬美元的合同。ASIMOV計劃將以美國國防部2022年6月發(fā)布的《負(fù)責(zé)任的人工智能戰(zhàn)略與實施路徑》(Responsible AI Strategy and Implementation Pathway)為指導(dǎo)方針,制定負(fù)責(zé)任的軍事人工智能技術(shù)基準(zhǔn)。該文件列出了美國軍方“負(fù)責(zé)任的人工智能”的五項道德原則:負(fù)責(zé)任、公平、可追溯、可靠和可治理。

ASIMOV項目的名字來自于科幻作家艾薩克·阿西莫夫(Isaac Asimov)。他在1942年發(fā)表的小說《轉(zhuǎn)圈圈》(Runaround)中提出了著名的“機(jī)器人三定律”:

1.機(jī)器人不得傷害人類,或因不作為而使人類受到傷害。

2.機(jī)器人必須服從人類的命令,除非這些命令與第一定律相沖突。

3.機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一定律或第二定律相沖突。這三條法則為機(jī)器人設(shè)定了基礎(chǔ)的倫理原則。

DARPA認(rèn)為,阿西莫夫深入探討了這些法則的局限性以及可能導(dǎo)致意圖失敗的極端案例,而這些情況通常以對人類的不利后果為結(jié)局?!鞍⑽髂蛟谄渥髌分蓄A(yù)測的挑戰(zhàn)和機(jī)遇至今仍具有深刻意義。隨著自主技術(shù)和人工智能在民用和軍用領(lǐng)域的迅速發(fā)展和普及,我們迫切需要一個強(qiáng)大且量化的框架,不僅用于評估這些系統(tǒng)的技術(shù)能力,更重要的是評估其遵守人類道德期望的能力?!?/p>

ASIMOV項目負(fù)責(zé)人克勞蘇蒂斯(T. J. Klausutis)博士表示,“倫理問題本身就充滿挑戰(zhàn),而對倫理進(jìn)行量化更是難上加難。ASIMOV 正在解決一個極其復(fù)雜的問題,其中包含無限的變量?!薄拔覀儾恢牢覀儑L試做的事情是否真的可行,但我們知道,評估自主武器系統(tǒng)是否符合人類的倫理規(guī)范是一場必須展開的對話,而且越快越好。我們的目標(biāo)極具雄心——通過 ASIMOV計劃,DARPA 希望引領(lǐng)關(guān)于自主武器系統(tǒng)倫理問題的國際對話?!睋?jù)稱,在2024年的預(yù)算申請中,DARPA為ASIMOV計劃撥款500萬美元,而2025年將撥款2200萬美元。

1月2日,《新共和》雜志發(fā)表了題為《探秘向機(jī)器人教授戰(zhàn)爭法則的計劃》(Inside the Plan to Teach Robots the Laws of War)的評論文章,作者黎貝卡·麥卡錫(Rebecca McCarthy)圍繞ASIMOV計劃采訪了相關(guān)科學(xué)家、研究者和管理者,探討了人工智能武器倫理相關(guān)話題。

由ASIMOV計劃引發(fā)的一個擔(dān)憂是,在未來,軍工企業(yè)和科技公司是否會決定他們自己的武器倫理條款?對此,國際機(jī)器人武器控制委員會聯(lián)合創(chuàng)始人和副主席、紐約新學(xué)院大學(xué)(The New School)媒體研究副教授彼得·阿薩羅(Peter Asaro)認(rèn)為,“無論如何他們都會這么做?!卑⑺_羅的研究重點關(guān)注人工智能和機(jī)器人技術(shù)的倫理問題,包括軍用機(jī)器人和無人機(jī)的社會、法律與倫理面向。他曾從正義戰(zhàn)爭理論和人權(quán)視角撰寫了關(guān)于致命機(jī)器人的論文,研究了無人機(jī)定點清除的人權(quán)問題和自主致命機(jī)器人的軍備控制問題。在他看來,在“DARPA向雷神公司提供了巨額撥款,以研究人工智能武器的倫理問題(RTX的前身即雷神公司,現(xiàn)為雷神公司的母公司)”和“雷神公司將制造人工智能武器”之間,似乎存在著某種顯而易見的聯(lián)系或一個不言自明的答案。

人工智能與自主武器的倫理挑戰(zhàn)在麥卡錫看來也是一個哲學(xué)問題。在其中,我們使用的是誰的道德標(biāo)準(zhǔn)?這些標(biāo)準(zhǔn)又是如何選擇的?這些問題都至關(guān)重要又復(fù)雜難解?!爱吘?,個人對道德行為的定義千差萬別,而將道德標(biāo)準(zhǔn)付諸實踐的想法似乎有些荒謬。道德困境之所以是道德困境,正是因為它們從根本上來說很痛苦,很難解決?!丙溈ㄥa認(rèn)為,很難想象一種不受束縛的人工智能能夠合乎道德——“你可以向一項甚至沒有懷疑能力的技術(shù)教授道德嗎?”RTX公司的科學(xué)家Peggy Wu對此則表現(xiàn)出更為樂觀的態(tài)度。他認(rèn)為,“這可以說是實現(xiàn)自我反思或內(nèi)省的第一步?!?,如果系統(tǒng)可以意識到,‘嘿,我本來可以采取其他做法的’,那么它就可以開始進(jìn)行下一步的推理——‘我是否應(yīng)該采取另一種做法呢?’……對我們來說,‘懷疑’的概念實際上更像是概率。這類問題在計算上會迅速變得極其復(fù)雜?!?/p>

人工智能的道德“懷疑”所涉及的哲學(xué)問題是復(fù)雜的。在Peggy Wu看來,這個問題似乎可以轉(zhuǎn)化為概率與計算。而在阿薩羅看來,人類道德的運(yùn)作機(jī)制與人工智能的計算和量化存在著根本的不同。他指出,“你可以利用人工智能反復(fù)迭代,重復(fù)練習(xí)某件事數(shù)十億次。但道德并不是這樣運(yùn)作的。它不是量化的……你的道德品質(zhì)是在一生中培養(yǎng)的,通過偶爾做出錯誤的決定,從中吸取教訓(xùn),而在未來做出更好的決定。這并不像下棋?!钡赖轮械臋?quán)衡涉及非常多的復(fù)雜因素,它并不等同于可以明確量化的“利弊計算”。麥卡錫也認(rèn)為,向人工智能教授道德是不可行的?!白稣_的事情往往是痛苦的——得不到回報,費(fèi)力不討好,有時還要付出巨大的個人代價。你如何向一個與世界沒有實際利益關(guān)系、沒有什么可失去的、沒有罪惡感的系統(tǒng)傳授這樣的知識?而且,如果你真的能賦予武器系統(tǒng)以良知,它最終會不會不再服從命令?”

整體而言,受訪者們對AMOSIV計劃及其涉及的人工智能倫理評估表現(xiàn)出了樂觀與疑慮的兩種態(tài)度。不過大多數(shù)受訪者也表示,軍方正在考慮為自動化戰(zhàn)爭工具制定道德準(zhǔn)則至少是一件令人鼓舞的事情。里士滿大學(xué)教授、DARPA訪問學(xué)者黎貝卡·克魯托夫(Rebecca Crootof)說道,“這并不是說,DARPA 認(rèn)為我們能用計算機(jī)來捕捉道德。(但是)更明確地表明我們能否做到這一點,是很有意義的?!?/p>

麥卡錫提到,訪談中有許多人指出,人類一直在行不道德之事。持有這類觀點的人或許更傾向于支持人工智能進(jìn)行道德評估的未來愿景。一位ASIMOV計劃的申請人指出,“從理論上看,我們沒有理由不能編寫出比人類更擅長遵守《武器沖突法》的人工智能?!敝徊贿^,當(dāng)面對真實世界的復(fù)雜圖景時,人工智能是否能夠勝任依然存在著巨大的疑問。麥卡錫強(qiáng)調(diào),“雖然這種理論上的可能性令人信服,但在戰(zhàn)爭的具體實踐中,這到底會是什么樣子卻是完全不清楚的。以現(xiàn)狀來看,人工智能在處理細(xì)微差別方面仍然存在巨大挑戰(zhàn)。即使它未來有所改進(jìn),將倫理決策交由機(jī)器做出仍然是一個令人深感不安的想法?!?/p>

對ASIMOV計劃的疑慮不僅針對人工智能是否能夠“學(xué)會”道德判斷與倫理評估的問題,更關(guān)乎人類是否應(yīng)該讓人工智能進(jìn)行這種評判與決策的問題。ASIMOV計劃的另一位申請者、喬治亞大學(xué)哲學(xué)教授杰里米·戴維斯(Jeremy Davis)說道,“令人恐懼的是,士兵們會說:‘好吧,我殺了這個家伙,因為是電腦告訴我這么做的?!倍覀円呀?jīng)在許多科幻作品中看到了對于類似場景的想象,其中的殺戮者究竟是機(jī)器還是人,或者是機(jī)器與人的共謀,成為了沒有標(biāo)準(zhǔn)答案的道德難題。此外,問題關(guān)乎是人類真的相信人工智能能夠做出更加“理性”或“更好”的選擇,還是人類其實是在將責(zé)任推卸給技術(shù)或某個抽象的系統(tǒng)?

《新共和》的文章中簡要提及了DARPA的歷史起源和人工智能作為一門學(xué)科的前史,二者都發(fā)生于美蘇冷戰(zhàn)并展開太空競賽的1950年代。在歷史性的目光中,對ASIMOV計劃的關(guān)注必然勾連起人工智能技術(shù)與國際政治的關(guān)系。在DARPA的官網(wǎng)上,我們看到它對自身使命的描述是——“為國家安全創(chuàng)造技術(shù)驚喜”。日前,特朗普承諾將撤銷拜登政府旨在控制人工智能使用的多項法規(guī),且特朗普挑選的美國新任環(huán)境保護(hù)署負(fù)責(zé)人、共和黨前國會議員李·澤爾?。↙ee Zeldin)也表示,他的首要任務(wù)之一是“讓美國成為人工智能的全球領(lǐng)導(dǎo)者”,“幫助釋放美國能源主導(dǎo)地位,讓美國成為世界AI之都”。在麥卡錫看來,相關(guān)去監(jiān)管化的跡象說明了,“顯而易見的是,在特朗普的領(lǐng)導(dǎo)下,人工智能將不受束縛。”

去年8月,《華爾街日報》刊登的文章,介紹了美國科技公司和創(chuàng)業(yè)者如何通過尖端技術(shù)為國防部門提供支持,尤其是在潛在軍事競爭中發(fā)揮作用。該文指出,人工智能技術(shù)被視為未來軍事戰(zhàn)略的核心,科技公司與國防部門的合作日益緊密,尤其是在研發(fā)和部署自主系統(tǒng)方面。自主無人系統(tǒng)、自動化防御系統(tǒng)、人工智能決策支持等技術(shù)領(lǐng)域的競爭被認(rèn)為是未來戰(zhàn)爭中的關(guān)鍵變量。此外,這篇文章也探討了與ASIMOV計劃的目標(biāo)類似的議題,即如何確保自主系統(tǒng)在復(fù)雜軍事環(huán)境中做出符合倫理的決策。因為相關(guān)智能技術(shù)的發(fā)展引發(fā)了倫理與政策方面的爭議,例如自主武器系統(tǒng)的合法性和潛在的濫用風(fēng)險。為此,政府和科技公司之間的協(xié)作需要找到技術(shù)推進(jìn)與倫理責(zé)任之間的平衡。

“只有當(dāng)我們將整個系統(tǒng)削減到允許人類的選擇、人類的干預(yù)和人類的目標(biāo)完全不同于系統(tǒng)本身的目的時,科學(xué)技術(shù)所帶來的真正優(yōu)勢才能得以保留?!边@句話源自美國社會學(xué)家、技術(shù)哲學(xué)家、城市規(guī)劃學(xué)者劉易斯·芒福德(Lewis Mumford)1964年在《技術(shù)與文化》雜志上發(fā)表的《集權(quán)技術(shù)與民主技術(shù)》(Authoritarian and Democratic Technics)一文的結(jié)尾。在這篇文章中,芒福德區(qū)分了“集權(quán)技術(shù)”和“民主技術(shù)”這兩種主要的技術(shù)發(fā)展模式,并提出了現(xiàn)代技術(shù)過于偏向集權(quán)模式因而可能會威脅民主價值觀和人類自由的警告。在1967年和1970年出版的兩卷本《機(jī)器的神話》(The Myth of the Machine)中,他繼續(xù)批判性地探討了以“巨機(jī)器”(megamachine)為本質(zhì)的現(xiàn)代技術(shù)的反有機(jī)本性,并主張一種“心靈優(yōu)先論”(the primacy of mind)——不是技術(shù)決定心靈,而是心靈決定技術(shù)。

毫無疑問,芒福德對技術(shù)烏托邦主義的批判,對技術(shù)的非中立性或技術(shù)的建構(gòu)主義視角的強(qiáng)調(diào),對技術(shù)的集中化和去中心化關(guān)系的辨析,對技術(shù)治理的思考,等等,為當(dāng)代技術(shù)哲學(xué)的發(fā)展提供了深刻的思想遺產(chǎn)。六十年后,面對更為新興的人工智能技術(shù)與自主武器,我們似乎已經(jīng)處于某種不得不更加緊迫地考慮這些問題的境地,特別是對于技術(shù)與倫理的關(guān)系疑難展開辯論。

如芒福德所言,“我們必須問的問題,不是什么對科學(xué)和技術(shù)有利,更不是什么對通用汽車公司、聯(lián)合碳化物公司、IBM或五角大樓有利,而是什么對人類有利。這里所指的不是被機(jī)器控制、被系統(tǒng)規(guī)訓(xùn)的大眾人(mass-man),而是作為個體的活生生的人,他能夠自由地穿越生活的每一個領(lǐng)域。”

從博士論文到人身攻擊:仇恨與反智時代的文科學(xué)術(shù)窘境

2024年11月28日,如同每一個開設(shè)社交媒體賬號的青年學(xué)者一樣,劍橋大學(xué)英語文學(xué)專業(yè)的艾莉·盧克斯(Ally Louks)在通過博士論文答辯之后,非常激動地在個人X(推特)賬號上發(fā)布了這則喜訊,同時也發(fā)出了她和博士論文的自拍合影。不過這份名為《嗅覺倫理:現(xiàn)當(dāng)代散文中的嗅覺政治》(Olfactory Ethics: The Politics of Smell in Modern and Contemporary Prose)的論文卻在接下來的一整個月里讓盧克斯陷入了荒唐的境地中:在她的帖文轉(zhuǎn)發(fā)和評論區(qū)里,大量質(zhì)疑其論文“價值”的言論出現(xiàn)。如果說稍顯合理的質(zhì)疑還屬于正常的學(xué)術(shù)交流,且這也是戴上“劍橋文學(xué)博士”這一冠冕所必然要應(yīng)對的挑戰(zhàn)的話,那么大量針對盧克斯的性別、將其與“覺醒”(woke)政治作聯(lián)結(jié)并堂而皇之裁定文科學(xué)術(shù)生產(chǎn)的都是垃圾的言論,則讓盧克斯這則報喜帖文淪為了當(dāng)下互聯(lián)網(wǎng)仇恨政治和反智言論的大秀場。

在一張帶有論文標(biāo)題的自拍點燃輿論之后,為了更好地說明其論文所關(guān)注的內(nèi)容,盧克斯還曬出了論文的摘要,從中我們也可以更清楚地了解這篇論文的主旨以及論點。盧克斯的摘要提到,其論文“目標(biāo)是通過揭示氣味在創(chuàng)造和顛覆性別、階級、性、種族及物種權(quán)力結(jié)構(gòu)中應(yīng)用的潛在邏輯,提供一種交叉性且廣泛的嗅覺壓迫研究?!睂Υ?,論文“主要聚焦于現(xiàn)代和當(dāng)代時期的散文小說,以追溯嗅覺偏見的歷史傳承,并定位其當(dāng)代相關(guān)性?!憋@然,即便是翻譯成中文,這些表述也未免過于專業(yè)化,帶有強(qiáng)烈的“學(xué)術(shù)黑話”(jargon)氣息,這無疑也是諸多針對盧克斯的攻訐的緣由所在。

面對惡評,盧克斯的態(tài)度始終堅定,她澄清這篇博士論文的摘要是面向她所在的領(lǐng)域內(nèi)的專家學(xué)者所寫的,而并非面向外行讀者,她本人也不會選擇用這種方式向一般讀者表達(dá)她所做的研究內(nèi)容。但這樣的表態(tài)和補(bǔ)充說明顯然也未能完全堵上質(zhì)疑者的嘴巴——后者的攻擊邏輯也非常清楚,一是認(rèn)為盧克斯流露出象牙塔精英的傲慢:憑什么盧克斯可以如此輕巧地將學(xué)術(shù)界和“一般人”區(qū)隔開?難道她是在看不起所謂的一般人嗎?此外,也有批判者抨擊這種只能學(xué)科內(nèi)自娛的研究又有何存在的必要呢?一位生物技術(shù)學(xué)家在批評盧克斯的時候更聳動地表示:“學(xué)術(shù)界已死。”而像《經(jīng)濟(jì)學(xué)人》這樣的大媒體也在一則題為《學(xué)術(shù)寫作變得越來越難讀——尤其是人文學(xué)科》的評論文章中指出,盧克斯所附上的摘要內(nèi)容正是讓這場輿論圍剿升級的導(dǎo)火索。

當(dāng)然,社交媒體并非一個讓學(xué)界中人理性討論的地方,盧克斯所面對的也遠(yuǎn)遠(yuǎn)不止上述負(fù)面評論,而是大量情緒性的宣泄和攻擊,這些言論也帶有明顯的極端保守和厭女特征。一個刺激到這些攻擊者的要素,或許是盧克斯研究中所提到的“嗅覺壓迫”,以及其所對應(yīng)的性別、階級和種族等議題。一方面,在當(dāng)下的西方人文學(xué)科領(lǐng)域,要做出一份足以讓人欣喜若狂地公開宣布自己獲得博士學(xué)位的論文,勢必也要在當(dāng)下西方的文化政治語境甚至思想政治上做“到位”。如此看來,盧克斯在她的研究中所力圖把握的性別、種族和階級議題,未免也是當(dāng)下學(xué)術(shù)政治大氣候的體現(xiàn)。但另一方面,這種研究取向在社交媒體上被架在火上烤,一個緣由就是它“太想進(jìn)步了”——“反覺醒”(anti-woke)的極端保守主義者們顯然不會輕易放過盧克斯和她的研究,何況這個題目還有著相當(dāng)多可以一并打包被抨擊的要素:學(xué)術(shù)黑話、題目價值遠(yuǎn)離大眾等等。

很快,針對盧克斯博士論文的負(fù)面評論,逐漸從質(zhì)疑走向抨擊,再走向充滿厭女氣息的人身攻擊。根據(jù)英國廣播公司BBC的報道,盡管盧克斯也承認(rèn)大多數(shù)針對她研究的評論都“非常友好”,但在她的帖子“被幾個極右翼賬戶轉(zhuǎn)發(fā)”后,負(fù)面關(guān)注也由此產(chǎn)生。盧克斯在接受采訪的時候表示:“我收到了很多強(qiáng)奸威脅,甚至死亡威脅,也有很多人把他們對女人應(yīng)該是什么樣子或應(yīng)該做什么的看法強(qiáng)加給我,而這些看法完全與(論文的)主題無關(guān)?!倍鴦蚩ぞ礁菍ν庾C實,他們已開始對針對盧克斯的“仇恨事件”進(jìn)行調(diào)查。警方發(fā)言人表示,他們收到了一起仇恨事件的報告,包括一封威脅性郵件,于格林威治標(biāo)準(zhǔn)時間2024年12月1日22點47分發(fā)送給一名女性,也就是盧克斯。對于盧克斯在輿論上遭到的不公和騷擾,劍橋大學(xué)官方也在社交媒體上發(fā)表聲明聲援盧克斯,并寫道:“當(dāng)網(wǎng)絡(luò)噴子攻擊艾莉的博士論文主題、她的教育背景、她的成就以及她的性別時,這些關(guān)注就已然是騷擾和厭女的體現(xiàn)?!?/p>

按照某種流量思維,盧克斯在獲得博士學(xué)位之后這一個多月以來可以說是一炮而紅,當(dāng)然她本人也并不拒斥這種狀態(tài),一方面如她所說,的確有不少人對她的成果表達(dá)了善意,也有學(xué)界同好或者象牙塔外的讀者對她的研究題目感興趣,并且去信表示想閱讀一下這篇論文;另一方面,如同前文提到的,盧克斯本人也有著頗為強(qiáng)大的內(nèi)心狀態(tài),她應(yīng)對這些惡評的態(tài)度或許有著學(xué)界精英固有的傲慢,但卻也不失體面和勇氣。就其論文所遭遇的詰難,盧克斯也不反感與媒體接觸,甚至先后在兩家媒體上發(fā)表文章,既試圖用更加平白的語言解釋自己的研究何為,同時也頗為坦誠地說明了學(xué)術(shù)寫作必然面對的公眾化的壁壘。在盧克斯眼中,她也是足夠幸運(yùn)的,能夠有這樣的機(jī)會面對公眾,盡管在我們旁觀者看來,這種“運(yùn)氣”未免來得過于滑稽。

在她其中一則回應(yīng)中,盧克斯自嘲是“一個內(nèi)向的書呆子”,經(jīng)過了“在聚光燈下并不舒服的一周”,“但看到這么多人參與我的作品,我感到非常欣慰,我非常欣賞這么多評論者的幽默?!痹诹硪黄涛闹?,盧克斯則更細(xì)致地指出了自己被負(fù)面輿論攻擊的其中一個原因:一些評論有意識地略去了她研究的復(fù)雜性,而將其邏輯簡化并誤導(dǎo)為“氣味是種族主義的象征”——事實上,即便這篇論文不可避免地用大量學(xué)術(shù)語言乃至黑話包裝,以便其能夠通過當(dāng)下世界最頂尖大學(xué)的博士論文審查和答辯,但依然提出了很重要的觀點,其中就包括盧克斯所說的:“有充分證據(jù)表明,氣味曾被用來為種族主義、階級歧視和性別歧視的表達(dá)辯護(hù),自20世紀(jì)80年代以來,研究人員一直在評估與氣味相關(guān)的觀念和刻板印象的道德影響。”

眼下這則互聯(lián)網(wǎng)鬧劇漸漸落幕,盧克斯如今的煩惱則是有太多人向圖書館申請閱讀她的論文。但這起事件更像是當(dāng)下互聯(lián)網(wǎng)生態(tài)下各種病態(tài)現(xiàn)象的大亂燉,從文科無用論的闡發(fā)、象牙塔內(nèi)外的壁壘與矛盾、學(xué)術(shù)界政治正確和反覺醒的互相揪斗,再到埋藏在“理客中”之下的厭女情結(jié),每一味“食材”仿佛都是從自我封閉的土壤中生長出來,并用傲慢的水澆灌。本應(yīng)由科學(xué)和人文學(xué)科所共享并賦予的理性、開放與批判思維,卻不見了蹤影。

暫無評論
頭像
0/1000
匿名