• <rp id="q8vlk"><object id="q8vlk"><blockquote id="q8vlk"></blockquote></object></rp>

    <span id="q8vlk"></span>
    <button id="q8vlk"><acronym id="q8vlk"></acronym></button>
    <rp id="q8vlk"><acronym id="q8vlk"><input id="q8vlk"></input></acronym></rp>
    <progress id="q8vlk"></progress>
  • <em id="q8vlk"><tr id="q8vlk"><u id="q8vlk"></u></tr></em>
    2023年03月31日 星期五
    首頁>青記微評 > 正文

    青記觀察丨社交媒體的算法歧視與規制

    2021-06-04 08:35:04

    來源:青年記者公眾號   作者:王沛楠

    摘要:研究證明,臉書的原生廣告系統存在明顯的基于特定性別和種族的算法歧視問題。算法歧視問題來源于“精準”推送廣告的需求,卻可能導致某一群體內部對職業選擇和居住社區空間的自我強化

      臉書原生廣告中的算法歧視

      社交媒體及其偏好推薦所存在的算法歧視行為,已經引發了學者的廣泛關注。近日,南加州大學的研究團隊證明,臉書的原生廣告系統存在明顯的算法歧視,并且將現實世界中存在的性別偏見復制到了廣告的推薦系統中,使得資質類似的候選人因為性別原因無法同等概率地得到類似的招聘信息推薦。這進一步加劇了用戶對于算法歧視和偏見的擔憂。

      在這項研究中,研究者借助臉書的原生廣告平臺發布了涉及軟件工程、銷售和食品配送等多個領域的招聘廣告。廣告所涉及的公司及其職位需求都是真實存在的,且對于技能要求是相近的。但相關企業中一個公司的男性員工比例過高,另一個公司則是女性員工比例過高。臉書的原生廣告系統則有選擇地推送了這兩家公司的招聘信息,將男性員工比例過高的公司的招聘廣告推送給了更多女性,而同時將女性員工比例過高的公司的招聘廣告推送給了更多男性。

      研究者認為這已經違反了美國的《聯邦雇員反歧視法》,“我們已經證實,臉書的廣告投放可能會存在基于性別的偏見,這在一定程度上超出了法律許可的合理性”。這事實上已經不是臉書第一次面臨類似的指控,早在一年多以前,另一項研究同樣發現了臉書的招聘廣告在人口統計學的選取上存在偏見。它會有選擇地將不同類型的工作匹配推送給不同種族和性別的用戶。例如收到木材行業的工作崗位廣告的有72%是白人用戶,90%是男性用戶;收到超市收銀員崗位推送的85%是女性用戶;收到出租車司機的工作崗位的75%是黑人用戶。這其中包含了明顯的刻板印象偏見。

      盡管臉書不允許廣告商查看廣告瀏覽者的種族構成,但研究人員表示,他們能夠通過交叉參考臉書提供的其他用戶信息——特別是用戶居住的地區——比較精確地推斷出種族等指標。在某些州,臉書的數據還可以與選民登記記錄中持有的種族數據交叉參考。通過這種“交叉參考”的方式,數據完成了去匿名化的過程,進而幫助廣告商比較精確地完成信息的推送。

      除了招聘廣告,事關社區人口構成的售房和租房廣告業存在信息的歧視性濫用。臉書的售房與租房廣告在不同程度上也存在著種族主義的算法偏見。研究者發現臉書在向75%的白人用戶推送售房廣告,而租房廣告推送的人口統計學分布則更為平均。

      事實上,研究者本身并沒有對推送的人口統計學指標進行任何要求,他們只是希望廣告能夠覆蓋美國的臉書用戶。但臉書的算法黑箱則主導了推送的種族和性別問題。正如臉書吸引潛在的廣告主的臺詞“我們試圖向人們展示與他們最相關的廣告”所說,臉書的算法如何判斷何謂“相關”?其他社交媒體的算法機制是否如同臉書一樣容易產生偏見?研究者們對于算法歧視的討論試圖揭露答案。

      算法歧視的來源與隱患

      臉書是如何決定誰看什么的,這是信息時代的一大秘密,隱藏在保密協議、商業機密法和普遍的不透明文化背后。雖然研究者們無法從黑箱中揭示臉書的精準推送算法是如何工作的,但他們的研究仍然具有重要的啟示意義,告訴我們臉書為用戶推送的住房和就業廣告背后包含的是一種與種族和性別的刻板印象密切相關的偏見——即使廣告商期待的是投送給廣泛而不確定的受眾。

      事實上這種精準推送在臉書中包含了兩個步驟,第一步是由廣告商所主導的,廣告商可以選擇臉書中的某些細分人口為投放目標,例如“加拿大喜歡羽毛球的女性”等指標。第二步則是臉書的算法驅動的,算法會協調廣告主的需求和特定時間段內使用臉書應用用戶的流量,將廣告定制化地投放給某些用戶。廣告主可以看到哪些用戶最終觀看了廣告,但永遠不允許知道這些用戶是如何被精準選中的底層邏輯。

      算法歧視這個問題本身已經吸引了廣泛的關注,但研究者始終無法精確地回答這種偏向性推送結果的根本機制,正如用戶也無法理解自己為何會看到某條廣告或者某個偏好推送的內容一樣。這在本質上是算法設計的問題。臉書的廣告投放算法與它在數十億用戶中使用的其他所有自動決策系統一樣,是一個算法黑箱。除了真正運營算法的人之外,對任何人都是不透明的。

      研究團隊現在能夠確認的是,廣告投放算法會根據過去誰點擊過類似的廣告來進行自我訓練。如果更多男性用戶點擊了某一則廣告,那么算法就會在未來把它推送給更多男性用戶。研究人員認為“臉書會根據用戶對某一則廣告的點擊反饋來決定是否帶有傾向性地推送廣告”。但更為值得注意的是,即使廣告商在第一步中沒有任何偏好推送的意愿,臉書仍舊會利用算法有偏見性地進行廣告推送。

      在先前的那項研究中,研究者沒有在投放招聘廣告的時候要求偏好推送,而是希望向盡可能多的人展示這些職位列表。即使這樣,研究者發現廣告最終的取向仍然是存在偏見的,這說明原生廣告行業正在將“誰看什么”的決定權完全交給社交媒體及其不透明的算法。研究者在回顧這項研究的時候表示,“盡管廣告主可能完全沒有類似的意愿,但我們仍然觀察到了算法通過歷史點擊率來進行有傾向性的投放。這說明臉書可能是在以自己的長期商業利益凌駕于廣告主對于多元宣傳的愿望之上的”。

      相比于內容領域的精準推送,在招聘和售房廣告中加入這一元素可能帶來更加難以預料的后果。臉書的原生廣告算法精準地圍繞性別和種族等元素進行有偏向的投放,證明了原生廣告系統也存在著公眾所不了解的機制,可以導致潛在的歧視性結果。這種自動化決策的機制也在受到越來越多的質疑,瑞爾森大學的元?史蒂文森認為,算法這種中立的、基于數學邏輯的技術并不公平,它的制作過程可能體現著“創造者的偏見”。同時算法和自動化技術內置的偏見,因此會偏向與算法創造者持有類似價值觀的人,這可能會對現實生活產生直接的影響。

      有一種常見的反駁觀點認為,算法歧視只不過利用有效的精準推送和定向廣告的技術,這是對消費者的“恩惠”,讓他們免去了不相關的廣告,而提供與他們更加相關的商品和信息。但這個淺薄的推理忽略了一個問題,那就是相關性的決定可能會加劇人的自我強化,從而反過來進一步塑造人對這個世界的理解。因此,對于算法歧視的規制仍然是必要的。

      算法歧視的規制

      值得注意的是,研究者除了在臉書平臺上投放廣告之外,還在另一個職場社交平臺領英(LinkedIn)中投放了相同的廣告,但領英的廣告沒有檢測出明顯的偏見性推送。這進一步說明平臺是可以控制和完善自身的推送機制,使其算法的效果更可靠、準確且符合公共利益的。事實上,臉書曾經在2019年與民權組織達成過“和解”,承諾防止在就業、住房和信貸廣告中出現針對婦女和老年勞工等受法律保護群體的歧視。但新近的研究表明,臉書并沒有在這方面做出實質性的改進。

      臉書的發言人在回應上述問題的時候表示:“我們反對任何形式的歧視,我們已經對我們的廣告定位工具進行了重要的改變,并且知道這只是第一步。我們一直在研究我們的廣告投放系統,并就這一話題與行業領袖、學者和民權專家進行了交流——我們正在探索更多的改變。”但僅僅依靠企業自律可能不是解決算法歧視的唯一手段。

      作為一個新興的問題,各國對于算法歧視的規制基本都是空白。研究者則提出了一些初步的方案,嘗試對社交媒體的算法歧視進行有效的規制。由于平臺受到商業利益的驅動難以實現有效的自我規制,獨立的第三方審核可能需要在其中發揮更為重要的作用。對于相關問題的研究者和調查記者而言,他們需要在算法歧視的規制中扮演更為重要的角色。

      一方面,諸如臉書這樣的平臺需要吸納相關的研究者和調查記者成為其外部審核人員,在保證其數據安全和用戶隱私的前提下讓審核人員有特別的訪問權限,從而為算法歧視的監控提供渠道;另一方面,平臺需要為外部研究者進行算法歧視審核提供降低成本的便利。由于無法從內部打開算法黑箱,審核人員需要從外部觀察反推黑箱內部的運行原理,并發掘其中存在的算法歧視,這將大大增加研究的成本。臉書等平臺需要為這些第三方審核人員提供一個更低成本的機制,幫助他們更好地監控平臺上存在的算法歧視現象。

      但歸根到底,法律規制可能會成為限制算法歧視更有力的武器。研究者認為,在就業、招聘等方面的算法歧視行為可以利用《美國反就業歧視法》來進行規制,但其他類型的算法歧視現在是缺乏有效規制的。因此,如何以立法方式更有效地約束社交媒體平臺利用算法進行有偏見的信息分發,是對于算法歧視進行有效規制的未來道路。

     ?。ū疚脑臑?ldquo;Research Says Facebook’s Ad Algorithm Perpetuates Gender Bias”,譯自:https://theintercept.com/2021/04/09/facebook-algorithm-gender-discrimination/。作者山姆·比德爾為科技門戶the Intercept記者。編譯者王沛楠為清華大學教育研究院博士后,清華大學寫作與溝通教學中心專職教師)

      【文章刊于《青年記者》2021年第9期】

    來源:青年記者公眾號

    編輯:小青

    A片久久黑人
  • <rp id="q8vlk"><object id="q8vlk"><blockquote id="q8vlk"></blockquote></object></rp>

    <span id="q8vlk"></span>
    <button id="q8vlk"><acronym id="q8vlk"></acronym></button>
    <rp id="q8vlk"><acronym id="q8vlk"><input id="q8vlk"></input></acronym></rp>
    <progress id="q8vlk"></progress>
  • <em id="q8vlk"><tr id="q8vlk"><u id="q8vlk"></u></tr></em>