演算法看似抽象,但早已浸淫在人類社會的每個角落,當無法與演算法脫勾時,如果演算法並不客觀、公正,重度仰賴演算法的我們又該如何因應呢?

Facebook 母公司 Meta 近期面臨來自歐洲人權組織的四項指控,稱其投放招募廣告的演算法有性別歧視的嫌疑。諷刺的是在此之前,Meta 就曾因被指控平台上的房地產、信貸廣告存在歧視,而支付 500 萬美元的費用。

承諾過要消除演算法歧視問題的 Meta,又再次引發爭議,不禁令人好奇,該如何在享受演算法好處的同時,避免性別歧視的滲入?


圖片|Photo by cottonbro studio on Pexels

Meta 遭指控演算法重製性別刻板印象

為了解 Facebook 演算法是否潛藏性別歧視,國際非營利組織 Global Witness 在 2 月至 4 月時,以不指定受眾性別的方式,在法國和荷蘭投放了一系列招募廣告。

Global Witness 只要求最大限度地增加廣告連結的點擊數,其他則全交由 Facebook 演算法,來決定最終看到廣告的對象。

從 Facebook Ad Manager 平台獲得的數據中,Global Witness 發現 Facebook 推薦給不同用戶的廣告,潛藏大量性別刻板印象。比如說荷蘭的 Facebook 用戶中,看到教師職缺廣告者有 85% 是女性,看到服務生職缺廣告則高達 96% 是女性,然而看到機師職缺的女性僅占 4%。

法國的研究結果也有相似的發現——93% 的女性看到教師職缺、86% 的女性看到心理學家職缺,6% 女性看到機師職缺。


圖片|Photo by Pixabay on Pexels

有鑑於在歐洲、亞洲等多個國家都可見類似的研究結果,Global Witness 不禁懷疑 Facebook 的演算法偏見已經上升為全球性的問題。

因此為避免此偏見加劇工作場所中的不平等和薪資差距,Global Witness 、Bureau Clara Wichmann 和 Fondation des Femmes 三家非營利組織,群起向人權機構和數據保護機構遞交了針對 Meta 演算法涉及性別刻板印象的控訴,若指控屬實 Meta 最終可能面臨罰款或更改演算法的壓力。

猜你想看:「開朗善良的機械技師哈娜姐姐」 韓國導航系統突破 AI 裡的性別刻板印象

Meta 推出新興演算法,就能降低偏見了嗎?

國際特赦組織大型科技問責團隊負責人 Pat de Brún 也對演算法偏見表示關注,他認為 Facebook 作為公共話語發生的場域,不應該放任演算法再現、放大社會已然存在的不公平。

特別是在低收入戶較常使用 Facebook 找工作的情況下,若演算法又存在偏見,那麼影響最大的,將會是那些已經處於邊緣地位的一群。

Meta 發言人 Ashley Settle 對此表示,廣告商在 Meta 上投遞就業、房地產和信貸廣告時,並不允許選擇性別,且此種廣告受眾輪廓的限制,也已經在美國、加拿大等 40 多個歐洲國家實施。

此外,Ashley Settle 也表示 Meta 將繼續與學術界、人權團體等專家合作,研究和解決演算法公平性的最佳解,今年早些時候,Facebook 也推出新的機器學習技術,以此降低投遞廣告的偏見。

同場加映:AI 會取代人類做決策嗎?拋開無意識偏見、擁抱多元共融,巧用 ChatGPT 人類一定要有的能力

看完演算法爭議事件,雖然如何在享受演算法的好處,同時避免再製性別刻板印象,此題仍待解,但我們依然可從演算法爭議事件中,提醒自己更有意識的注意潛藏在生活中的偏見,而不只是被動的資訊接收者。