當 AI 成為面試官、負責把關校園網路活動,可能帶來哪些潛藏的危機?談人工智慧在人員管理上的運用,以及它將如何影響多元共融。

你知道 HR 也可能被 AI 取代嗎?

預定的面試時間到來,你深呼吸,準備來場令人印象深刻的自我介紹豔驚四座。不料眼前螢幕出現的,是個虛擬的聊天機器人,還有一段閃爍的文字。

猜你想看:ChatGPT-4 來了!能學習你的寫作風格,高分通過美國律師考試|AI for DEI

對話框彈出:「您有餐飲相關工作經驗嗎?」你一邊輕觸「有,三到五年」的按鈕,還半信半疑,期待著真人面試官在某個環節踏入會議室。

直到最後螢幕顯示「謝謝您,今天的面試到此結束,請靜候錄取結果」,你才在震驚之下走出面試空間,不敢相信自己剛才動動手指就完成了一場面試。

AI 徵才:大企業的搶才新趨勢

隨著電商巨頭亞馬遜、世界最大連鎖餐飲麥當勞,都宣布使用 AI 招募基層員工,產業界彷彿野心勃勃宣告著,徵才工作將迎來一個全新的 AI 時代。

自 2014 年起,亞馬遜就積極開發一套標榜能「有效篩選人才」的演算法。知情人士透露,這套電腦程式會自動為求職者的履歷評分:「我們想做的當然是,餵 100 份履歷給它,讓它吐出 5 個最高分的人選,而這些就是我們決定錄取的人。」[1]

女人迷AI徵才1
圖片|Photo by Christina @ wocintechchat.com on Unsplash

2018 年,亞馬遜決定停止所有旗下 AI 招聘工具運作,引發路透社等媒體大肆報導。背後原因是,研究者發現這套軟體存在嚴重的性別偏見。

在 Apple、Facebook、Google 和 Microsoft 四家科技業龍頭,男性都佔據近 80% 的技術職位[2]

因此,當亞馬遜使用人事資料來訓練模型,自然導致機器學習的結果主動貶低含有女性特質的經歷(例如「女子」足球隊長),並為更陽剛的動詞加權(如「貫徹了(executed)或「攫取了(captured)」)。

延伸閱讀:你在跟聊天機器人面試嗎?人工智慧的偏見如何影響面試?|AI for DEI

AI 作為缺工新解方,還是製造更多問題?

但跨國企業沒有就此放棄運用 AI 節省人資管理成本、爭取效率。

麥當勞發布名為「招來速(Apply Thru)」的招聘計劃,宣稱能讓求職者能透過 Amazon Alexa 或 Google 語音助理應聘初級職位。疫情影響下,全球缺工問題蔓延,吸引各家速食業者紛紛跟進。

同場加映:AI 運用必看書單!10 本人工智慧書籍,教你自動生成報表、寫履歷!

2023 年,美國商業趨勢報 Insider 即刊登了一篇名為〈我申請了麥當勞和其他 4 份速食餐廳的職位,但聊天機器人與自動化申請程序讓我根本無法被錄取〉的文章。

作者 Amanda 描述自己投遞履歷至 5 家連鎖餐飲,都遇上招聘機器人。但這些虛擬 HR 有的將她安排在國定假日面試導致她撲空,有些到最後一刻才揭露工資詳情;有的則在她填寫資料後,再也沒有下文。

女人迷AI招募2
圖片|Photo by Austin Distel on Unsplash

這些軟體錯誤地將無數像 Amanda 這樣識字、擁有電子設備與資訊應用技巧的求職者拒於門外,遑論其他不熟悉電子產品的人。

聊天程式的應用,等於是直接拒絕了沒有科技能力的貧困者、老人和部分身心障礙者,加深了資訊落差。機器人也無法像真人一樣,為有障礙或特殊需求的求職者,提供量身訂做的替代選項。

AI 學生追蹤軟體的風險:揭露個人資訊,懷有性別及種族偏見

如果學校人力已經不足以個別輔導高風險學生、管理學生在網路上的大量資訊活動,那麼用 AI 取代傳統校安人員,主動追蹤電子裝置、分析學生背景,會是個好方法嗎?

延伸閱讀:多元共融限制了你的言論自由嗎?美國十多個州研擬箝制 DEI,公立校園多元共融逐步噤聲!

根據華盛頓民主與科技中心(CDT)的調查,88% 的學校教師回報,學校設備裡安裝了「網路活動監控軟體」,而高達 4 成指出,學校在學生的個人裝置上也運用活動監控技術。

許多偵測與回報機制也與社會安全系統相連。有三分之一的教師回答,自己的學生曾經因為設備的數位監控而「陷入麻煩」,被校安人員、甚至校外執法人士關切。

女人迷AI招聘4
圖片|Photo by Brett Jordan on Unsplash

該中心的評估報告進一步發現,部分學校使用的演算法會掃描學生收發的訊息、瀏覽的文件和造訪的網站,查找「同性戀」相關詞語(Gay、Lesbian),並自動標記這些資訊提供給學校教師。

報告中斷言,此種行為無異於「未經同意強制出櫃」,將對 LGBTQ+ 族群造成心理創傷。

猜你想看:國際跨性別現身日:當歧視出現在校園,我們還要將同志教育趕出課本嗎?

綜合研究發現,人工智慧入校園對 LGBTQ+ 還有身障族群學生產生的衝擊最為負面,但諷刺的是,網路異常活動警示系統的建置,最初就是為了確保學生的安全,尤其是保護那些易受傷害的弱勢群體。

另外,幾乎所有教師(99%)都表⽰,自己的學校使⽤「內容濾阻軟體」來限制學⽣存取線上內容。

但分析指出,這些內容篩查導致身心障礙以及 LGBTQ+ 學生難以取得生活所需的指引,達成如同威權時代禁書的效果,已經危害民主自由、超出法律所允許的內容過濾及屏蔽範圍。

AI 是多元共融的推手,還是性別盲、種族主義者?

顯然,「管理人群」這個長久以來被認為「非人不可」的行業,其性質與執行方式,都出現了革命性的逆轉。面對新科技主導的時代來臨,我們不免要問,人工智慧和真人相比,究竟是更公正無私,還是抱持更多偏見?

同場加映:OpenAI 會有隱性歧視與偏見嗎?多元共融在 AI 時代將成關鍵|AI for DEI

有些招募平台認為,人工智慧輔助招募,在消除偏見與維護公正性上有其不可取代的功能,例如:

  1. 沒有語氣起伏、中性地發問並協助消除招募文案、職位描述中的歧視語言。
  2. 一次性隱藏求職者的隱私資訊,排除揭露身分的不公正影響
  3. 把資歷、技能等條件化為客觀的判斷式,實現無偏見的資格審核
  4. 不帶預設地蒐集額外資訊,不因語氣、肢體動作等表現對求職者造成壓力或限制

然而,劍橋大學的研究[3]嚴厲指出,號稱 AI 能利用演算法來分析性格特徵、語言模式和臉部表情,誘使企業相信這些新技術會讀心術或看面相,這種看法具有誤導性,並且存在潛在危險。

女人迷AI招聘4
圖片|Photo by Hitesh Choudhary on Unsplash

研究人員與電腦科學研究生合作,證明了服裝、燈光和背景的變化,會導致截然不同的性格解讀。這證明用人工智慧嘗試判斷求職者的人格特質是否符合要求,仍然屬今天技術所無法達成。

這群研究者擔心,即使聲稱可以用大數據、機器學習來「消除種族歧視」,也只是用演算法來平衡了數字,而非數據背後那些真正操控種族、性別的權力系統。研究人員建議,AI 終究只該用在輔助達成招聘多元性的目的上,不應作為獨立判斷的工具。

延伸閱讀:找工作、寫職缺只需幾秒鐘?Yourator AI 工具自動產出履歷、職缺!

細想,當篩選人的演算法,就像串流平台推薦你電影、音樂一樣,誰會在「推薦清單」裡脫穎而出?站在促進多元的角度,在校園與職場運用 AI,實在有待更審慎的考量。