可能犯罪,並且該算法是在主要由黑人組成的數據集上進行訓練的,那麼該算法將更有可能預測黑人是否有可能犯罪。犯罪。 值得注意的是,人工智能係統中的偏見並不總是有意的。 在許多情況下,開發人工智能係統的人並沒有意識到數據中存在的偏見。 然而,意識到人工智能係統中潛在的偏見並採取措施減輕它仍然很重要。 以下是可以採取的一些措施來減輕人工智能係統中的偏見: 使用更多樣化的數據集來訓練人工智能係統。 開發更加透明和負責任的算法。 進行定期審核以識別和解決偏見。 讓不同背景的利益相關者參與人工智能係統的開發。 教育公眾了解人工智能係統中潛在的偏見。 通過採取這些步驟,我們可以幫助確保人工智能的用途是有益的,而不是有害的。
亞馬遜的招聘工具年亞馬遜在發現其人工智能招
聘工具對女性存在偏見後被迫廢棄。 該工具根據 10 年來提交給亞馬遜的簡歷數據集進行了訓練。 該數據集嚴重偏向男性簡歷,因此人工智能工具更有可能推薦男性求職者。 IBM的面部識別軟件:2020年,IBM因其面部識別軟件而受到批評,該軟件 突尼斯电话号码表 被發現比白人更容易誤認有色人種。 該軟件接受了以白色為主的圖像數據集的訓練,因此,它學會了將某些面部特徵與犯罪行為聯繫起來。 谷歌的搜索結果:2015年,谷歌被發現在與女性和少數族裔相關的術語搜索結果中存在偏見。 例如,當搜索“CEO”一詞時,谷歌更有可能顯示白人男性的圖像,而不是女性或少數族裔的圖像。 刑事司法系統中使用的算法:刑事司法系統中越來越多地使用算法來做出有關保釋、量刑和假釋的決定。 然而,有證據表明這些算法可能對某些人群存在偏見,例如非裔美國人。
例如ProPublica 的一項研究發現佛羅里達州布勞沃德縣保釋系統
中使用的算法更有可能建議對黑人被告進行審前拘留,而不是白人被告。 ChatBot Tay:Tay 是 Microsoft 開發的聊天機器人,旨在從 Twitter 上與用戶的交互中學習。 然而,Tay 很快就開始產生攻擊性和種族主義推文,僅 16 小時後微軟就被迫 BM 列表 將其下線。 這些只是人工智能係統表現出偏見行為的多種方式的幾個例子。 重要的是要意識到人工智能係統中潛在的偏見,並採取措施減輕它。 這可以通過使用更多樣化的數據集來訓練人工智能係統、開發更透明和更負責任的算法以及進行定期審計來識別和解決偏見來實現。上述人工智能係統中的偏見最初是通過多種方式被發現或曝光的。 亞馬遜的招聘工具:亞馬遜招聘工具中的偏見是由研究該工具的研究人員團隊發現的。 谷歌的搜索結果:谷歌搜索結果中的偏見是由一組研究人員發現的,他們正在研究與女性和少數族裔相關的術語的結果。