Advertisement

微軟計劃放棄面部分析工具以推動“負責任的人工智能”

微軟計劃放棄面部分析工具以推動“負責任的人工智能”

多年來,活動人士和學者一直擔心聲稱能夠確定一個人的年齡、性別和情緒狀態的面部分析軟件可能存在偏見、不可靠或具有侵入性——不應出售。

微軟承認了其中的一些批評,並在周二表示,它計劃從用於人臉檢測、分析和識別的人工智能服務中刪除這些功能。 本週它將停止對新用戶提供,現有用戶將在年內逐步淘汰。

這些變化是微軟努力加強對其人工智能產品控制的一部分。 經過兩年的審查,微軟的一個團隊制定了“負責任的人工智能標準”,這是一份 27 頁的文件,概述了人工智能係統的要求,以確保它們不會對社會產生不利影響。

要求包括確保系統提供“針對它們旨在解決的問題的有效解決方案”和“為特定人口群體(包括邊緣化群體)提供可比的服務質量”。

在發布之前,將用於做出有關個人獲得工作、教育、醫療保健、金融服務或生活機會的重要決定的技術需要由微軟首席人工智能官 Natasha Crampton 領導的團隊進行審查.

微軟越來越關注其情緒識別器,它將一個人的表情描述為憤怒、輕蔑、厭惡、恐懼、快樂、中立、悲傷或驚訝。

“我們表達自己的方式存在巨大的文化、地理和個體差異,”克蘭普頓女士說。 她說,這導致了對可靠性的擔憂,以及“面部表情是否是你內心自我的可靠指標”的更大問題。

例如,廢棄的年齡和性別分析器以及檢測頭髮和微笑等面部特徵的其他工具可能有助於解釋盲人和視障人士的視覺圖像,但該公司認為這很難做到. 克蘭普頓女士說,分析工具通常可供公眾使用。

特別是,她補充說,系統所謂的類型分類器是二進制的,“這不符合我們的價值觀。”

微軟還將對面部識別功能進行新的控制,該功能可用於執行身份檢查或搜索特定人。 例如,優步使用其應用程序中的軟件來驗證駕駛員的面部是否與該駕駛員帳戶的文件標識符匹配。 想要使用微軟面部識別工具的開發人員需要申請訪問權限並說明他們計劃如何推出該工具。

還將要求用戶提供並解釋他們如何使用可能濫用的 AI 系統,例如自定義神經語音。 該服務可以根據某人的語音樣本創建人類語音指紋,例如,作者可以創建語音的合成版本,以閱讀他們不會說的語言的有聲讀物。

由於該工具可能被濫用 – 給人一種人們說了他們沒有說的話的印象 – 說話者必須通過一系列步驟來確認允許使用他們的聲音,並且錄音包括可以被檢測到的水印微軟。

在微軟擔任律師 11 年並於 2018 年加入 AI 倫理小組的 Crampton 女士表示:“我們正在採取具體步驟來實現我們的 AI 原則。這將是一段巨大的旅程。”

與其他科技公司一樣,微軟的人工智能產品也面臨著陷阱。 2016 年,它推出了一款名為 Tay 的 Twitter 聊天機器人,旨在學習“理解與之互動的用戶的對話”。 該機器人迅速開始發洩種族主義和冒犯性推文,微軟不得不將其刪除。

2020 年,研究人員發現,微軟、蘋果、谷歌、IBM 和亞馬遜開發的語音轉文本工具對黑人的工作效率較低。微軟系統是其中最好的,但對白人來說有 15% 的單詞識別錯誤,相比之下黑人佔 27%。

該公司收集了不同的語音數據來訓練其人工智能係統,但不了解語言的多樣性。 所以我聘請了一位社會語言學專家 從華盛頓大學來解釋微軟需要知道的語言的多樣性。 在人們在正式和非正式場合的講話方式方面,它已經超越了人口統計和區域多樣性。

克蘭普頓女士說:“將種族視為某人說話方式的關鍵因素實際上有點誤導。我們與專家協商後了解到,影響語言多樣性的因素有很多。”

克蘭普頓女士說,修復這種語音到文本差異的旅行有助於為新公司標準中規定的指導方針提供信息。

“這是為人工智能製定規則和標準的關鍵時期,”她說,指的是為人工智能的使用制定規則和限制的擬議歐洲法規。 “我們希望能夠使用我們的標準來嘗試並為科技公司應遵守的標准進行必要的討論做出貢獻。”

多年來,科技界一直在激烈爭論人工智能的潛在危害,這些爭論由對人們生活產生實際影響的錯誤和錯誤推動,例如確定人們是否會獲得福利的算法。 當有缺陷的算法懲罰雙重國籍時,托兒服務使貧困家庭受益。

自動面部識別和分析程序特別有爭議。 去年,Facebook 關閉了其已有十年曆史的照片中人物識別系統。 該公司的人工智能副總裁指出“人們對面部識別技術在社會中的地位感到擔憂”。

幾名黑人男子在面部識別匹配存在缺陷後被錯誤逮捕。 而在 2020 年,在明尼阿波利斯喬治·弗洛伊德 (George Floyd) 遇害後的黑人生活問題運動抗議活動的同時,亞馬遜和微軟發布了美國警方對其面部識別產品的使用,稱需要對其使用制定更明確的法律.

從那時起,華盛頓和馬薩諸塞州通過了一項法規,其中要求對警察使用面部識別工具進行司法監督。

Crumpton 女士表示,微軟曾考慮是否開始在有註冊法律的州向警方提供其軟件,但目前決定不這樣做,並表示這可能會隨著法律環境的變化而改變。

美國大學計算機科學教授 Arvind Narayanan 表示,公司可能會推遲分析面部的技術,因為它們“更深入,不像其他各種可能有問題但我們不一定覺得的 AI”。普林斯頓大學和著名的人工智能專家。在我們的骨子裡。”

他說,公司也可能至少暫時意識到,其中一些系統沒有商業價值。 微軟無法確定它正在擺脫的面部分析功能有多少用戶。 Narayanan 先生預測,公司不太可能放棄其他侵入性技術,例如定向廣告,該技術將人們的個人資料映射到選擇最佳廣告以展示他們,因為他們是“金錢牛”。

Leave a Reply

Your email address will not be published.