Advertisement

用可怕的情緒識別技術結束微軟的 Calling It

用可怕的情緒識別技術結束微軟的 Calling It

標題為 Microsoft & # 39; 的文章的圖像 s Call it Quits on Creepy Emotion Recognition Tech

圖片約翰麥克杜格爾 (蓋蒂圖片社)

微軟拒絕文件 科學嫌疑人 並且在道德上存在問題 情緒識別技術至少現在。

微軟宣布計劃從其 Azure Face 面部識別服務中取消所謂的“情感識別”檢測系統,隱私倡導者對未經測試的侵入性生物識別技術敲響了警鐘。 該公司還將逐步淘汰試圖使用人工智能推斷性別和年齡等身份特徵的功能。

微軟決定停止這項有爭議的技術是在一個更大的決定之際 修理 微軟首席人工智能官娜塔莎·克蘭普頓(Natasha Crampton)表示,該公司的逆轉是對專家的回應,專家們表示對“情緒”的定義缺乏共識,以及對人工智能係統如何解釋這些情緒的過度概括的擔憂。

Azure AI 首席產品經理 Sarah Bird 在另一份聲明中表示:“我們與內部和外部研究人員合作,了解這項技術的局限性和潛在優勢,並克服權衡取捨。” 陳述Baird 補充說:“API 對預測敏感特徵的功能的訪問也開闢了多種可能被濫用的方式——包括使人們暴露於刻板印象、歧視或不公平的拒絕服務。”

伯德表示公司將搬遷 與 Azure 人臉 API 中的通用系統相去甚遠,它試圖擴展這些屬性以“降低風險”。 從周二開始,新的 Azure 客戶將無法使用此檢測系統,儘管現有客戶將在 2023 年之前停止使用它。 至關重要的是,雖然微軟表示其 API 將無法用於一般用途,但伯德表示,該公司可能會繼續在一些有限的用例中探索該技術,特別是作為支持殘疾人的工具。

“微軟認識到這些功能在用於一系列受控訪問場景時可能很有價值,”伯德補充道。

課程更正旨在使 Microsoft 政策與 27 個新頁面保持一致 負責任的人工智能標準 年度文件正在準備中。 除其他準則外,標準要求微軟確保其產品受到適當的數據治理,支持知情的人工監督和控制,並“為他們旨在解決的問題提供有效的解決方案”。

情緒識別技術“充其量是粗糙的”。

在接受 Gizmodo 採訪時,監控技術項目首席執行官 Albert Fox 將其描述為微軟放棄情感識別技術的“明智之舉”。

“現實情況是,這項技術充其量只是初級技術,最多只能破譯一小部分用戶,”福克斯卡恩說。 “但即使技術得到改進,它仍然會懲罰任何具有神經異質性的人。像大多數行為人工智能一樣,多樣性會受到懲罰,那些想法不同的人會被視為危險。”

美國公民自由聯盟高級政策分析師傑伊斯坦利對微軟的決定表示歡迎,他說這反映了自動情感識別的“科學聲譽”。

“我希望這有助於建立更廣泛的理解,即這項技術不應該被依賴或部署在實驗環境之外,”斯坦利在與 Gizmodo 的電話中說。 我們希望它能產生廣泛的影響,幫助其他人了解這項技術的嚴重缺陷。”

週二的公告是在多年來來自活動家和學者的壓力之後發表的,他們已經公開反對容易識別情緒的潛在道德和隱私風險。 “對認知的影響”)在她 2021 年出版的書中 人工智能地圖集。 與試圖識別特定個體的面部識別相比,情緒識別旨在“通過分析任何面部來發現和分類情緒”——克勞福德認為這種表述存在根本缺陷。

克勞福德寫道:“將面部動作與基本情緒類別之間的聯繫自動化的困難導致了一個更大的問題,即情緒是否可以充分地歸類為少數離散的類別。” 它表明了我們誠實的內心狀態,因為任何微笑但沒有真正感到快樂的人都可以證實這一點。”

克勞福德並不孤單。 一個 2019 報告 由紐約大學研究中心進行的 AI Now 認為,如果情緒識別技術落入壞人之手,可能會讓組織做出關於個人是否適合參與社會重要方面的悲慘決定。 該報告的作者呼籲監管機構禁止該技術。 我寫了一組 27 個數字版權組 打開信封 致 Zoom 的首席執行官兼創始人 Eric S. 袁先生要求他放棄 Zoom 將情感識別整合到視頻通話中的努力。

微軟在加入亞馬遜和 IBM 近兩年後開始關注情商 禁止 警察使用面部識別。 此後,谷歌、推特等主要科技公司的人工智能倫理團隊成為 再生產如果不是沒有一些 緊張局勢雖然微軟退出情感識別的潛在決定可能會使其免於逆轉 震驚 公眾信任問題困擾著其他科技公司,該公司仍然是隱私和公民解放倡導者關注的主要問題,因為 她與執法部門的伙伴關係以及她對軍事合同的濃厚興趣。

微軟的決定受到隱私團體的普遍歡迎,但 Fox Cahn 告訴 Gizmodo,他希望微軟對此採取更多行動 其他,更有利可圖,但就技術而言同樣如此。

Fox Kahn 說:“雖然這是重要的一步,但微軟在清理其民權記錄方面還有很長的路要走。公司繼續受益於 Domain Awareness, [an] 與紐約警察局合作創建的奧威爾情報計劃。 領域意識,以及它所啟用的人工智能條件系統,引發了與情感識別完全相同的擔憂,只有 DAS 是有利可圖的。 “

Leave a Reply

Your email address will not be published.