確保人工智能不作惡 谷歌為AI再上“緊箍咒”

    人工智能
    2018
    11/18
    01:42
    中國家電網
    分享
    評論

    谷歌認為,比起殺人AI機器人,我們更該擔心的是AI偏見問題。谷歌提出AI技術開發的道德準則,成立了專門的機器學習道德部門,對公司的產品和服務進行分析測試,提出改進意見,盡可能避免AI偏見的產生。

    在去年舉行的谷歌會議上,谷歌當時的人工智能(AI)負責人John Giannandrea表示,我們不需要擔心殺手機器人,相反,我們需要擔心的是AI偏見。

    “如果要說真正的安全問題,那就是如果我們給這些系統提供有偏見的數據,那么生成的AI模型就會有偏見。”他說。

    這是谷歌過去一直在努力解決的問題。2015年6月,谷歌照片應用的算法曾經錯誤地將黑人分類為“大猩猩”,引發了軒然大波。因此,從IBM到Airbnb,每家公司都在努力確保自己算法不會出現類似的偏差。

    最近一段時間,谷歌為解決AI偏見又上了緊箍咒。

    對于谷歌機器學習道德、信任和安全主管Jen Gennai來說,防止出現數據和AI偏見實際上就是他的工作內容。Gennai負責領導一個跨公司的團隊,對谷歌的新產品和服務進行分析和咨詢,以確保所有新產品都遵守這一道德標準。

    “如果我們要打造一項新技術,我們需要確保它從一開始就走在正確的軌道上。”她說。

    谷歌制定AI技術開發七大準則

    今年6月,Google首席執行官Sundar Pichai發布了該公司的人工智能原則,指導谷歌在這些方面的工作和研究,包括確保Google員工不會制造或加強不公平的AI偏見。

    Pichai表示,AI的開發和使用將在未來許多年內對社會產生重大影響。作為AI的領導者,我們感到自己有責任做到這一點。

    這種關于人AI技術的新立場是受到谷歌出現問題的影響而提出的。除了“大猩猩”事件之外,哈佛大學研究人員Latanya Sweeney發現谷歌搜索中的存在種族歧視。當搜索類似黑人名字時,會比搜索類似白人名字更有可能出現與“被逮捕”相關的廣告。

    “這些現象都是我們的部門成立的原因,不應該讓我們的用戶看到這些,我們需要首先阻止這些偏見的產生。”Gennai說。

    谷歌谷歌機器學習道德、信任和安全負責人Jen Gennai 現在每當谷歌推出新產品時,都會接受Gennai及其團隊的嚴格測試。來自技術、法律、隱私和社會科學等領域的專家聚集在一起,根據谷歌制定的AI準則對每個產品進行分析。

    這種測試主要是找出產品的優缺點。“我們并不是公司里可怕的監工。”Gennai說。“我們想的是,希望公司能推出最好的產品,所以我們要找出所有可能出錯的漏洞,以便解決問題。

    在谷歌智能助理給真人打電話的功能上,產品團隊事先就AI如何處理不同口音做了大量工作,但Gennai的測試團隊提出了一些其他問題。

    “我們研究了用戶如何與之互動,如何利用技術降低AI的偏見。我們提出了問題,要如何判斷用戶是不是有口吃或語言障礙。產品開發團隊做了很多工作,但我們試圖縮小所有差距,提升產品表現。”她說。

    改進數據集質量

    改善AI偏見的一種方法是改進數據集。 Gennai舉了一個婚禮的例子。

    過去,如果你在Google圖片上搜索“婚禮”,得到的結果是白人穿著婚禮禮服的照片,因為算法是在基于西方人的數據源上進行訓練的。然而,這對印度或中國的谷歌用戶就不合適。谷歌要求人們提交世界各地的婚禮照片,以改善數據集。

    “現在,我們得到了印度用戶的大量反饋,他們向我們發送了許多色彩繽紛的婚禮照片,”我們希望了解我們現有資源,創建偏見相對較小的新資源。”

    讓用戶也能理解算法

    了解谷歌算法的內部工作流程,有助于團隊更好地進行修改。比如用谷歌搜索“CEO”時出現的問題,當你在搜索欄中鍵入“CEO”時,你會看到一些穿著西裝打著領帶的白人男子的圖片。

    Gennai的團隊調查數據時發現,這個現象往往并不是人為偏見,而是技術上的偏見。

    “在算法看來,海軍藍像素就等于CEO,而且因為白人男性更容易穿藍色西裝,所以這純粹是模型學習的方式問題。但這表明我們需要仔細檢查數據。

    讓谷歌用戶了解公司算法的運作方式也是很重要的。谷歌用戶現在可以查看為你投放廣告的原因,并查看由算法做出的決定。用戶還可以查看為何會在谷歌搜索結果中看到某個鏈接,具體取決于用戶之前的搜索記錄。 Gennai表示,這是為了幫助用戶更多地了解谷歌,以便他們可以信任谷歌搜索。

    透明度也是谷歌AI原則的一部分。但是“與用戶共享一個完整的算法根本沒有用,反而可能會引起更多的混淆,并感覺我們是故意混淆。但是,用用戶可讀的語言解釋算法,將有助于人們了解谷歌正在嘗試做的事情,即使我們做錯了。”Gennai說。

    解決AI偏見,光靠谷歌不夠

    說到最后,偏見的根源其實還是來自人類。“我們每個人都有偏見,我們現有的全部數據源,都是建立在我們每個人和過去的歷史偏見之上。”

    但是,僅僅因為這一點,并不能說我們無法阻止偏見。相反,谷歌試圖盡可能調查和解釋最大的偏見來源,并嘗試改變。

    從這個角度看,谷歌的AI準則在公司內部非常重要,也是因為這個原因,谷歌為公司外的人創建了“負責任的AI”開發實踐項目,這些人正在使用其開源軟件來構建人工智能和機器學習算法。

    “我們希望能夠以身作則,提供相關工具和知識,讓更多的人能夠遵循這些準則。”她說。

    【來源:中國家電網】

    THE END
    廣告、內容合作請點擊這里 尋求合作
    AI
    免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表砍柴網的觀點和立場。

    相關熱點

    急性腎損傷(AKI)是指腎臟突然不能過濾血液中的廢物,這種疾病會直接破壞重癥病人的腎臟系統。
    業界
    榮耀總裁趙明在世界互聯網大會物聯網分論壇,發表了題為《物聯網:消費革命的黃金十年》的演講中指出,全球將迎來IoT爆發性增長期,企業對物聯網將迎來消費革命的“黃金十年”。
    業界
    11月5日,搜狗公布了未經審計的2018年第三季度財報。財報顯示,截至9月30日,搜狗總收入超18.8億元,同比增長10%,非美國通用會計準則凈利潤1.9億元,整體業務發展穩健。
    業界
    盡管AI影響范圍如此之廣,但仍然還只是亞馬遜、谷歌等大體量企業的“玩具”以及部分創業公司的顯著標簽。對于絕大多數企業來說,AI 的成本高、全面部署困難等特性依然為它的落地帶來不小的困擾。
    滾動
    銀河水滴創始人兼CEO黃永禎同時宣布,銀河水滴工業視覺平臺“IndustryAI”的工業視覺檢測算法將面向工業用戶三年免費開放。
    業界
    最新文章

    相關推薦

    1
    3
    主站蜘蛛池模板: 一区二区中文字幕| 久久se精品动漫一区二区三区| 无码精品黑人一区二区三区| 亚洲欧美成人一区二区三区| 中文字幕一区在线播放| 毛片无码一区二区三区a片视频| 日本高清成本人视频一区| 免费视频精品一区二区| 亚洲av乱码一区二区三区按摩| 亚洲一区综合在线播放| 日韩人妻无码一区二区三区| 日韩一区二区三区精品| 精品一区二区三区免费毛片| 精品国产天堂综合一区在线| 51视频国产精品一区二区| 亚洲综合无码一区二区三区| 亚洲AV无码一区二区乱孑伦AS| 久久精品无码一区二区日韩AV| 无码人妻AⅤ一区二区三区水密桃| 成人一区专区在线观看| 亚洲欧美日韩中文字幕在线一区| 国产福利微拍精品一区二区 | 久久久一区二区三区| 国产色精品vr一区区三区| 一区二区三区在线免费观看视频| 日韩精品无码人妻一区二区三区 | 精品亚洲福利一区二区| 蜜臀AV无码一区二区三区| 亚洲av日韩综合一区久热| 成人久久精品一区二区三区| 五十路熟女人妻一区二区| 日韩精品一区二区三区中文版| 国产伦精品一区二区三区四区| 精品一区二区高清在线观看| 亚洲AV无码一区二区三区国产| 国产色精品vr一区区三区| 日韩精品一区二区亚洲AV观看 | 无码国产精品久久一区免费| 国产精品无码一区二区在线观| 国产精品亚洲一区二区无码 | 国产成人精品一区二三区熟女|