2018年ML/AI重大進(jìn)展有哪些?LeCun推薦了這篇回答

    人工智能
    2018
    12/24
    23:41
    量子位
    分享
    評論

    回望2018,AI大潮依舊浩浩湯湯,勢頭不減。

    這一年都有哪些重要進(jìn)展呢?2018年即將過去,一些大牛也給出了自己的看法。

    剛剛,前Quora技術(shù)VP、AI領(lǐng)域技術(shù)專家Xavier Amatriain在Quora上回答了一個相關(guān)的問題:2018年ML/AI領(lǐng)域最重要的進(jìn)展是什么?

    他在答案中給出了4個方面:

    回歸理性,炒作降溫;

    舍虛務(wù)實,更關(guān)注具體問題;

    深度學(xué)習(xí)在NLP領(lǐng)域大放異彩;

    框架之爭愈發(fā)激烈,強(qiáng)化學(xué)習(xí)成焦點。

    答案發(fā)布之后,便引發(fā)了大量圍觀,Quora上點贊近400,Yann LeCun也在Twitter上轉(zhuǎn)發(fā)推薦。

    當(dāng)然,答案不僅僅只有這4句話,Amatriain也都給出了解釋。

    炒作降溫

    2017年,是AI炒作無所不在的一年。最突出的,就是馬斯克和扎克伯格等各方大佬就AI對于人類是福是禍進(jìn)行了隔空論戰(zhàn)。這些論戰(zhàn)為AI賺足了注意力。

    Amatriain表示,與2017年相比,我們好像冷靜下來了。一個主要的原因可能是這些大佬們忙于處理其他事情了。

    比如Facebook深陷數(shù)據(jù)與隱私旋渦,麻煩事情不斷。馬斯克也歷經(jīng)特斯拉生產(chǎn)地獄,度過了艱難的一年。

    與此同時,雖然很多人都認(rèn)為自動駕駛以及類似的技術(shù)正在向前發(fā)展,但就目前事故不斷的情況,所謂的“明天”,還有很遠(yuǎn)。

    更關(guān)注具體問題

    相對于AI是福是禍的討論,2018年對AI的關(guān)注也開始變得愈加務(wù)實了。

    首先是公平性。2018年,對公平性的討論,并不僅僅限于發(fā)表一些論文或者言論。谷歌還上線了相應(yīng)的課程。

    其次是可解釋性和因果關(guān)系。因果關(guān)系之所以重新成為了人們關(guān)注的焦點,主要是因為圖靈獎得主、貝葉斯網(wǎng)絡(luò)之父Judea Pearl出版了《The Book of Why》一書,在Twitter上引發(fā)了關(guān)于因果關(guān)系的大討論。

    而且,ACM Recsys上獲得最佳論文獎的論文,也探討了如何在嵌入中包含因果關(guān)系的問題。

    討論也不僅僅限于學(xué)界,大眾媒體《大西洋月刊》也發(fā)表文章指出,這是對現(xiàn)有人工智能方法的“挑戰(zhàn)”。

    雖然因果關(guān)系引發(fā)了不少的討論,但也有許多學(xué)者認(rèn)為,從某種程度上來說, 因果關(guān)系其實分散了人們對理論的關(guān)注,應(yīng)該關(guān)注更加具體的問題,比如模型的可解釋性。

    其中最具代表性的,就是華盛頓大學(xué)Marco Tulio Ribeiro等人發(fā)表的論文,這篇論文是對著名的LIME(一種解釋任何機(jī)器學(xué)習(xí)分類器的預(yù)測的技術(shù))模型的跟進(jìn)。

    論文鏈接:

    https://homes.cs.washington.edu/~marcotcr/aaai18.pdf

    深度學(xué)習(xí)在NLP領(lǐng)域大放異彩

    2018年,深度學(xué)習(xí)依舊受到了質(zhì)疑。CMU學(xué)者Simon DeDeo在Twitter上猛烈炮轟Google Brain團(tuán)隊,稱這技術(shù)(機(jī)器學(xué)習(xí))現(xiàn)在所做的事情,跟1990年沒什么差別,頂多就是規(guī)模更大,但并沒有給我們帶來比20年前更深刻的見解。

    Amatriain說,深度學(xué)習(xí)等技術(shù)并沒有止步不前,還有很多領(lǐng)域沒有運用相關(guān)的技術(shù)。具體來說,深度學(xué)習(xí)在計算機(jī)視覺之外的領(lǐng)域取得了前所未有的成功。

    最為突出的就是NLP領(lǐng)域。谷歌的Smart Compose(Gmail中智能預(yù)測拼寫神經(jīng)網(wǎng)絡(luò))和Duplex對話系統(tǒng)(會打電話的AI),可以說是2018年最令人印象深刻的兩個AI應(yīng)用了。

    NLP領(lǐng)域的進(jìn)展,也不僅僅只體現(xiàn)在應(yīng)用上。在語言模型上也有了很大的進(jìn)步。最大的功臣是Fast.ai的UMLFit,推廣了相關(guān)的概念與想法。

    然后是其他的方法,比如艾倫研究所的ELMo、OpenAI的Transformers、谷歌最近的BERT等等,都取得了非常好的效果。

    它們提供了即用型的預(yù)訓(xùn)練和通用模型,可以針對特定任務(wù)微調(diào)。因此,這些模型的出現(xiàn),也被描述為“NLP的Imagenet時刻”。

    除了這些之外,還有其他一些進(jìn)步,比如Facebook的多語言嵌入。而且,我們也看到了這些方法被整合到通用的NLP框架中的速度變得非常快了,比如AllenNLP或Zalando的FLAIR。

    關(guān)于NLP領(lǐng)域的總結(jié),還有一篇文章,推薦給你閱讀:

    框架之爭愈發(fā)激烈,強(qiáng)化學(xué)習(xí)成焦點

    最令人驚訝的一點是,就在Pytorch 1.0發(fā)布的時候,Pytorch似乎快要趕上了TensorFlow。

    雖然在生產(chǎn)的過程中使用Pytorch仍舊不太理想,但在可行性、文檔和教育方面,Pytorch已經(jīng)超過了TensorFlow。

    這其中,選擇Pytorch作為實現(xiàn)Pytorch庫的框架可能起到了很大的作用。

    谷歌也已經(jīng)意識到了這一點,也正在朝著這個方向努力,將Keras納入框架,并吸納Paige Bailey這樣的開發(fā)者領(lǐng)袖加入其中。

    雖然今年強(qiáng)化學(xué)習(xí)領(lǐng)域的進(jìn)展比不上前些年,只有DeepMind最近的IMPALA還算令人印象深刻。但基本上AI領(lǐng)域所有的“玩家”都發(fā)布了強(qiáng)化學(xué)習(xí)框架。

    谷歌發(fā)布了Dopamine框架,DeepMind發(fā)布了有點競爭性的TRFL,F(xiàn)acebook當(dāng)然不會落后,發(fā)布了Horizon,微軟則發(fā)布了TextWorld,專門用于訓(xùn)練基于文本的智能體。

    希望這些開源工具的出現(xiàn),強(qiáng)化學(xué)習(xí)能在2019年有更多的突破進(jìn)展。

    此外,框架方面還有一個有趣的進(jìn)展。谷歌最近發(fā)布了基于TensorFlow的TFRank。排序是一個非常重要的ML應(yīng)用,它應(yīng)該得到更多的關(guān)注。

    其他一些進(jìn)展

    圍繞著數(shù)據(jù)改進(jìn),深度學(xué)習(xí)領(lǐng)域仍然有非常有趣的進(jìn)展。

    比如說,對于深度學(xué)習(xí)非常關(guān)鍵的數(shù)據(jù)擴(kuò)充(data augmentation)在今年有了新的進(jìn)展。谷歌發(fā)布了auto-augment,一種深度強(qiáng)化學(xué)習(xí)方法,可以自動擴(kuò)充訓(xùn)練數(shù)據(jù)。

    一個更加極端想法是用合成數(shù)據(jù)訓(xùn)練深度學(xué)習(xí)模型,許多人都認(rèn)為這是AI未來發(fā)展的關(guān)鍵。英偉達(dá)在《Training Deep Learning with Synthetic Data》論文中提出了一些新的想法。

    論文鏈接:

    https://arxiv.org/abs/1804.06516

    在《Learning from the Experts》一文中,展示了如何使用專家系統(tǒng)合成數(shù)據(jù)。

    論文鏈接:

    https://arxiv.org/abs/1804.08033

    最后,還有一種方法是“weak supervision”,可以減少對大量手工標(biāo)注數(shù)據(jù)的需求。Snorkel是一個非常有趣的項目,想要提供了一個通用的框架,來推進(jìn)這種方法。

    項目地址:

    https://blog.acolyer.org/2018/08/22/snorkel-rapid-training-data-creation-with-weak-supervision/amp/?__twitter_impression=true

    Amatriain說,就AI領(lǐng)域更為基礎(chǔ)的突破,今年并沒有看到太多。

    但他不同意Hinton的看法,即認(rèn)為缺乏創(chuàng)新是因為這個領(lǐng)域年輕人太多,資深的人太少。

    在他看來,缺乏突破的主要原因是,現(xiàn)有的方法仍舊有許多地方可以應(yīng)用,因此很少有人去冒險近嘗試不切實際的想法。尤其是當(dāng)前大多數(shù)研究都是由大公司資助的,讓這一特點更加突出了。

    不過,還是有一些人在嘗試,代表性的論文有兩篇。

    【來源:量子位】

    THE END
    廣告、內(nèi)容合作請點擊這里 尋求合作
    ai
    免責(zé)聲明:本文系轉(zhuǎn)載,版權(quán)歸原作者所有;旨在傳遞信息,不代表砍柴網(wǎng)的觀點和立場。

    相關(guān)熱點

    臨近年底,各行各業(yè)都有不同的年底盤點和趨勢預(yù)測報告紛紛發(fā)布,ICT行業(yè)也不例外。12月19日,由中國信息通信研究院主辦的“2019年ICT深度觀察大型報告會暨白皮書發(fā)布會”在京召開,中國信息通信研究院總工...
    人工智能
    簡單來說,人臉識別技術(shù)就是針對面部器官的不同的位置距離進(jìn)行計算的數(shù)學(xué)公式,對輸入的人臉圖象或者視頻流,首先判斷其是否存在,如果存在,則進(jìn)一步的給出每個臉的位置、大小和各個主要面部器官的位置信...
    人工智能
    今天的人工智能站在技術(shù)與產(chǎn)品應(yīng)用的分界點上,從我們身邊觸手可及的生活場景開始,刷臉已滲透入每個人的生活。
    人工智能
    這兩天,一個 " 魔法畫板 " 在國外傳瘋了。
    人工智能
    2017年,以斯坦福大學(xué)為首、包括吳恩達(dá)、李開復(fù)等一眾大咖專家團(tuán)隊齊力打造的人工智能指數(shù)(AI Index)重磅年度報告首次發(fā)布。從學(xué)術(shù)、業(yè)界發(fā)展、政府策略等方面對全年的人工智能全球發(fā)展進(jìn)行了回顧,堪稱...
    人工智能

    相關(guān)推薦

    1
    3
    主站蜘蛛池模板: 国产激情一区二区三区在线观看 | 国产成人精品一区二区三在线观看| 亚洲一区二区三区国产精华液| 波多野结衣一区二区三区aV高清| 日韩一区二区三区不卡视频| 中文字幕精品一区影音先锋 | 久久久久人妻一区二区三区| 精品亚洲一区二区三区在线播放| 国产精品久久久久一区二区三区 | 成人免费视频一区二区| 亚洲一区二区三区久久| 日韩电影在线观看第一区| 蜜桃传媒一区二区亚洲AV| 91精品福利一区二区三区野战| 久久亚洲国产精品一区二区| 久久无码人妻精品一区二区三区| 另类ts人妖一区二区三区| 国产精品综合一区二区| 国产精品熟女视频一区二区| 亚洲日韩国产一区二区三区在线| 麻豆一区二区在我观看| 亚洲熟妇av一区二区三区漫画| 国产一区二区三区免费观看在线 | 日本一区二区在线| 伊人精品视频一区二区三区| 国产精品亚洲高清一区二区| 国产免费伦精品一区二区三区| 国产精品毛片一区二区| 久久国产精品免费一区二区三区| 久久国产精品免费一区二区三区| 日本精品少妇一区二区三区| 国产精品无码一区二区三区在| 免费在线视频一区| 国产一区三区三区| 天堂资源中文最新版在线一区| 国产精品一区二区久久不卡| 骚片AV蜜桃精品一区| 久久精品无码一区二区WWW| 久久久国产精品无码一区二区三区| 国产乱子伦一区二区三区| 日本亚洲国产一区二区三区|