A. 論淘寶搜索推薦演算法排序機制及2021年搜索的方向。
[寫在前面]淘寶搜索引擎至今反復多次,搜索順序也從最初的統計模型升級到機械學習模型,到2010年為止沒有標簽沒有基礎標簽,隨著計算能力的提高,2010年後開始挖掘用戶的基礎標簽,從3年到2013年開始使用大規模的機械學習和實時特徵
但你有沒有想過為什麼2016-2017年的兩年是各種各樣的黑搜索盛行的一年,為什麼今天幾乎消失了?
最根本的原因是從統計演算法模型到機械學習模型的轉型期。
說白了,這時不收割就沒有收割的機會。因為統計模型即將退出歷史舞台。
因此,各路大神各自擴大了統計模型演算法中的影響因素。統計演算法無論在哪裡,點擊率和坑產都很容易搜索。
那兩年成了中小賣家的狂歡盛宴,很多大神的煙火也是旺盛的。
今天推薦演算法的第三代使用後,加上疫情的影響進行了鮮明的比較,真的很感慨。
淘寶真的沒有流量了嗎?電器商務真的做不到嗎?還是大家的思維沒有改變,停留在2016-2017年的黑搜宴會上不想醒來?
2017年、2018年、2019年是淘寶推薦演算法反復最快的3年,每年的演算法升級都不同,整體上到2019年9月為止統計演算法模型的影響因素還很大,從2019年下半年開始第三代推薦演算法後,全面的真正意義進入了以機械學習模型為中心的推薦演算法時代。
各路大神也無法驗證,加上百年疫情的影響,很多大神的隱蔽布也泄露了。
基本上以統計模型為主,訓練基本上沒有聲音,典型的是坑產游戲。
如果現在還能看到的話,基本上可以判斷他不是在訓練,而是在製作印刷用紙,一定會推薦使用資源,資源是多麼安全。
刷子的生產增加真的沒有效果嗎?不是我以前的文章說:不是不行,而是從坑產的角度思考,而是從改變競爭環境的角度思考,用補充書改變競爭環境,改變場地,有新的天地,任何手段都要為商業本質服務。
正文
概述統計演算法模型時代。
統計模型時代搜索引擎的排名是最原始的排名思考,如果你的類別不錯,關鍵詞比較正確,就能得到很大的流量,當時產品需求少,只要上下架的優化就能使產品上升。
到2016年為止沒有坑產游戲嗎?黑色搜索的效果不好嗎?其實,什麼時候坑產是最核心的機密,誰來教大家,什麼時候教的最多的是類別優化,關鍵詞優化,大部分優化都圍繞關鍵詞,電器商的老人想起了你什麼時候得到關鍵詞的人得到了世界。
有人告訴我做坑產,關鍵詞找到生意也來了。什麼時候知道坑產也沒有人給你刷子,大規模的補充書也出現在黑色搜索盛行的時期。
為什麼關鍵詞者得天下?
搜索關鍵詞是用戶目前意圖最直觀的表達,也是用戶表達意圖最直接的方式。
搜索的用戶購物意圖最強,成交意願也最強,現在搜索也是轉化率最高的流量來源。
統計時代關鍵詞背後直接依賴的是類別商品,只要製作類別和關鍵詞分詞即可,哪個時代最出現的黑馬通常是類別機會、關鍵詞機會、黑科學技術機會。
最基本的是商業本質,什麼時候產品需求少,沒有很多現在的類別,自己找類別,現在想想什麼概念。
記得什麼時候類別錯了,搜索也可以來。如果你的商品點擊反饋好的話,錯誤的類別沒有什麼影響,現在試試吧
搜索類是搜索的基礎。
什麼時候能稱霸,背後有商業邏輯,用戶行為數據好就行了。
但無論如何發展檢索都離不開關鍵詞。例如,上述關鍵詞是用戶表達意圖的最直接的方法,是當前消費者的檢索行為和購買行為發生了根本性的變化。
檢索依然根據消費者的行為數據和關鍵詞來判斷需求,這就是機械學習模型時代。
機器學習模式時代-推薦搜索演算法。
現在的商品體積和消費者購物行為的豐富性,統計演算法不能滿足檢索的本質要求。
所以現在搜索引擎開始發展深度學習模式更精細的建模-推薦搜索演算法,搜索排名更智能。
在此重點討論推薦檢索演算法,
2017、2018、2019是推薦檢索演算法真正意義發展的3年,3年3個系統版本每年更換一次,很多電器商人都不知道頭腦。
推薦檢索演算法和統計演算法模型的最大區別在於,Query的處理能力和演算法有召回機制
簡單表示推薦演算法的程序:
1:對檢索關鍵詞進行分詞、重寫的處理進行類別預判
2:根據用戶信息,即用戶以前的行為數據記錄和預測的性別、年齡、購買力、店鋪喜好、品牌喜好、實時行動作等信息存檔
3:根據檢索用戶信息,根據檢索用戶以前的行為數據檢索引擎和預測的性別、年齡、購買力、店鋪喜好、品牌喜好、實時行動作為等信息存檔3:根據檢索用戶信息的檢索用戶信息
也就是說,在第一關召回階段基本上與統計模型時代的最佳化途徑相同,核心是標題分詞和類別,現在最大的區別是根據用戶信息推薦最佳化,這是標簽和正確人群標簽圖像最佳化的基本意義。
為什麼現在一直在談論標簽,談論人標簽圖像?入池實際上是為了匹配真正的消費者用戶信息,通過直通車測試來判斷人群也是為了通過性別、年齡和購買力來優化匹配真正的消費者。
召回機制:
通過構建子單元索引方式加快商品檢索,不必經歷平台上億級的所有商品。該索引是搜索引擎中的倒置索引,利用倒置索引初始篩選商品的過程是召回階段。
在這個階段,不會進行復雜的計算,主要是根據現在的搜索條件進行商品候選集的快速圈定。
之後再進行粗排和精排,計算的復雜程度越來越高,計算的商品集合逐漸減少,最後完成整個排序過程。
主要召迴路徑分為
1:語言召回
2:向量召回
這些都是商業秘密不方便的說明,有興趣的是學習我們的在線會員課程標簽重疊游戲6是基於語言和向量召回的基礎邏輯實戰落地的課程。
下一階段進入粗行列,粗行列受這些因素的影響:
粗行列作為召回後的第一個門檻,希望用戶體驗以時間低的模型快速排序和篩選商品,第一關系將過濾到不適合本次檢索詞要求的商品
為了實現這個目的,首先要明確影響粗排名得分的因素
1:類別匹配得分和文本匹配得分,
2:商品信息質量(商品發布時間、商品等級、商品等級)
3:商品組合得分
點擊得分
交易得分賣方服務商業得分
在粗排列框架下,系統粗排列演算法根據商品類別的預測得分進行得分
點擊得分交易得分
交易得分賣方服務商業得分粗排列框架下,系統粗排列的大排列
最後是精排,檢索順序的主要目標是高相關性、高個性化的正確性。
每個用戶的喜好不同,系統會根據每個用戶的Query結合用戶信息進行召回。然後通過粗排後,商品數量從萬級下降到千級。
千級商品經排後直接向用戶展示,搜索過程中商品集合的思考和具體變化如下圖
前面的召回、粗排主要解決主題相關性,通過主題相關性的限制,首先縮小商品集合和我們的在線會員課程標簽
精排階段系是真正系統推薦演算法發揮真正威力時,應根據用戶行為反饋迅速進行機械學習建模,判斷用戶真實性、准確性和可持續控制性。
為什麼現在的游戲和黑色技術暫時出現,核心是系統演算法模型機械學習模型,系統分析用戶有問題,不正確,不穩定,維持性差,可以迅速調整。
也就是說,即使發現脆弱性,研究快速有效的方法,系統也會根據你精排階段的用戶行為迅速分析學習建模,發現模型有問題,你的玩法就結束了。
猜機器學習建模的速度有多快?
想玩黑色的東西早點死去吧。
現在使用的檢索順序模型主要是
CTR模型和CVR模型,具體模型過於復雜也不需要深入,但影響這兩種模型的最基本因素是用戶行為數據
真的不能假的,假的也不能假的演算法模型越來越智能化,演算法越來越強,只有回歸商業本質才能真正解決演算法模型背後真正想解決的問題,演算法基於商業邏輯。
2021年搜索向哪個方向發生變化:
2020年電器商人和螞蟻是不平凡的一年。2020年也是螞蟻從神壇上拉下來的元年,現在螞蟻有各種各樣的黑色。
基於中小賣家的走勢無疑是阿里必須正面面對的現實。
如何讓中小賣家迴流或留在平台上,搜索該怎麼做?
檢索一定是基於三方的考慮,買方、賣方和平台本身,現在市場上又開始提倡坑產搜索邏輯,坑產妖風又開始,根據推薦搜索演算法邏輯來談這個問題。
為什麼坑產思維是不死的小強,每次危機都會跳出來。
以統計模型為中心的坑產時代是淘寶從2003年到2015年一直使用的搜索演算法模型長達13年。
同時也是淘寶和中國網分紅的野蠻生長期,統計演算法模式讓太多電商賺錢。除了
之外,十年的奴役思維已經習慣了,在電器商圈,坑產游戲一定有人相信,其他人不一定被認可。所以,我們夾著尾巴發展的原因,時間真的可以證明一切,不用多說,做自己。
習慣性思維加上特殊時期的賺錢蝴蝶效應,使許多電器商人活在歷史的長夢中。正確地說,統計演算法模型的真正廢除是在2019年下半年。
同學說坑產永遠有效,我也這么想。
永遠有效的是起爆模型坑產權重驅動和統計演算法模型中的坑產排名不同。
起爆模型的坑產要素永遠有效,這永遠不會改變。
但是,如何有效地加上這個起爆模型的坑產權重,並不像模仿購物的意圖那麼簡單。
坑產游戲在2021年絕對不行。淘寶不會把現在的演算法系統換成15年前的。
基於三方利益:
購買者體驗
賣方利益
平台的發展
搜索肯定會向高精度和高控制性發展。以標簽為中心的用戶標簽圖像仍然是影響流量精度的基本因素。
必須從標簽的角度考慮和優化種子組的圖像。
通過種子組的圖像向相似人擴展到葉類人,業界喜好人最後向相關人擴展也是擴大流量的過程渠道。
基於推薦搜索演算法邏輯:
精密排列階段演算法更強,精度更高,轉化率更高,持續穩定性更強。
基於中小賣方流通的現狀,優化精排階段並非中小賣方能夠簡單接觸。
推薦演算法從搜索排名階段出現在哪個階段?
個人判斷
一是召回階段
二是粗排階段
上述提到召回階段的演算法簡單復蓋商品為萬級,排序規則也比較簡單,中小賣方在召回階段提高精度尤為重要。
在這個萬級商品庫中,如上下架的權重上升,中小賣方有機會上升到主頁,從子單元的索引召回中尋找機會。
或者根據中小賣方的新產品和中小賣方的店鋪水平進行特別優先搜索推薦,使中小賣方的新產品在低銷售狀態下顯示,可以實現錦囊演算法。
中小賣方有機會搜索主頁,不調用用戶信息直接打開主頁的展示權可能是中小賣方最大的支持。
根據召回階段的用戶行為數據,在粗排階段以比例融入用戶信息,即標簽的影響。
在初始召回階段,類別和分詞權重,看業者主圖場景反應背後的人們反饋,用系統引導,給中小賣方真正參考的流量方向和成交方向。
誰瘋狂地印刷用紙直接關閉黑屋,理解印刷用紙優化競爭場景,從優化人群的角度出發,適當放寬處罰。
通過召回階段,得到的用戶信息會影響粗體結果。在這個階段,用戶信息的權重比例不應該太大,流量卡也不應該太死。
在各檢索順序階段用戶信息,即用戶標簽對檢索的影響權重的問題。
這個方向我的個人觀點是可能的。
B. 機器學習有哪些演算法
1. 線性回歸
在統計學和機器學習領域,線性回歸可能是最廣為人知也最易理解的演算法之一。
2. Logistic 回歸
Logistic 回歸是機器學習從統計學領域借鑒過來的另一種技術。它是二分類問題的首選方法。
3. 線性判別分析
Logistic 回歸是一種傳統的分類演算法,它的使用場景僅限於二分類問題。如果你有兩個以上的類,那麼線性判別分析演算法(LDA)是首選的線性分類技術。
4.分類和回歸樹
決策樹是一類重要的機器學習預測建模演算法。
5. 樸素貝葉斯
樸素貝葉斯是一種簡單而強大的預測建模演算法。
6. K 最近鄰演算法
K 最近鄰(KNN)演算法是非常簡單而有效的。KNN 的模型表示就是整個訓練數據集。
7. 學習向量量化
KNN 演算法的一個缺點是,你需要處理整個訓練數據集。
8. 支持向量機
支持向量機(SVM)可能是目前最流行、被討論地最多的機器學習演算法之一。
9. 袋裝法和隨機森林
隨機森林是最流行也最強大的機器學習演算法之一,它是一種集成機器學習演算法。
想要學習了解更多機器學習的知識,推薦CDA數據分析師課程。CDA(Certified Data Analyst),即「CDA 數據分析師」,是在數字經濟大背景和人工智慧時代趨勢下,面向全行業的專業權威國際資格認證,旨在提升全民數字技能,助力企業數字化轉型,推動行業數字化發展。點擊預約免費試聽課。
C. 歷史上第一個機器學習演算法是什麼
Adaboost是一種迭代演算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然後把這些弱分類器集合起來,構成一個更強的最終分類器(強分類器)。其演算法本身是通過改變數據分布來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的准確率,來確定每個樣本的權值。將修改過權值的新數據集送給下層分類器進行訓練,最後將每次訓練得到的分類器最後融合起來,作為最後的決策分類器。使用adaboost分類器可以排除一些不必要的訓練數據特徵,並將關鍵放在關鍵的訓練數據上面。
D. 機器學習應該看哪些書籍
1、人工智慧編程範例
以前,我一直是討厭推薦「For mmies」系列的書籍,因為它們都太過簡單直白。但是,由於這本書的作者都是經驗豐富的數據科學家,我決定破一次例。
即使是零基礎,傻瓜機器學習這本書也能讓讀者快速體驗到機器學習的魅力。盡管書中的例子是用 python 語言寫的,但是其實你並不需要了解 python 的語法。
在本書中,你將了解到機器學習的歷史以及機器學習與人工智慧的不同。作者為我們詳盡地講解了每一個知識點。
在讀本書之前,你只需要一些數學和邏輯方面的基本知識,而並不需要編程的經驗。如果你在讀這本書前從沒接觸過演算法,可能你會有點痛苦,不過仍然可以做一些互補的研究。
E. 機器學習演算法和圖論演算法有什麼不同
機器學習演算法和圖論演算法有什麼不同
或者,演算法是怎麼分類的?首先想到的,處理的數據量上的不同。比如傳統的一個道路規劃問題,涉及到的對象在百數量級上是很正常的現象,而現在數據產生的速度太快了,數據太多了,對於一個網路優化問題可能涉及的對象是幾個億,比如facebook。但是這還是不能回答我最開始的問題,即便是百萬,十萬對象的網路,比如約會網站吧,在這個數量級差不多,它會涉及到推薦演算法,推薦的方法的話是用概率模型去做的,可以用機器學習的方法學習出一些結果;那麼對一個同量級的對象,會需要一個圖論演算法去做解決什麼問題嗎?個人覺得機器學習主要在於解決問題的思路不同,態度更開放,我曉得的一些圖論演算法就是針對一個對於全局有了很穩定認識的解決方法,而比如一個線上的機器學習演算法,它的預測結果直接影響新數據的產生。基本上這樣的方法是可靠的,對於任意一個全局的演算法,可以用開放的眼光看它,即用機器學習的方法適用它將它應用到新的有大量數據支持的適宜的問題中的。
這個時代的困難在於,我們不能用自己大腦在一瞬間可以理解的范圍之內全面的理解一個問題,我們把大家的大腦都連起來了,我們也需要更強大的工具理解前所未有的問題。比如,從遠古,理解若干個事件交織的復雜的問題是有困難的,我們利用文氏圖清晰地顯示多於4、5個事件之間的邏輯關聯。現在是幾十億人,不知多少事件的關聯,利用文氏圖都不夠了,但是我們總是可以找到合適的切入點提綱契領的理解總體的事物,我們的工具變成了高等數學,可靠的矩陣運算。所以,我自己傾向於將機器學習看成可靠地幫助我們理解新事物的方法,它使用的工具來自我們可靠的數學觀點。
所以,機器學習的想法最重要,可以從任何一種現有的可靠的觀點指導下,拓展我們理解世界的方式。我想把它解釋為一種群體智慧的形成機制,為什麼是群體智慧,我做為個人不需要識別一萬張臉與他們的名字對應,但是做為一個公司卻有需要在一秒鍾之內認出自己的客戶並且向他問好,提供服務。也就是說,我們生活的時代群體智慧起不可估量的作用,向四周一看你就明白你所用物品大部分不是來自認識和親近的人。其實也是觀念的成長,中國很長一段時間的小農經濟自給自足,如果你吃的竟然是別人種的糧食,穿是別人織布剪裁,這在當時會是讓你很不適應的。這個如今排斥Google的街景車來保衛自己的隱私這有啥差別呢?再到離我們更近一點的歷史,更多的是群體智慧具象化的產品的傳播,而如今呢更直接的就是群體智慧的傳播。
機器學習背後的Philosophy應該是這樣一種開放的面向未來的態度,我自己挺認同,也希望能把群體智慧開掘出來,產生前所未有商業價值。
F. 如何做好「推薦演算法」有哪些常見的錯誤需要避免
在這里share一下。
1、推薦演算法的構成
一套標準的推薦演算法,需要四個組成部分
第一:數據源,行為基礎數據的篩選;通常,推薦演算法來源於用戶行為的採集,簡單說就是行為數據越豐富,樣本覆蓋率越全面,結果越准確;如果采樣有偏差,那麼結果就會有偏差。
舉例1:游戲推薦演算法,我們之前限於采樣技術水平和處理能力,用的是登陸用戶玩過的游戲歷史,那麼推薦結果就會偏重於需要登陸的游戲。而隨著技術提升用全部用戶玩過的游戲歷史,就更全面了。
舉例2:在搜索引擎中,對關鍵詞做推薦,有兩種方案,一種是基於廣告主的競價記錄;另一種是基於網民的搜索行為;前一種專業性更強,噪音小;後一種覆蓋面廣,噪音大,各有利弊,根據業務訴求選擇。
推薦演算法,通常來源於用戶的行為記錄,比如關鍵詞推薦用用戶搜索歷史,電商推薦用用戶購物歷史,游戲推薦用玩家玩游戲的歷史,然後基於演算法給出相關度,再排序展示 ;但這不絕對,也有並非基於用戶行為記錄的推薦原理,比如基於用戶身份特徵或其他地區、網路環境等特徵,限於篇幅和常見的業務訴求,這里就不展開說明了。
行為基礎數據必要時要做一些去除噪音的工作,比如你通過日誌分析玩家游戲歷史,或用戶購物歷史,至少知道把各搜索引擎和工具的抓取痕跡過濾出去,否則結果是很難看的。
演算法很多種,網上可以搜到很多,就算搜不到,或者搜到了看不懂,自己編也不難的(我就編過,效果自以為還不錯,但是的確不如人家專業的演算法效果好,所以適合練手,不適合出去吹牛)
不同演算法差異還是蠻大的,需要理解一下業務訴求和目標特徵來選擇。這個我真心不是高手,我們同事講的演算法我都沒能理解,就不多說了。微博上的「張棟_機器學習"和"梁斌penny"都是演算法高手,大家可以多關心他們的微博。
第三:參數!
絕對不要認為用到了好的演算法就可以了!演算法往往會基於一些參數來調優,這些參數哪裡來?很不好意思的告訴你,大部分是拍腦袋出來的。但是你拍腦袋出來後,要知道去分析結果,去看哪裡對,哪裡錯,哪裡可以改,好的演算法可以自動調優,機器學習,不斷自動調整參數達到最優,但是通常可能需要你不斷手工去看,去看badcase,想想是什麼參數因素導致的,改一下是否變好?是否引入新的bad case?
第四:校驗!
校驗一種是人工做盲測,A演算法,B演算法的結果混淆,選案例集,看哪個效果好;或A參數、B參數混淆,同理測試。通過盲測選擇認為更合理的演算法、更適宜的參數.
以上是個人認為,做好推薦演算法的步驟
下面說一下常見問題
1、以為有了演算法就ok了,不對參數優化,不做後續的校驗和數據跟蹤,效果不好就說演算法有問題,這種基本屬於工作態度的問題了。
2、對樣本數據的篩選有問題,或缺乏必要的噪音篩查,導致結果噪音多。比如你有個推廣位天天擺著,導致用戶點擊多,然後導致後台行為數據里它和誰的關聯都高,然後不管用戶到哪裡都推薦這個玩意,這就是沒有足夠篩查。
3、熱度影響
我說一下最簡單的推薦演算法
同時選擇了A和B的人數作為A與B的關聯度。
這個實現最簡單,也最容易理解,但是很容易受熱度影響
我曾經注意過某個熱門圖書電商網站,推薦的關聯書籍一水的熱門書籍,就是這個問題。
這些是非常簡單但是又非常容易出現的,關聯誤區。
4、過於求全
現在也遇到一些朋友,一提到推薦演算法或者推薦系統,就說我這個要考慮,那個要考慮,不管是行為記錄,還是用戶特徵,以至於各種節日效應,等等等等,想通過一個推薦系統完全搞定,目標很大,所以動作就極慢,構思洋洋灑灑做了很多,實現起來無從下手,或者難以寸進;我覺得,還是量力而行,從最容易下手的地方開始,先做到比沒有強,然後根據不斷地數據校驗跟蹤,逐漸加入其他考慮因素,步步前進,而不要一上來就定一個宏偉的龐大的目標;此外要考慮實現成本和開發周期,對於大部分技術實力沒有網路,騰訊,淘寶那麼強的公司而言,先把簡單的東西搞好,已經足夠有效了,然後在運營數據的基礎上逐次推進,會越來越好;有些公司是被自己宏大的目標搞的焦頭爛額,最後說,哎,沒牛人搞不定啊。嗯,反正他們的目標,我顯著是搞不定的。就這些,希望有所幫助
G. 機器學習的發展史
機器學習是人工智慧研究較為年輕的分支,它的發展過程大體上可分為4個時期。
第一階段是在20世紀50年代中葉到60年代中葉,屬於熱烈時期。
第二階段是在20世紀60年代中葉至70年代中葉,被稱為機器學習的冷靜時期。
第三階段是從20世紀70年代中葉至80年代中葉,稱為復興時期。
機器學習的最新階段始於1986年。
機器學習進入新階段的重要表現在下列諸方面:
(1) 機器學習已成為新的邊緣學科並在高校形成一門課程。它綜合應用心理學、生物學和神經生理學以及數學、自動化和計算機科學形成機器學習理論基礎。
(2) 結合各種學習方法,取長補短的多種形式的集成學習系統研究正在興起。特別是連接學習符號學習的耦合可以更好地解決連續性信號處理中知識與技能的獲取與求精問題而受到重視。
(3) 機器學習與人工智慧各種基礎問題的統一性觀點正在形成。例如學習與問題求解結合進行、知識表達便於學習的觀點產生了通用智能系統SOAR的組塊學習。類比學習與問題求解結合的基於案例方法已成為經驗學習的重要方向。
(4) 各種學習方法的應用范圍不斷擴大,一部分已形成商品。歸納學習的知識獲取工具已在診斷分類型專家系統中廣泛使用。連接學習在聲圖文識別中占優勢。分析學習已用於設計綜合型專家系統。遺傳演算法與強化學習在工程式控制制中有較好的應用前景。與符號系統耦合的神經網路連接學習將在企業的智能管理與智能機器人運動規劃中發揮作用。
(5) 與機器學習有關的學術活動空前活躍。國際上除每年一次的機器學習研討會外,還有計算機學習理論會議以及遺傳演算法會議。
H. 機器學習的研究方向有哪些,剛上研一,大方向是機器學習,有懂的人可以推薦介紹一個具體的研究方向,參考
近年來,有很多新型的機器學習技術受到人們的廣泛關注,也在解決實際問題中,提供了有效的方案。這里,我們簡單介紹一下深度學習、強化學習、對抗學習、對偶學習、遷移學習、分布式學習、以及元學習,讓大家可以明確機器學習的方向都有哪些,這樣再選擇自己感興趣或擅長的研究方向,我覺得這是非常理智的做法。
▌深度學習
不同於傳統的機器學習方法,深度學習是一類端到端的學習方法。基於多層的非線性神經網路,深度學習可以從原始數據直接學習,自動抽取特徵並逐層抽象,最終實現回歸、分類或排序等目的。在深度學習的驅動下,人們在計算機視覺、語音處理、自然語言方面相繼取得了突破,達到或甚至超過了人類水平。深度學習的成功主要歸功於三大因素——大數據、大模型、大計算,因此這三個方向都是當前研究的熱點。
在過去的幾十年中,很多不同的深度神經網路結構被提出,比如,卷積神經網路,被廣泛應用於計算機視覺,如圖像分類、物體識別、圖像分割、視頻分析等等;循環神經網路,能夠對變長的序列數據進行處理,被廣泛應用於自然語言理解、語音處理等;編解碼模型(Encoder-Decoder)是深度學習中常見的一個框架,多用於圖像或序列生成,例如比較熱的機器翻譯、文本摘要、圖像描述(image captioning)問題。
▌強化學習
2016 年 3 月,DeepMInd 設計的基於深度卷積神經網路和強化學習的 AlphaGo 以 4:1 擊敗頂尖職業棋手李世乭,成為第一個不藉助讓子而擊敗圍棋職業九段棋手的電腦程序。此次比賽成為AI歷史上里程碑式的事件,也讓強化學習成為機器學習領域的一個熱點研究方向。
強化學習是機器學習的一個子領域,研究智能體如何在動態系統或者環境中以「試錯」的方式進行學習,通過與系統或環境進行交互獲得的獎賞指導行為,從而最大化累積獎賞或長期回報。由於其一般性,該問題在許多其他學科中也進行了研究,例如博弈論、控制理論、運籌學、資訊理論、多智能體系統、群體智能、統計學和遺傳演算法。
▌遷移學習
遷移學習的目的是把為其他任務(稱其為源任務)訓練好的模型遷移到新的學習任務(稱其為目標任務)中,幫助新任務解決訓練樣本不足等技術挑戰。之所以可以這樣做,是因為很多學習任務之間存在相關性(比如都是圖像識別任務),因此從一個任務中總結出來的知識(模型參數)可以對解決另外一個任務有所幫助。遷移學習目前是機器學習的研究熱點之一,還有很大的發展空間。
▌對抗學習
傳統的深度生成模型存在一個潛在問題:由於最大化概率似然,模型更傾向於生成偏極端的數據,影響生成的效果。對抗學習利用對抗性行為(比如產生對抗樣本或者對抗模型)來加強模型的穩定性,提高數據生成的效果。近些年來,利用對抗學習思想進行無監督學習的生成對抗網路(GAN)被成功應用到圖像、語音、文本等領域,成為了無監督學習的重要技術之一。
▌對偶學習
對偶學習是一種新的學習範式,其基本思想是利用機器學習任務之間的對偶屬性獲得更有效的反饋/正則化,引導、加強學習過程,從而降低深度學習對大規模人工標注數據的依賴。對偶學習的思想已經被應用到機器學習很多問題里,包括機器翻譯、圖像風格轉換、問題回答和生成、圖像分類和生成、文本分類和生成、圖像轉文本和文本轉圖像等等。
▌分布式學習
分布式技術是機器學習技術的加速器,能夠顯著提高機器學習的訓練效率、進一步增大其應用范圍。當「分布式」遇到「機器學習」,不應只局限在對串列演算法進行多機並行以及底層實現方面的技術,我們更應該基於對機器學習的完整理解,將分布式和機器學習更加緊密地結合在一起。
▌元學習
元學習(meta learning)是近年來機器學習領域的一個新的研究熱點。字面上來理解,元學習就是學會如何學習,重點是對學習本身的理解和適應,而不僅僅是完成某個特定的學習任務。也就是說,一個元學習器需要能夠評估自己的學習方法,並根據特定的學習任務對自己的學習方法進行調整。