親,手機用戶部分網址不可見=轉到電腦即可,如可見復制網址到瀏覽器即可下載
資源已光速上傳網路雲,請盡快查收吧。
若滿意請【採納】呦!有疑問請及時追問。
親請放心下載,附件下載的財富值只針對其他童鞋,
提問者無需再支付財富值了喲,么么噠!
『貳』 C+偵探的結局講得到底是什麼啊!
C+偵探的結局:因為慧心的屍體,找到了C+父母的屍體。所以C+最後在黑板上寫到:兇手已找到,因為她(慧心)找到了他們(C+父母)。
亞探從大頭明妻子得知大頭明與人合資股票而欠下巨債。不久其中一名合資人芳竟也燒炭自殺,其家裡留下一大筆現金。更令亞探驚訝的是另一名合資人原來就是肥龍,但他記不起自己曾托亞探找慧心,更發狂奔上天台一躍而下只留下一句離奇說話。
C+偵探的劇情簡介:
住在曼谷唐人街,父母早年失蹤的阿探(郭富城 飾),自幼渴望和好友風澤(廖啟智 飾)一起投身警界,卻因高度近視未能如願,不甘心之下,他當起了私家偵探,卻只能接一些雞鳴狗盜的小案子,賺錢不多、口碑奇差,還時常入不敷出,要靠風澤接濟。
一天,阿探的朋友肥龍(成奎安 飾)委託他調查一個女人,聲稱自己正在被她追殺。好奇之下,阿探根據照片查出這個女子叫莫慧心,卻在尋找相關知情人士時接連出現怪異事件:跟莫慧心有關的人相繼死亡,而阿探總是第一個發現者,簡直成了死神的化身。
『叄』 《名偵探柯南》連載20多年,動畫的時間線為什麼才過去1年不到
《名偵探柯南》作為一部96年創作的漫畫,如今已過去23個春秋,但其中的時間線似乎才過去半年或者一年左右,完全不符合嚴謹的推理邏輯,尤其是穿插著主線劇情和TV組原創劇情的動畫,常常讓新人入坑之後感覺到異常迷茫。柯南的時間線究竟是不是混亂了呢?
真的希望柯南快點完結吧,不然時間線真的越來越離譜了。
『肆』 《啊哈!演算法》epub下載在線閱讀,求百度網盤雲資源
《啊哈!演算法》(啊哈磊)電子書網盤下載免費在線閱讀
鏈接:https://pan..com/s/1xarObhZx2nYXRl2R5Tc0Ig
書名:啊哈!演算法
作者:啊哈磊
豆瓣評分:7.7
出版社:人民郵電出版社
出版年份:2014-6-1
頁數:246
內容簡介:
這不過是一本有趣的演算法書而已。和別的演算法書比較,如果硬要說它有什麼特點的話,那就是你能看懂它。
這是一本充滿智慧和趣味的演算法入門書。沒有枯燥的描述,沒有難懂的公式,一切以實際應用為出發點,
通過幽默的語言配以可愛的插圖來講解演算法。你更像是在閱讀一個個輕松的小故事或是在玩一把趣味解謎
游戲,在輕松愉悅中便掌握演算法精髓,感受演算法之美。
本書中涉及到的數據結構有棧、隊列、鏈表、樹、並查集、堆和圖等;涉及到的演算法有排序、枚舉、
深度和廣度優先搜索、圖的遍歷,當然還有圖論中不可以缺少的四種最短路徑演算法、兩種最小生成樹演算法、
割點與割邊演算法、二分圖的最大匹配演算法等。
網名啊哈磊。
曾在中科院玩過單片機。武漢大學歷史上第一位以本科生身份加入MSRA(微軟亞洲研究院)的小夥伴,在機器學習組從事搜索引擎方面的研究。
發表國際會議論文一篇(IEEE)。
全國青少年信息學奧林匹克金牌教練。
超萌超簡潔的C語言編譯器——「啊哈C編譯器」作者。
2013年我的著作,有趣的編程科普書《啊哈C!》出版。
網址:www.ahalei.com
微博:weibo.com/ahalei
非常喜歡小朋友,每天都過得都非常開心。
至於為什麼叫「啊哈磊」,因為我覺得這是一個很喜慶的名字。
作者簡介:
網名啊哈磊。
曾在中科院玩過單片機。武漢大學歷史上第一位以本科生身份加入MSRA(微軟亞洲研究院)的小夥伴,在機器學習組從事搜索引擎方面的研究。
發表國際會議論文一篇(IEEE)。
全國青少年信息學奧林匹克金牌教練。
超萌超簡潔的C語言編譯器——「啊哈C編譯器」作者。
2013年我的著作,有趣的編程科普書《啊哈C!》出版。
『伍』 《演算法神探一部谷歌首席工程師寫的CS小說》epub下載在線閱讀,求百度網盤雲資源
《演算法神探》([美] 傑瑞米·庫比卡)電子書網盤下載免費在線閱讀
資源鏈接:
鏈接:https://pan..com/s/1oaZqzlV0NKYYMFrl57iv9w
書名:演算法神探
作者:[美] 傑瑞米·庫比卡
譯者:啊哈磊
豆瓣評分:6.5
出版社:電子工業出版社
出版年份:2017-2
頁數:252
內容簡介:
《演算法神探:一部谷歌首席工程師寫的CS小說》圍繞程序設計典型演算法,精心編織了一個扣人心弦又趣味橫生的偵探緝兇故事。小說主人公運用高超的搜索技巧和精深的演算法知識,最終識破陰謀、緝拿元兇。其間,用二分搜索搜查走私船、用搜索樹跟蹤間諜、用深度優先搜索逃離監獄、用優先隊列開鎖及用最佳優先搜索追尋線索等跌宕起伏又富含演算法精要的情節,讓讀者在愉悅的沉浸式體驗中快速提升境界,加深對程序世界的理解。《演算法神探:一部谷歌首席工程師寫的CS小說》適合開發人員、編程愛好者和相關專業學生閱讀,也是少兒計算機科學啟蒙的絕佳讀物。
作者簡介:
Jeremy Kubica 在 Google 任職首席工程師,著力於機器學習和演算法方向。他擁有康奈爾大學的計算機科學本科學位和卡耐基梅隆大學的機器人專業博士學位。在研究生期間,他設計了一個演算法,可以探測對地球有威脅的小行星(當然,還尚未能阻止那些小行星)。Kubica 同時也是著名博客Computational Fairy Tales的作者。
關於技術審校者
Heidi Newton 擁有紐西蘭坎特伯雷大學計算機科學專業的學士學位,以及紐西蘭惠靈頓維多利亞大學計算機科學專業的碩士學位。她目前就職於坎特伯雷大學計算機專業的代碼復仇者研究小組,並在業余時間進行相關輔導和咨詢工作。她目前致力於改善關於計算機科學和編程的教學資源。
譯者介紹
啊哈磊:原名紀磊,畢業於武漢大學。曾在微軟亞洲研究院研發「爬蟲」,全國青少年信息學奧林匹克金牌教練。著有《啊哈C語言!邏輯的挑戰》和《啊哈!演算法》系列編程科普叢書,並被引進至港澳台。
李嘉浩:曾獲全國青少年信息學奧林匹克競賽金牌,國家集訓隊最小選手。現就讀於美國麻省理工學院計算機科學及音樂雙專業。喜歡行走在科學與藝術的交接點。
『陸』 喜歡數學但沒有天賦能不能做研究
看你對「研究」兩字的要求了,一般來說,研究任何東西都需要甚少那麼一點以上的喜歡+勤奮+天賦,喜歡一樣東西才能長久;而勤奮則是必不可少的,否則不要想什麼「成果」;而只想獲得普通的或優秀的成果,沒有天賦(或者天賦不明顯)的例子也很多,但是與真正的天才比仍存在顯著的距離,就像普通的科學家與愛因斯坦比較一樣。所以得看你想把數學研究成什麼樣,或出什麼成果。是想成為高斯一樣的數學家,還是普通的研究員或院士。如果是前者非天賦者不可為,如果是後者完全可以試試,祝君好運!
『柒』 名偵探柯南動畫總共多少集
共973集(海外版1030集)。
主要講述高中生偵探工藤新一和青梅竹馬的同學毛利蘭一同去游樂園玩的時候,目擊了黑衣男子的可疑交易現場。
只顧偷看交易的工藤新一,卻忽略了從背後接近的另一名同夥。他被那名男子灌下了毒葯,當他醒來時,身體居然縮小了!
如果讓那些傢伙知道工藤新一還活著的話,不僅性命難保,還會危及身邊的人。在阿笠博士的建議下他決定隱瞞身份。
在被小蘭問及名字時,化名江戶川柯南,為了搜集那些傢伙的情報,寄住在父親以偵探為業的小蘭家中。
謎團重重的黑衣組織他所了解的,就只有他們是以酒的名稱作為代號的。為了揭露那些傢伙的真面目,小小偵探江戶川柯南的活躍開始了!
(7)啊演算法偵探擴展閱讀
主要角色簡介:
1、江戶川柯南
外表看似小孩,其真實身份是高中生偵探——工藤新一。
和青梅竹馬的同學毛利蘭一起去游樂園玩,目擊到黑衣男子的可疑交易現場,被灌下開發中的葯物,變成了小學生的身體。那天以後,為了隱藏真實身份,化名江戶川柯南,在青梅竹馬的毛利蘭家寄住的同時,日復一日解決了許多案件。一切都是為了恢復自己的身體。
2、工藤新一
崇拜夏洛克·福爾摩斯的高中生偵探。5月4日出生,17歲。帝丹高中2年級B班。還是高中1年級學生的時候,在去往洛杉磯的飛機上解決了殺人案,在那裡和目暮警官等人相識。此後,作為高中生偵探活躍起來。特長是足球,頭腦清醒出眾。
3、毛利蘭
新一的青梅竹馬,帝丹高中2年級B班,空手道部女主將,都大會中有頭號實力的文武雙全的女生。一直喜歡著新一,在他突然消失後等待著他的歸來。有時柯南的名推理會與新一的身影重疊,她開始像母親一般溫柔地照顧著柯南和少年偵探團。此外,和鈴木園子是青梅竹馬的摯友,從以前開始便無話不談。
『捌』 通常編程人員所說的演算法指什麼,如何理解啊
演算法就是在編程的時候一個問題有上百種解決方法,自己通過邏輯推理選出最簡潔的方法。
演算法是個很大的概念,也是最重要的概念,演算法的好與壞在編程時往往能夠產生特別大的差別。
同一個問題,有些程序一秒鍾就算出來了,有些程序一分鍾也算不出來。等到最後整合到一個大程序中就是幾十分鍾的差別了,所以每年都有acm大賽,專門對比不同學生的演算法。有些考試甚至都不考你寫標准計算機語言的能力,直接就考你用什麼演算法。
『玖』 推薦演算法簡介
寫在最前面:本文內容主要來自於書籍《推薦系統實踐》和《推薦系統與深度學習》。
推薦系統是目前互聯網世界最常見的智能產品形式。從電子商務、音樂視頻網站,到作為互聯網經濟支柱的在線廣告和新穎的在線應用推薦,到處都有推薦系統的身影。推薦演算法是推薦系統的核心,其本質是通過一定的方式將用戶和物品聯系起來,而不同的推薦系統利用了不同的方式。
推薦系統的主要功能是以個性化的方式幫助用戶從極大的搜索空間中快速找到感興趣的對象。因此,目前所用的推薦系統多為個性化推薦系統。個性化推薦的成功應用需要兩個條件:
在推薦系統的眾多演算法中,基於協同的推薦和基於內容的推薦在實踐中得到了最廣泛的應用。本文也將從這兩種演算法開始,結合時間、地點上下文環境以及社交環境,對常見的推薦演算法做一個簡單的介紹。
基於內容的演算法的本質是對物品內容進行分析,從中提取特徵,然後基於用戶對何種特徵感興趣來推薦含有用戶感興趣特徵的物品。因此,基於內容的推薦演算法有兩個最基本的要求:
下面我們以一個簡單的電影推薦來介紹基於內容的推薦演算法。
現在有兩個用戶A、B和他們看過的電影以及打分情況如下:
其中問好(?)表示用戶未看過。用戶A對《銀河護衛隊 》《變形金剛》《星際迷航》三部科幻電影都有評分,平均分為 4 .7 分 ( (5+4+5 ) / 3=4.7 );對《三生三世》《美人魚》《北京遇上西雅圖》三部愛情電影評分平均分為 2.3 分 ( ( 3十2+2 ) /3=2.3 )。現在需要給A推薦電影,很明顯A更傾向於科幻電影,因此推薦系統會給A推薦獨立日。而對於用戶B,通過簡單的計算我們可以知道更喜歡愛情電影,因此給其推薦《三生三世》。當然,在實際推薦系統中,預測打分比這更加復雜些,但是其原理是一樣的。
現在,我們可以將基於內容的推薦歸納為以下四個步驟:
通過上面四步就能快速構建一個簡單的推薦系統。基於內容的推薦系統通常簡單有效,可解釋性好,沒有物品冷啟動問題。但他也有兩個明顯的缺點:
最後,順便提一下特徵提取方法:對於某些特徵較為明確的物品,一般可以直接對其打標簽,如電影類別。而對於文本類別的特徵,則主要是其主題情感等,則些可以通過tf-idf或LDA等方法得到。
基於協同的演算法在很多地方也叫基於鄰域的演算法,主要可分為兩種:基於用戶的協同演算法和基於物品的協同演算法。
啤酒和尿布的故事在數據挖掘領域十分有名,該故事講述了美國沃爾瑪超市統計發現啤酒和尿布一起被購買的次數非常多,因此將啤酒和尿布擺在了一起,最後啤酒和尿布的銷量雙雙增加了。這便是一個典型的物品協同過濾的例子。
基於物品的協同過濾指基於物品的行為相似度(如啤酒尿布被同時購買)來進行物品推薦。該演算法認為,物品A和物品B具有很大相似度是因為喜歡物品A的用戶大都也喜歡物品B。
基於物品的協同過濾演算法主要分為兩步:
基於物品的協同過濾演算法中計算物品相似度的方法有以下幾種:
(1)基於共同喜歡物品的用戶列表計算。
此外,John S. Breese再其論文中還提及了IUF(Inverse User Frequence,逆用戶活躍度)的參數,其認為活躍用戶對物品相似度的貢獻應該小於不活躍的用戶,應該增加IUF參數來修正物品相似度的公式:
上面的公式只是對活躍用戶做了一種軟性的懲罰, 但對於很多過於活躍的用戶, 比如某位買了當當網80%圖書的用戶, 為了避免相似度矩陣過於稠密, 我們在實際計算中一般直接忽略他的興趣列表, 而不將其納入到相似度計算的數據集中。
(2)基於餘弦相似度計算。
(3)熱門物品的懲罰。
從上面(1)的相似度計算公式中,我們可以發現當物品 i 被更多人購買時,分子中的 N(i) ∩ N(j) 和分母中的 N(i) 都會增長。對於熱門物品,分子 N(i) ∩ N(j) 的增長速度往往高於 N(i),這就會使得物品 i 和很多其他的物品相似度都偏高,這就是 ItemCF 中的物品熱門問題。推薦結果過於熱門,會使得個性化感知下降。以歌曲相似度為例,大部分用戶都會收藏《小蘋果》這些熱門歌曲,從而導致《小蘋果》出現在很多的相似歌曲中。為了解決這個問題,我們對於物品 i 進行懲罰,例如下式, 當α∈(0, 0.5) 時,N(i) 越小,懲罰得越厲害,從而使熱門物品相關性分數下降( 博主註:這部分未充分理解 ):
此外,Kary pis在研究中發現如果將ItemCF的相似度矩陣按最大值歸一化, 可以提高推薦的准確率。 其研究表明, 如果已經得到了物品相似度矩陣w, 那麼可以用如下公式得到歸一化之後的相似度矩陣w':
歸一化的好處不僅僅在於增加推薦的准確度,它還可以提高推薦的覆蓋率和多樣性。一般來說,物品總是屬於很多不同的類,每一類中的物品聯系比較緊密。假設物品分為兩類——A和B, A類物品之間的相似度為0.5, B類物品之間的相似度為0.6, 而A類物品和B類物品之間的相似度是0.2。 在這種情況下, 如果一個用戶喜歡了5個A類物品和5個B類物品, 用ItemCF給他進行推薦, 推薦的就都是B類物品, 因為B類物品之間的相似度大。 但如果歸一化之後, A類物品之間的相似度變成了1, B類物品之間的相似度也是1, 那麼這種情況下, 用戶如果喜歡5個A類物品和5個B類物品, 那麼他的推薦列表中A類物品和B類物品的數目也應該是大致相等的。 從這個例子可以看出, 相似度的歸一化可以提高推薦的多樣性。
那麼,對於兩個不同的類,什麼樣的類其類內物品之間的相似度高,什麼樣的類其類內物品相似度低呢?一般來說,熱門的類其類內物品相似度一般比較大。如果不進行歸一化,就會推薦比較熱門的類裡面的物品,而這些物品也是比較熱門的。因此,推薦的覆蓋率就比較低。相反,如果進行相似度的歸一化,則可以提高推薦系統的覆蓋率。
最後,利用物品相似度矩陣和用戶打過分的物品記錄就可以對一個用戶進行推薦評分:
基於用戶的協同演算法與基於物品的協同演算法原理類似,只不過基於物品的協同是用戶U購買了A物品,會計算經常有哪些物品與A一起購買(也即相似度),然後推薦給用戶U這些與A相似的物品。而基於用戶的協同則是先計算用戶的相似性(通過計算這些用戶購買過的相同的物品),然後將這些相似用戶購買過的物品推薦給用戶U。
基於用戶的協同過濾演算法主要包括兩個步驟:
步驟(1)的關鍵是計算用戶的興趣相似度,主要是利用用戶的行為相似度計算用戶相似度。給定用戶 u 和 v,N(u) 表示用戶u曾經有過正反饋(譬如購買)的物品集合,N(v) 表示用戶 v 曾經有過正反饋的物品集合。那麼我們可以通過如下的 Jaccard 公式簡單的計算 u 和 v 的相似度:
或通過餘弦相似度:
得到用戶之間的相似度之後,UserCF演算法會給用戶推薦和他興趣最相似的K個用戶喜歡的物品。如下的公式度量了UserCF演算法中用戶 u 對物品 i 的感興趣程度:
首先回顧一下UserCF演算法和ItemCF演算法的推薦原理:UserCF給用戶推薦那些和他有共同興趣愛好的用戶喜歡的物品, 而ItemCF給用戶推薦那些和他之前喜歡的物品具有類似行為的物品。
(1)從推薦場景考慮
首先從場景來看,如果用戶數量遠遠超過物品數量,如購物網站淘寶,那麼可以考慮ItemCF,因為維護一個非常大的用戶關系網是不容易的。其次,物品數據一般較為穩定,因此物品相似度矩陣不必頻繁更新,維護代價較小。
UserCF的推薦結果著重於反應和用戶興趣相似的小群體的熱點,而ItemCF的推薦結果著重於維系用戶的歷史興趣。換句話說,UserCF的推薦更社會化,反應了用戶所在小型興趣群體中物品的熱門程度,而ItemCF的推薦更加個性化,反應了用戶自己的個性傳承。因此UserCF更適合新聞、微博或微內容的推薦,而且新聞內容更新頻率非常高,想要維護這樣一個非常大而且更新頻繁的表無疑是非常難的。
在新聞類網站中,用戶的興趣愛好往往比較粗粒度,很少會有用戶說只看某個話題的新聞,而且往往某個話題也不是每天都會有新聞。 個性化新聞推薦更強調新聞熱點,熱門程度和時效性是個性化新聞推薦的重點,個性化是補充,所以 UserCF 給用戶推薦和他有相同興趣愛好的人關注的新聞,這樣在保證了熱點和時效性的同時,兼顧了個性化。
(2)從系統多樣性(也稱覆蓋率,指一個推薦系統能否給用戶提供多種選擇)方面來看,ItemCF的多樣性要遠遠好於UserCF,因為UserCF更傾向於推薦熱門物品。而ItemCF具有較好的新穎性,能夠發現長尾物品。所以大多數情況下,ItemCF在精度上較小於UserCF,但其在覆蓋率和新穎性上面卻比UserCF要好很多。
在介紹本節基於矩陣分解的隱語義模型之前,讓我們先來回顧一下傳統的矩陣分解方法SVD在推薦系統的應用吧。
基於SVD矩陣分解在推薦中的應用可分為如下幾步:
SVD在計算前會先把評分矩陣 A 缺失值補全,補全之後稀疏矩陣 A 表示成稠密矩陣,然後將分解成 A' = U∑V T 。但是這種方法有兩個缺點:(1)補成稠密矩陣後需要耗費巨大的儲存空間,對這樣巨大的稠密矩陣進行儲存是不現實的;(2)SVD的計算復雜度很高,對這樣大的稠密矩陣中進行計算式不現實的。因此,隱語義模型就被發明了出來。
更詳細的SVD在推薦系統的應用可參考 奇異值分解SVD簡介及其在推薦系統中的簡單應用 。
隱語義模型(Latent Factor Model)最早在文本挖掘領域被提出,用於找到文本的隱含語義。相關的演算法有LSI,pLSA,LDA和Topic Model。本節將對隱語義模型在Top-N推薦中的應用進行詳細介紹,並通過實際的數據評測該模型。
隱語義模型的核心思想是通過隱含特徵聯系用戶興趣和物品。讓我們通過一個例子來理解一下這個模型。
現有兩個用戶,用戶A的興趣涉及偵探小說、科普圖書以及一些計算機技術書,而用戶B的興趣比較集中在數學和機器學習方面。那麼如何給A和B推薦圖書呢?
我們可以對書和物品的興趣進行分類。對於某個用戶,首先得到他的興趣分類,然後從分類中挑選他可能喜歡的物品。簡言之,這個基於興趣分類的方法大概需要解決3個問題:
對於第一個問題的簡單解決方案是找相關專業人員給物品分類。以圖書為例,每本書出版時,編輯都會給出一個分類。但是,即使有很系統的分類體系,編輯給出的分類仍然具有以下缺點:(1)編輯的意見不能代表各種用戶的意見;(2)編輯很難控制分類的細粒度;(3)編輯很難給一個物品多個分類;(4)編輯很難給一個物品多個分類;(5)編輯很難給出多個維度的分類;(6)編輯很難決定一個物品在某一個類別中的權重。
為了解決上述問題,研究員提出可以從數據出發,自動找到那些分類,然後進行個性化推薦。隱語義模型由於採用基於用戶行為統計的自動聚類,較好地解決了上面提出的5個問題。
LFM將矩陣分解成2個而不是3個:
推薦系統中用戶和物品的交互數據分為顯性反饋和隱性反饋數據。隱式模型中多了一個置信參數,具體涉及到ALS(交替最小二乘法,Alternating Least Squares)中對於隱式反饋模型的處理方式——有的文章稱為「加權的正則化矩陣分解」:
一個小細節:在隱性反饋數據集中,只有正樣本(正反饋)沒有負反饋(負樣本),因此如何給用戶生成負樣本來進行訓練是一個重要的問題。Rong Pan在其文章中對此進行了探討,對比了如下幾種方法:
用戶行為很容易用二分圖表示,因此很多圖演算法都可以應用到推薦系統中。基於圖的模型(graph-based model)是推薦系統中的重要內容。很多研究人員把基於領域的模型也稱為基於圖的模型,因為可以把基於領域的模型看作基於圖的模型的簡單形式。
在研究基於圖的模型之前,需要將用戶行為數據表示成圖的形式。本節的數據是由一系列用戶物品二元組 (u, i) 組成的,其中 u 表示用戶對物品 i 產生過行為。
令 G(V, E) 表示用戶物品二分圖,其中 V=V U UV I 由用戶頂點 V U 和物品節點 V I 組成。對於數據集中每一個二元組 (u, i) ,圖中都有一套對應的邊 e(v u , v i ),其中 v u ∈V U 是用戶對應的頂點,v i ∈V I 是物品i對應的頂點。如下圖是一個簡單的物品二分圖,其中圓形節點代表用戶,方形節點代表物品,用戶物品的直接連線代表用戶對物品產生過行為。比如下圖中的用戶A對物品a、b、d產生過行為。
度量圖中兩個頂點之間相關性的方法很多,但一般來說圖中頂點的相關性主要取決於下面3個因素:
而相關性高的一對頂點一般具有如下特徵:
舉個例子,如下圖,用戶A和物品c、e沒有邊直連,但A可通過一條長度為3的路徑到達c,而Ae之間有兩條長度為3的路徑。那麼A和e的相關性要高於頂點A和c,因而物品e在用戶A的推薦列表中應該排在物品c之前,因為Ae之間有兩條路徑。其中,(A,b,C,e)路徑經過的頂點的出度為(3,2,2,2),而 (A,d,D,e) 路徑經過了一個出度比較大的頂點D,所以 (A,d,D,e) 對頂點A與e之間相關性的貢獻要小於(A,b,C,e)。
基於上面3個主要因素,研究人員設計了很多計算圖中頂點相關性的方法,本節將介紹一種基於隨機遊走的PersonalRank演算法。
假設要給用戶u進行個性化推薦,可以從用戶u對應的節點 v u 開始在用戶物品二分圖上進行隨機遊走。遊走到任一節點時,首先按照概率α決定是繼續遊走還是停止這次遊走並從 v u 節點重新開始遊走。若決定繼續遊走,則從當前節點指向的節點中按照均勻分布隨機選擇一個節點作為遊走下次經過的節點。這樣,經過很多次隨機遊走後,每個物品被訪問到的概率會收斂到一個數。最終的推薦列表中物品的權重就是物品節點的訪問概率。
上述演算法可以表示成下面的公式:
雖然通過隨機遊走可以很好地在理論上解釋PersonalRank演算法,但是該演算法在時間復雜度上有明顯的缺點。因為在為每個用戶進行推薦時,都需要在整個用戶物品二分圖上進行迭代,知道所有頂點的PR值都收斂。這一過程的時間復雜度非常高,不僅無法在線進行實時推薦,離線計算也是非常耗時的。
有兩種方法可以解決上面PersonalRank時間復雜度高的問題:
(1)減少迭代次數,在收斂之前停止迭代。但是這樣會影響最終的精度。
(2)從矩陣論出發,重新涉及演算法。另M為用戶物品二分圖的轉移概率矩陣,即:
網路社交是當今社會非常重要甚至可以說是必不可少的社交方式,用戶在互聯網上的時間有相當大的一部分都用在了社交網路上。
當前國外最著名的社交網站是Facebook和Twitter,國內的代表則是微信/QQ和微博。這些社交網站可以分為兩類:
需要指出的是,任何一個社交網站都不是單純的社交圖譜或興趣圖譜。如QQ上有些興趣愛好群可以認識不同的陌生人,而微博中的好友也可以是現實中認識的。
社交網路定義了用戶之間的聯系,因此可以用圖定義社交網路。我們用圖 G(V,E,w) 定義一個社交網路,其中V是頂點集合,每個頂點代表一個用戶,E是邊集合,如果用戶va和vb有社交網路關系,那麼就有一條邊 e(v a , v b ) 連接這兩個用戶,而 w(v a , v b )定義了邊的權重。一般來說,有三種不同的社交網路數據:
和一般購物網站中的用戶活躍度分布和物品流行度分布類似,社交網路中用戶的入度(in degree,表示有多少人關注)和出度(out degree,表示關注多少人)的分布也是滿足長尾分布的。即大部分人關注的人都很少,被關注很多的人也很少。
給定一個社交網路和一份用戶行為數據集。其中社交網路定義了用戶之間的好友關系,而用戶行為數據集定義了不同用戶的歷史行為和興趣數據。那麼最簡單的演算法就是給用戶推薦好友喜歡的物品集合。即用戶u對物品i的興趣 p ui 可以通過如下公式計算。
用戶u和用戶v的熟悉程度描述了用戶u和用戶在現實社會中的熟悉程度。一般來說,用戶更加相信自己熟悉的好友的推薦,因此我們需要考慮用戶之間的熟悉度。下面介紹3中衡量用戶熟悉程度的方法。
(1)對於用戶u和用戶v,可以使用共同好友比例來計算他們的相似度:
上式中 out(u) 可以理解為用戶u關注的用戶合集,因此 out(u) ∩ out(v) 定義了用戶u、v共同關注的用戶集合。
(2)使用被關注的用戶數量來計算用戶之間的相似度,只要將公式中的 out(u) 修改為 in(u):
in(u) 是指關注用戶u的集合。在無向社交網路中,in(u)和out(u)是相同的,而在微博這種有向社交網路中,這兩個集合的含義就不痛了。一般來說,本方法適合用來計算微博大V之間的相似度,因為大v往往被關注的人數比較多;而方法(1)適用於計算普通用戶之間的相似度,因為普通用戶往往關注行為比較豐富。
(3)除此之外,還可以定義第三種有向的相似度:這個相似度的含義是用戶u關注的用戶中,有多大比例也關注了用戶v:
這個相似度有一個缺點,就是在該相似度下所有人都和大v有很大的相似度,這是因為公式中的分母並沒有考慮 in(v) 的大小,所以可以把 in(v) 加入到上面公式的分母,來降低大v與其他用戶的相似度:
上面介紹了3種計算用戶之間相似度(或稱熟悉度)的計算方法。除了熟悉程度,還需要考慮用戶之間的興趣相似度。我們和父母很熟悉,但很多時候我們和父母的興趣確不相似,因此也不會喜歡他們喜歡的物品。因此,在度量用戶相似度時,還需要考慮興趣相似度,而興趣相似度可以通過和UserCF類似的方法度量,即如果兩個用戶喜歡的物品集合重合度很高,兩個用戶的興趣相似度很高。
最後,我們可以通過加權的形式將兩種權重合並起來,便得到了各個好有用戶的權重了。
有了權重,我們便可以針對用戶u挑選k個最相似的用戶,把他們購買過的物品中,u未購買過的物品推薦給用戶u即可。打分公式如下:
其中 w' 是合並後的權重,score是用戶v對物品的打分。
node2vec的整體思路分為兩個步驟:第一個步驟是隨機遊走(random walk),即通過一定規則隨機抽取一些點的序列;第二個步驟是將點的序列輸入至word2vec模型從而得到每個點的embedding向量。
隨機遊走在前面基於圖的模型中已經介紹過,其主要分為兩步:(1)選擇起始節點;(2)選擇下一節點。起始節點選擇有兩種方法:按一定規則抽取一定量的節點或者以圖中所有節點作為起始節點。一般來說會選擇後一種方法以保證所有節點都會被選取到。
在選擇下一節點方法上,最簡單的是按邊的權重來選擇,但在實際應用中需要通過廣度優先還是深度優先的方法來控制遊走范圍。一般來說,深度優先發現能力更強,廣度優先更能使社區內(較相似)的節點出現在一個路徑里。
斯坦福大學Jure Leskovec教授給出了一種可以控制廣度優先或者深度優先的方法。
以上圖為例,假設第一步是從t隨機遊走到v,這時候我們要確定下一步的鄰接節點。本例中,作者定義了p和q兩個參數變數來調節遊走,首先計算其鄰居節點與上一節點t的距離d,根據下面的公式得到α:
一般從每個節點開始遊走5~10次,步長則根據點的數量N遊走根號N步。如此便可通過random walk生成點的序列樣本。
得到序列之後,便可以通過word2vec的方式訓練得到各個用戶的特徵向量,通過餘弦相似度便可以計算各個用戶的相似度了。有了相似度,便可以使用基於用戶的推薦演算法了。
推薦系統需要根據用戶的歷史行為和興趣預測用戶未來的行為和興趣,因此大量的用戶行為數據就成為推薦系統的重要組成部分和先決條件。如何在沒有大量用戶數據的情況下設計個性化推薦系統並且讓用戶對推薦結果滿意從而願意使用推薦系統,就是冷啟動問題。
冷啟動問題主要分為三類:
針對用戶冷啟動,下面給出一些簡要的方案:
(1)有效利用賬戶信息。利用用戶注冊時提供的年齡、性別等數據做粗粒度的個性化;
(2)利用用戶的社交網路賬號登錄(需要用戶授權),導入用戶在社交網站上的好友信息,然後給用戶推薦其好友喜歡的物品;
(3)要求用戶在登錄時對一些物品進行反饋,手機用戶對這些物品的興趣信息,然後給用推薦那些和這些物品相似的物品;
(4)提供非個性化推薦。非個性化推薦的最簡單例子就是熱門排行榜,我們可以給用戶推薦熱門排行榜,然後等到用戶數據收集到一定的時候,在切換為個性化推薦。
對於物品冷啟動,可以利用新加入物品的內容信息,將它們推薦給喜歡過和他們相似的物品的用戶。
對於系統冷啟動,可以引入專家知識,通過一定高效的方式快速建立起物品的相關度表。
在上面介紹了一些推薦系統的基礎演算法知識,這些演算法大都是比較經典且現在還在使用的。但是需要注意的是,在實踐中,任何一種推薦演算法都不是單獨使用的,而是將多種推薦演算法結合起來,也就是混合推薦系統,但是在這里並不準備介紹,感興趣的可以查閱《推薦系統》或《推薦系統與深度學習》等書籍。此外,在推薦中非常重要的點擊率模型以及基於矩陣的一些排序演算法在這里並沒有提及,感興趣的也可自行學習。
雖然現在用的很多演算法都是基於深度學習的,但是這些經典演算法能夠讓我們對推薦系統的發展有一個比較好的理解,同時,更重要的一點——「推陳出新」,只有掌握了這些經典的演算法,才能提出或理解現在的一些更好地演算法。
『拾』 一文讀懂MCMC演算法(馬爾科夫鏈蒙特卡洛)
理解本文需要一些貝葉斯基礎,小白可移步 https://www.jianshu.com/p/c942f8783b97
為了理解MCMC,我們依然是從一個具體的事例出發:假設當我們來到了一個小人國,我們感興趣的是小人國的國民的 身高分布情況 ,即有多少人高1米,有多少人高0.5米,又有多少人像我們正常人一樣高。一種解決這個問題的暴力方法是找遍這個小人國的所有人,然後都測量身高,但顯然,這是一個愚公移山式的方法,在很多情況下都是不可能的。
所以,由於精力有限,我們只找到了10個小人國的人民,這十個人的高度分別是:
1.14,1.02,1.08,0.96,0.79,0.94,1.00,0.93,1.13,1.02
聰明的我們的直覺是,這大概符合一個 正態分布 ,然後我們碰到了一個開掛了的長老,他說:「沒錯,就是正態分布,而且標准差sd=0.1,現在讓我看看你們這些愚蠢的人類能不能知道這個正態分布的平均值μ是多少!」。
一對分別名為馬爾科夫和蒙特卡洛的名偵探組合就此登場,他們說:「首先,我們先隨便猜一個平均值μ,比如μ(1) = 0.8好了。」
*我這里用μ(n)表示第n個提出的μ值,所以μ(1)是提出的第一個μ值,μ(2)是第二個提出的μ值。
接著他們要做的事,是要確定另一個值μ(2),通常我們要謹慎一點去選擇一個和之前提出來的值μ(1)差別不大的值,比如μ(2) = 0.7。
接著的問題就是,我們需要判斷:究竟是μ(1) 更符合實際情況,還是μ(2) 更符合實際情況呢?但要如何作出這個判斷呢,這里就要用到前面的貝葉斯公式了。
判斷哪個值更好,實際上是在問,基於目前觀察到的數據,得到這個參數μ的可能性哪個更大? 即:
已知D = {1.14,1.02,1.08,0.96,0.79,0.94,1.00,0.93,1.13,1.02}
p(μ(2)|D) 大於還是小於還是等於 p(μ(1)|D) ?
這不就是在問誰的後驗概率更大嘛?
為了解決這件事,一種思路是我們要把p(μ(2)|D) 和 p(μ(1)|D) 都用前面的貝葉斯公式解出來。但你很快就會發現在這種情況下證據概率p(D)會很難算。
但如果我們轉念一想,我們要做的是比較p(μ(2)|D) 和p(μ(1)|D) ,那麼 我們其實只要求p(μ(2)|D) / p(μ(1)|D) 就可以了,如果這個比值大於1,則說明μ2的後驗概率更大,更符合實際情況 。
而實際上,
p(μ(2)|D) / p(μ(1)|D)
= (p(μ(2))p(D|μ(2)) / p(D)) / (p(μ(1))p(D|μ(1)) / p(D))
= p(μ(2))p(D|μ(2)) / p(μ(1))p(D|μ(1))
可以看到,由於分子和分母上的P(D)被相互抵消了,剩下來需要知道的值就只剩下μ(1)和μ(2)的 先驗概率 ,以及分別在μ=μ(1)和μ=μ(2)時得到數據D的 似然概率 了。
現在,我們面臨的問題要比之前簡化了一些。但實際上我們還需要處理似然概率的計算和先驗概率的問題。
先說說似然概率p(D|μ(2)) 和p(D|μ(1)),此時的似然概率是完全可以算出來的。因為我們已經假設了數據D符合的是正態分布模型了,且已知sd=0.1(前面大師說的),所以當我們假設μ=μ(1)時,就確定了一個平均值為μ(1)和標准差為0.1的正態分布,也就確定了這個正態分布的概率密度函數f(x),接著基於我們的數據D計算x = 1.14,1.02,1.08...等值的概率密度,再將這些值相乘,便得到了似然概率*。
** 可以這樣理解這一似然概率的計算:如果我們此時假定的正態分布與數據實際對應的正態分布越接近,就自然 可能 有越多的數據落在高概率密度函數的區域(即分布的平均值附近),如此,作為概率密度函數的連乘的似然概率自然也會更高。相比之下,如果你現在確定的正態分布的平均值為1500,標准差為1,那麼它在x = 1.14的概率密度(概率密度的具體數值不等於概率,但是兩者的數學意味是接近的)就會高度趨近於0,將這樣一個數作為因子去計算似然概率,似然概率也顯然將會比較低。
說完了似然概率,就輪到先驗概率p(μ(2))和p(μ(1))的問題了。先驗概率要怎麼去算呢?答案是不用算!我們自己來定。但是先驗概率毫無疑問對MCMC演算法是有影響的,就像我們之前從之前貝爺的故事裡看到的那樣,後驗概率是受到先驗概率影響的。之所以一枚90%擊中率的硬幣幾乎不能預測一個人是否得病,是因為得這種病本身的先驗概率就超級低。 一個你需要記住的簡單事實是,我們設定的先驗概率越是背離真實的情況,就需要越多的數據去將先驗概率修正,讓後驗概率符合實際的情況。 從這個意義上說, 貝葉斯推理不是無中生有,而是要先對數據背後的結果有一個信念(belief)的基礎上,根據所見的數據,不斷地修正原本的信念,使之逐漸接近數據背後對應的真實情況 。 (貝葉斯公式本身就帶有學習、更新的意味,所以學界現在還有種說法是我們的大腦是貝葉斯式的)
當我們看到數據的時候,通過觀察數據,我們最開始會猜想μ=1的概率比較高,因此我們可以假定μ的先驗概率是服從平均值為1,sd為0.5的概率分布,有了這樣的先驗概率分布,我們就可以計算得到當μ=μ1,μ2時分別對應的概率密度了。
搞定了先驗概率和似然概率,就可以計算前面的公式p(μ(2))p(D|μ(2)) / p(μ(1))p(D|μ(1))了。當這個比值大於等於1時,我們就接受μ(2),而如果這個比值小於1,我們就以這個比值為概率接受μ(2)。比如比值為0.5時,我們只有50%的概率接受μ(2)。當不接受的時候,我們得重新尋找一個μ(2),再進行同樣的後驗概率比較。
反復進行這樣的步驟之後, 我們可以想像,我們自然會更大程度地訪問那些後驗概率更高的μ值。我們訪問不同的μ值的頻率分布,就是關於μ值的後驗概率分布(的近似)。 至於這背後具體的數學推導,我們就不談了。但注意,參數的近似後驗分布並不是我們想要擬合的模型「即最開始的問題:小人國的國民的 身高分布情況 」。還記得我們最開始假設小人國的身高分布情況符合正態分布,且我們已經得知這個正態分布的標准差sd=1,而MCMC最終會告訴我們根據現有的數據,我們推斷小人國身高分布的平均值μ,符合某個概率分布(比如平均值為1,sd為5),如果我們覺得合適,我們可以將μ的後驗分布的平均值作為μ的最可能值。即,「小人國的國民的 身高分布情況 最有可能符合μ=1,sd=1的概率分布」。
最後總結一下MCMC演算法:
(1)確定參數值的先驗分布。
(2)先確定第一個訪問(或者說采樣)的參數的數值,作為當前參數數值
(3)根據當前訪問的參數的數值,以一定的方式(比如 Metropolis sampler )提出下一個待考慮訪問的參數的數值。
(4)以比值的形式,比較當前參數數值和待考慮訪問的參數數值的後驗概率,計算後驗概率涉及到先驗概率和後驗概率的概率密度。根據這個比值的大小,接受或拒絕該待考慮采樣的參數數值。接受後則將該參數數值視為當前參數數值。
(5)重復(3)和(4),直到符合某種終止條件(比如說訪問了10000個參數數值)
最終,將被采樣的參數數值的頻率分布作為對該參數的後驗概率分布的近似。
看完以後,你是不是想說這么復雜的事,是人乾的嗎!?
廢話,這種事當然是計算機來干啊,你還想手算不成?