1. 該不該堅持學習Machine Learning
Machine Learning的前景怎麼樣?
Machine Learning作為統計學的一個分支,最近好像特別吃香,請大神們解疑,Machine Learning具體是干什麼的,前景什麼樣?
正好剛回答過類似的問題,直接引用下吧
Machine Learning現在是一個很火的研究方向。機器學習是研究計算機怎麼模擬人類的學習行為,並且能組織已有的知識構架使之不斷完善的性能的學科。 是人工智慧的核心,是使計算機具有智能的根本途徑。與其說是統計學的分支,不如說是統計學,計算機科學,信息科學的交叉分科。其涉及的知識面很廣,涵蓋了工智能、哲學、資訊理論、生物學、認知科學、計算復雜性等眾多領域的專業知識。現在存在的一些計算器系統是沒有學習的能力的(或者是有的已有了特別局限的學習能力?),因而是不能滿足生產的需求的。隨意隨著科技的發展,machine Learning肯定會得到長足的發展的。只是,machine Learning也有許多發展方向,不是每個方向都發展的起來。
附上這篇文章的鏈接吧:
數據挖掘和深度學習(deep learning)哪個更有發展前景?
我再補充下Machine Learning的研究目標吧:
認知模型——即是3M認知模型,是人類對真實世界進行認知的過程模型。認知是個系統的過程,其中包含感知,記憶,判斷與學習。因而完成這個認知過程,是個一及其艱難和浩大的工程。
通用學習演算法——像是大家熟知deep Learning就是Machine Learning中的一種比較深的演算法。 其實很多ML演算法都是非邏輯性的,輸入的信息數據通過數學模型而得出一個新的工具,其實可以說是建立一個人工識別號的資料庫。
構造學習系統的方法(面向任務的)——其實就是研究如何通過環境向系統的學習環節提供某些信息。
先說這么多吧,有空的話做個圖解釋下ML的方法論,覺得還是解釋比較抽象,多多包涵吧。
Machine Learning是一門多領域的交叉學科,除了像最常見的統計學、逼近論、演算法復雜度分析理論等,也包括一些與生物領域的科學相關的問題,比如說最常見的人工神經網路中的各類神經元與鏈接方式都是仿照人腦進行操作的、以及遺傳演算法中模擬基因突變的過程等。
機器學習主要就是研究計算機如何模型或實現像人一樣的思維方式去學習知識,通過對新問題的反饋機制,修改或優化自己已經學習到的知識。其是人工智慧的核心,也就是說,人工智慧非常依賴機器學習的好壞與優良程度。
機器學習的方法以及其效果的好壞對於人類未來的發展至關重要,如果效果很高的話,至少可以替代人工做的一些重復的體力勞動,並可以根據特殊情況進行一定的反映。因此,就前景而言還是很好的,尤其是在現在這個大數據時代,越來越多的人類行為相關數據被記錄在案,為機器學習提供了基礎內容。此外,機器學習所產生的一些成果,已經應用於許多領域,包括數據挖掘、自然語言處理等等。
雖然機器學習已經取得了一定的突破,但是還是沒有達到人工智慧的程度,因此有許多問題是需要研究和發展的,因此,未來的發展也是充滿機遇與挑戰的。Machine Learning是個不錯的領域,如果想要進入的話,建議多學習一些基礎思想和編程。
機器學習已經越來越平民化了(democratizing),數學和演算法並非一定要很深厚功力,大多通用演算法都是現成的,比如微軟Azure Machine Learning平台已經有很多打包的示例,如用來分析customer churn的示例等。至於operationalization(不知道怎麼翻譯),現在也沒這么難了。
我覺得如果只是應用機器學習來處理現實問題,最難的還是怎麼把通用演算法和自己公司的現實問題聯系起來,比如怎麼定feature,用哪種model,另外怎麼評價最終效果等等。難的是深入理解企業的實際業務,而非技術和演算法。
個人認為趨勢是隨著machine learning平台的成熟以及通用場景的演算法普及,data scientist這個稱號會逐漸平民化甚至消失,最後你搭個回歸模型之類的就像使用Excel處理一些數據這樣簡單。一個PM或者銷售經理可以自己做這事而不需要養一個專門的職位。
機器學習的應用在工業界需求很高,有過工作經驗的人可以很輕松的找到工作,供給遠遠小於需求,而且需求越來越大。
但是招 New Grad (PhD 可以考慮) 相對較少。原因很多,簡單來說,就是 New Grad 往往工程經驗不夠,學術能力也不夠。工業界的現狀不復雜:大公司搞機器學習的組大、人多、要求高,PhD 是進入的門檻;小公司人少,每個人都要獨當一面,因此必須要有過搭建實際機器學習系統的經驗。因此如果兩邊都沒有優勢的話,自然找工作比較吃力。
因此,對於有志於做這個方向的同學來說,建議找工作時調整心態,第一份工作盡量找到工作職責與機器學習相關的組,而不必追求一步到位。人生的職業生涯很長,做好3到5年的職業生涯規劃,積累實際工作經驗,不斷學習與強化自己。人與人的差距並不會在第一份工作中體現,而是在前幾年逐漸顯現出來。
機器學習早期發展是遵循實用主義糙快猛的路線。基本步驟就是靠直覺構造一個優化目標,然後解這個優化問題。數學工具基本上線性代數和凸優化也就夠用了。再深一點涉及博弈論,隨機過程,微分方程,測度論,實分析,泛函分析,李群等。
這個學科發展很快,長期處於理論跟不上實踐。當前的發展勢頭,已經到了一個工科那點數學不太夠用了的階段。很需要一批數學大牛來披荊斬棘一下。很多這個領域的人認為過多的數學沒必要,其實是因為這些人數學菜。我就看到過用代數幾何的方法(resolution of singularity, blow-up)漂亮的解singular model的問題。可惜很少人follow。 總之很多問題是到了需要引入高級數學工具才能漂亮解決的地步了。比如各種不變性和等價性需要黎曼幾何,各種ill pose singular問題需要代數幾何。
結局就是:還是好好去學數學吧。。。。。。
提幾個可能的有關機器學習當中的深度學習發展方向,同時也就是尚待解決的問題:
1.讓深度學習自動調超參。
最近看到有人在一個AI群里推廣自己的一篇論文《Deep Q-Networks for Accelerating the Training of Deep Neural Networks》,大致是用強化學習的方法訓練一個控制器來自動控制學習率以及在一個batch中各個類的樣本佔比。雖然它那篇論文問題很大,訓練出來的控制器極其不通用,只能用在它原本的任務上,但是感覺很容易解決掉,這個另說。想像一下,如果能夠訓練出一個通用的控制器,對於各類任務都能夠自動調整超參(或者只在某個子領域比如圖像分類做到通用也好),那我們就再也不用自稱調參狗了,同時也可以解放出更多的時間用於設計模型、驗證架構,想必深度學習的發展步伐會得到極大加速。
2.自動學習網路架構。
其實說起來這個問題也可以歸入自動調超參,但是感覺應該還是有很大的不同。說起來無非就是兩個方面,一是加法二是減法。加法方面可以參考《Net2Net: Accelerating Learning via Knowledge Transfer》,這篇是讓CNN自動根據需要自動拓展架構,包括橫向的增加filter和縱向的增加layer。減法方面可以參考各類Network Compression(網路壓縮)的論文中的所謂Network Pruning(網路剪枝),比如《Deep Compression - Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding》,雖然這些論文出發點不在於自動學習網路架構而在於壓縮網路規模,而且它們往往是在訓練收斂之後才對網路進行裁剪而非邊訓練邊裁剪,但是感覺只需要再跨一步就可以了。我個人覺得,自動學習網路架構需要解決的最根本問題就是「應該在什麼時機進行架構變動」以及「應該怎麼變」,第二個問題感覺上述論文算是回答得可以了,但是第一個問題似乎還有很多可以探索的地方。對於第一個問題,似乎強化學習就很適合解決,因為顯然可以把它看成一個控制問題。
3.遷移學習。
眾所周知,深度學習的直接訓練依賴大量數據,而transfer和finetune能夠有效利用數據量大的外部任務訓練出來特徵來遷移到數據量小的目標任務上,使得目標任務對於數據量的要求大大減小。現在的問題在於,遷移學習的思想現在大家其實都在用,很多論文中都可以看到finetune的做法,但是對於兩個任務之間需要「多像」才能夠遷移這么一個問題還沒有一個很好的回答。即使我們不奢求能夠給出一個嚴格的數學理論,至少,如果有人能夠做一個非常系統的對比實驗,總結出一些規律,使得我們有信心說在如何如何這樣一個邊界內的任務都是基本上可以transfer的,那將會是一個很大的進步。這個問題也可以這么看,如今我們應該有信心說兩個圖像分類任務可以transfer,但是這個邊界太過狹窄,我個人期待的就是能夠有一套理論或者方法論使得這個邊界大大拓展,然後在這個邊界內我們可以像對兩個圖像分類任務一樣自信滿滿地用遷移學習。
4.無監督/半監督學習。
像LeCun等大佬其實一直在鼓吹這方面,但似乎還沒有搞出像當年CNN(AlexNet)、最近強化學習(阿法狗)這樣級別的大新聞來。我理解在這個問題上的努力方向應該是確定「何種representation最有用」。具體來說,就是找到一個指標,然後用深度網路優化這個指標,使得滿足這個指標的data representation能夠具有非常好的特性。再具體一些,下面舉三個實際例子:
autoencoder以重構損失作為指標來學習一個representation。
之前聽一個講座,演講人介紹他的論文《Why Deep Learning Works: A Manifold Disentanglement Perspective》IEEE Xplore Abstract,其中定義了三個指標來描述深度網路每一層中data representation的「蜷曲程度」,並發現,越高層的數據蜷曲度越低,換言之,越平展。那麼無監督學習是否能夠直接以這個蜷曲度作為損失函數來學習一個representation呢?
這篇論文《Context Encoders: Feature Learning by Inpainting》提出通過預測周邊上下文像素來無監督學習視覺特徵,感覺很像word2vec從一維變成二維。
除了上述的重構損失、蜷曲度、預測上下文精度,還有沒有別的指標學習出來的representation更好呢?個人認為這些問題就是推動無監督/半監督學習進展的關鍵所在。
5.基於外部存儲(external memory)的模型。
如果說RNN、LSTM這樣的模型屬於internal memory / long-term memory的話,那麼以神經圖靈機(Neural Turing Machine)、記憶網路(Memory Network)為代表的模型就應該稱為external memory / really long-term memory了。不過這兩個模型剛出來的時候還太過naive,只能做一些很無聊的task,比如序列復制和排序以及非常簡單的QA,但是現在已經開始看到它們被用到更加實際的問題上面,例如One-shot Learning:《One-shot Learning with Memory-Augmented Neural Networks》。往大了說,如果未來要實現強AI,這種外部存儲的機制肯定是必不可少的。現在的問題在於,神經圖靈機和記憶網路用的外部存儲雖然比LSTM那樣簡單的一個hidden state向量更進一步,但也其實就是很簡單的一片矩陣,沒有任何結構和層次可言,換言之,就是還不夠復雜。所以我猜想接下來可能external memory會和知識圖譜(Knowledge Graph)結合起來或至少是向知識圖譜類似的做法靠攏,因為知識圖譜更加結構化。
咳咳,路過,進來小小的裝一下。本人現在大三,所以說在這個話題上可能並沒有什麼話語權,不過因為最近再跟老師搞項目,正好是這方面的,戳進來分享一下感受吧。
第一是:機器學習前景很好。這是真的,最近看了很多論文,有關數據挖掘數據分析類別的,裡面用到的百分之八九十都是機器學習,這可能也是人工智慧發展的最大需求吧,人工智慧無非是模仿人類,而人類最開始也是對世界充滿了無知,通過學習才慢慢認知這個世界的,個人感覺這就是為什麼機器學習會被提出來吧,像真的實現人工智慧就要從根源開始模仿人類,也就是從學習這個技能上入手。
說完了這個想說的是為什麼前景好呢,上面說過的用途和提出願景好是一方面,另一方面是因為這方面人才還比較少,其實這也是一種發展前景吧。就像前幾年計算機剛剛火起來的時候那些最早接觸計算機的人突然就變得很出名,然後社會上一大部分人都湧入到這個領域中,這是一個道理。機器學習現在還處在起步階段,下一階段怎麼發展決定於人們對他的研究深度和重視程度。就目前人工智慧不斷得到重視來看,應該還是很有發展前景的,說不好會成為繼計算機時代後的又一個新的時代。
以上觀點僅僅是個人觀點,我覺得至少在短時間內這個研究方向只會更火不會被冷,就像大數據一樣,同樣也有人在不斷質疑大數據的發展,不過目前發展的還是很好的不是嗎?
---------------------------------
2016 機器學習之路:一年從無到有掌握機器學習
譯者:聞菲
今天是2016年9月12日AI WORLD 2016世界人工智慧大會倒計時 36天啟航期5折搶票倒計時 7 天
【導讀】程序員 Per Harald Borgen 在 Medium 刊文,介紹了他在一年的時間里,從入門到掌握機器學習的歷程。Borgen 表示,即使沒有博士學位和高深的數學造詣也能掌握機器學習。這一點相信對不少人都挺有吸引力和啟發。不過,博士學位或許真的並非必須,但要掌握機器學習,學再多的數學也不會嫌多。下面就來看 Borgen 不脫產,從菜鳥變熟手提升業績的故事。
第一步:Hacker News 和 Udactiy
Borgen 對機器學習的興趣始於 2014 年。跟很多人一樣,他最初是看到 Hacker News 的帖子,單純覺得教計算機學東西很酷。那時候他還只是個業余的編碼愛好者,連程序員都談不上。
於是,Borgen 開始了他的機器學習之路。首先,到 Uadcity 看監督學習的視頻,然後閱讀所有能找到的、跟機器學習有關的讀物。
Borgen 總結說,「這給了我一點概念上的理解,不過沒有實踐技巧。」
同時,他也十分坦承,Udacity 的 MOOC 他並沒有上完——只要是 MOOC,他幾乎都沒有堅持上完過。這一點,無論怎麼說,至少讓篇文章的置信度倍增。
第二步:掛掉 Coursera 機器學習課
2015 年初,Borgen 為了成為正式的開發人員,參加了 Founders and Coders(FAC)在倫敦的訓練營。在 FAC,他和同學一起,每周二晚上會看 Coursera 上機器學習課程的視頻。
不用說,大名鼎鼎的吳恩達的機器學習課。Borgen 表示課很贊,學了很多,然而他個人覺得這門課不適合新手。至少他自己,就需要反復看視頻才能掌握裡面講的概念——當然,這是 Borgen 的個人感受。不過,Borgen 在 FAC 學的同學也一個個掉隊,最終他自己也掛掉了。
Borgen 總結說,他當時應該學一門用機器學習庫編代碼的課,而不是從零開始建演算法,至少應該用他已經知道的編程語言寫演算法。
一句話,「對新手來說,一邊學語言一遍寫機器學習演算法代碼難度是很高的」。這句話有一定的參考價值。
Borgen 的建議是,可以選擇 Udacity 的《機器學習入門》(Intro to Machine Learning),更容易入門,上來就能實踐,在提升經驗值的過程中,學習的趣味性也會增多。
【經驗】從簡單的實踐學起,之後再學困難的、偏理論的東西。
第三步:一周學會機器學習
Borgen 在 FAC 做的最後一件事情,就是「一周學會機器學習」。他的目標是,一周以後能夠實用機器學習解決實際問題,而他也成功做到了這一點。
具體的經驗 Borgen 寫在了另一篇文章里。有興趣進一步了解,可以訪問:
簡單說,在一周的時間里,Borgen 做了以下幾件事情:
學會了 Scikit Learn
在真實世界資料庫跑了一次機器學習
從零(用 python )寫了一個線性回歸演算法
做了一點兒 NLP
【經驗】騰出一周時間來全身心地沉浸到機器學習裡面去,效果驚人。
第四步:掛掉神經網路
成功在一周的時間里拿下機器學習給了 Borgen 自信。因此,在他結束 FAC 回到挪威時,他計劃進行第二次挑戰——一周內學會神經網路。
然而,事實是殘酷的。離開 FAC 那種 沉浸式學習環境後,要一天寫 10 小時的代碼可不容易。
【教訓】找一個合適的環境做這種事情。
不過,Borgen 到底還是學上了神經網路。去年 7 月份的時候,他寫完了一個網路的代碼。雖然很粗糙,但完成比完美重要,對吧?
下半年,Borgen 換了一份新工作,這在某種程度上影響了他的機器學習學習進展。這一階段他主要做的是實現神經網路,他把大學時學的線性代數重新看了一遍。年底時,Borgen 寫了篇總結:
《學習如何編寫神經網路代碼》
也是在這篇文章里,Borgen 記錄了他從零開始寫代碼的過程。這篇文章在 Medium 上點贊的數量接近 600。
第四步:在 Kaggle 競賽中實踐
2015 年聖誕節,Borgen 參加了 Kaggle 競賽。當然,實踐的效果是顯著的,他得到了通過演算法和數據實際迭代實驗的經驗,也學會了在做機器學習項目時要相信自己的邏輯,「如果調參或特徵工程從邏輯上看有用,那麼一般都會有用」。
第五步:在工作中建立學習的習慣
2016 年初,Borgen 想將他在去年年底獲得的動力持續到工作中,便詢問經理是否能在上班時學新的東西——經理答應了。雖然 Borgen 在文中沒有多寫,實際上,從這個經歷中也能學到東西:
勇於提出需求,它們才有機會得到滿足——當然,你的需求需要合理。
於是,Borgen 就在上班時也能學機器學習啦(拿錢做想做的事情!)。在 2016 年積累了相關經驗以後,Borgen 的第一站是 Uadcity 的深度學習課程。然而,事實證明,對於現在的他來說,Udacity 的這門課已經太淺。不過,課後的 Ipython Notebook 作業卻太難。Debug 澆滅了他的大部分興趣。又一次地,一門 MOOC 被他放棄。
但隨後,Borgen 發現了斯坦福的 CS224D,這門課讓他獲益匪淺。Borgen 總結斯坦福 CS224D 的好處是:
盡管難,但做題從來沒有 debug;
課程提供答案,便於加深理解。
盡管 Borgen 仍然沒有把這門課上完,但他推薦有興趣的人去學。
另外,Borgen 在學這門課的過程中,為了完成題目,請了一位家教,時薪 40 美元,這位家教幫他發現了很多問題。因此,他得到了這么一條經驗。
【經驗】花 50 美元/時的金額聘請機器學習家教,絕對值得。(如果你有機器學習經驗,你可以獲得時薪 50 美元的打工機會。)
學以致用,提高銷售額
Borgen 在工作中實踐機器學習,他搭建了一個系統,節省了公司銷售部門同事的很多時間。相關代碼:
以上就是 Borgen 在實際工作中一年掌握機器學習的歷程。不管帶不帶感,至少十分真實。Borgen 在文章末尾寫道:「如果我做得到,你也做得到。」
尤其是工作中的程序員,你不想試試嗎?
2. 想學python看哪些書
在過去一年裡,Python的熱度一路飆升,國內越來越多的人選擇學習Python,如今已然成為大量開發者推薦的入門編程語言和第二編程語言,而且Python還是人工智慧的主要編程語言,因此,其重要性和流行度也就不言而喻了。
更多關於Python學習方面的知識,可以參考這篇文章:《Python學習的49個必備資源(附鏈接)》
想要學好Python語言,需要了解Python是什麼,都能夠做什麼,知道演算法,變數,解釋器,還有Python的基本數據類型等。所以,本文將推薦幾本學習Python編程必看的幾本書籍。
Amazon編程入門類榜首圖書,國內 Python 入門第一書。基於 Python3.5 同時也兼顧 Python2.7,是一本全面的Python編程,從入門到實踐教程,帶領讀者快速掌握編程基礎知識、編寫出能解決實際問題的代碼並開發復雜項目。上到有編程基礎的程序員,下到10歲少年,想入門Python並達到可以開發實際項目的水平,這本書都是個不錯的選擇。
書中內容分為基礎篇和實戰篇兩部分。基礎篇介紹基本的編程概念,實戰篇介紹如何利用新學到的知識開發功能豐富的項目:2D游戲《外星人入侵》,數據可視化實戰,Web應用程序。
讀者點評:
從編程小白的角度看,入門極佳。手把手教的感覺,卻絕不啰嗦。什麼叫入門書?一本書讀下來,行文上不卡殼,邏輯上不跳躍,讀者如爬樓梯,一步一步即可登樓。
「我讀過很多本為Python初學者所寫的入門書,到目前為止,這是我特別喜愛的一本。這本Python編程書內容全面,講解詳細,編排合理,真是太棒了!」
本書是經典教程的全新改版,作者根據Python 3.0版本的種種變化,全面改寫了書中內容,如果你沒有任何編程基礎,那麼,你最好先讀完第一本的《Python 編程:從入門到實踐》開始學習,之後選擇這本作為你的第二本 Python 書。如果你已經是一位編程語言老手,也依然能夠在這本書里學到不少知識。
相關推薦:《Python教程》
值得一提的是,書中最後幾章的10各項目更是這本書最大的亮點,不僅實用而且講解到位,作者Magnus Lie Hetland是挪威科技大學副教授,黑客,喜歡鑽研新銳編程語言,寫過很多Python方面的書和在線教程,深受讀者喜愛。
讀者書評:
做為python,又或者做為一門語言教程書籍,這本書講得非常不錯!特別是作者獨特的寫法以及幽默。有時作者會將不同的理解方式和實現方式放在一個例子中。更多的時候作者會有頗為有趣的幽默來讓讀者感到輕松愉快。
真的很好的一本書,該說的說得清楚,不該說的輕輕點到,讀者想要網上查找的時候也有跡可循,輕重把握很好。 說說後面十個例子,的確不錯,讓人能快速有很好的理解。
這本書是由奮戰在Python開發一線近20年的Luciano Ramalho執筆,致力於幫助Python開發人員挖掘這門語言及相關程序庫的優秀特性,寫出簡潔、流暢、易讀、易維護的代碼。書中從語言設計層面剖析編程細節,兼顧Python 3 和Python 2,同時有大量詳盡的代碼示例,並附有主題相關高質量的參考文獻和視頻鏈接。
讀者書評:
值得認真閱讀的Python進階書籍,章節後面附帶的雜談和延伸閱讀有時間可以補充閱讀。
對於想要擴充知識的中級和高級Python程序員來說,這本書是充滿了實用編程技巧的寶藏。
這本書尤其適合缺乏編程基礎的初學者,語法使用Python 3,書中不僅介紹了Python語言的基礎知識,而且還通過項目實踐教會讀者如何應用這些知識和技能。本書的首部分介紹了基本Python編程概念,第二部分介紹了一些不同的任務,通過編寫Python程序,可以讓計算機自動完成它們。同時,每章的末尾還提供了一些習題和深入的實踐項目,幫助讀者鞏固所學的知識。
讀者書評:
這本書作者盡量寫的簡單化,讓沒有編程經驗的人也可以快速上手!但是我覺得有其它編程語言經驗的同學,也可以直接看著本書快速了解Python可以做什麼,語法問題可以變做東西邊查!
很不錯的一本python入門書,介紹基本語法的比較少,但介紹了比較多實用的模塊。其目的正如副標題所述,是為了將平時的繁瑣工作自動化,就好像為自己寫一個私人秘書。
本書更多的是想培養讀者以計算機科學家一樣的思維方式來理解Python語言編程。貫穿全書的主體是如何思考、設計、開發的方法。從基本的編程概念開始,一步步引導讀者了解Python語言,再逐漸掌握函數、遞歸、數據結構和面向對象設計等高階概念。本書第2版及其輔助代碼均已升級,支持Python 3。
每個章節後面都有練習,可以幫助讀者加深對剛學的編程概念的理解。而且,本書的示例代碼均在GitHub倉庫中維護,讀者很容易下載和修改。
讀者書評:
寫得太好了,編程入門;編程思維。推薦。
與其說此書是python編程的入門,不如說是以python為工具對編程的入門。這個境界可完全不一樣,從而此書在講解python的時候也用python講了很多編程原理,非常適合那些想用python作為入門編程的人,更重要的是本書完全開源。
Python程序設計(第3版)Python之父作序推薦,是經典暢銷圖書《Python核心編程(第二版)》的全新升級版本,書中包含Python 2和 Python 3代碼,以便立即使用,總共分為3部分。
第1部分為講解了Python的一些通用應用,包括正則表達式、網路編程、Internet客戶端編程、多線程編程、GUI編程、資料庫編程等。第2部分講解了與Web開發相關的主題,包括Web客戶端和伺服器、CGI和WSGI相關的Web編程、Django Web框架等。第3部分則為一個補充/實驗章節,包括文本處理以及一些其他內容。
讀者書評:
終於,一本既可以作為Python教程又可以作為Python編程語言參考的圖書問世!
本書寫作相當精良。這是我遇到的清晰、友好的Python圖書,它在一個廣闊的背景中介紹了Python。它仔細、深入地剖析了一些重要的Python主題,而且讀者無需大量的相關經驗也能看懂。與所有其他Python入門類圖書不同的是,它不會用隱晦、難以理解的文字來折磨讀者,而是始終立足於幫助讀者牢固掌握Python的語法和結構。
本書介紹Python 語言的基礎知識及其在各個領域的具體應用,基於最新版本3.x。書中首先介紹了Python 語言的一些必備基本知識,然後介紹了在商業、科研以及藝術領域使用Python 開發各種應用的實例。文字簡潔明了,案例豐富實用,是一本難得的Python 入門手冊。
讀者書評:
之前看完了?Python 編程:從入門到實踐?,剛開始還在猶豫要不要買這本書,現在覺得非常值得,補充了一些?從入門到實踐?中沒有的內容。
不單介紹了python的基本語法,還介紹了python在各方面的應用以及可以使用的一些第三方模塊,給初學者勾勒出一個未來要學習的框架。作者語言也十分有趣。
《Head First Python(中文版)》主要講述了Python 3的基礎語法知識以及如何使用Python快速地進行Web、手機上的開發。幫助你迅速掌握Python的基礎知識,然後轉向持久存儲、異常處理、Web開發、SQLite、數據加工和lGoogle App Engine。從書籍的封面我們大概也可以猜得出這本書是通過採用豐富直觀的形式使你的大腦真正開動起來,而不是長篇累牘地說教,讓你昏昏欲睡。
【相關推薦】
1. 2020年5個經典python編程入門視頻教程推薦學習
2. Python編程自學:一小時python入門教程
3. 《Python2爬蟲入門教程指南》(系列教程)
4.《一個完整的Django入門指南》系列教程(中文版)
5. 《python一小時快速實戰入門》(微軟官方)