㈠ 如何用python做爬蟲
1)首先你要明白爬蟲怎樣工作。
想像你是一隻蜘蛛,現在你被放到了互聯「網」上。那麼,你需要把所有的網頁都看一遍。怎麼辦呢?沒問題呀,你就隨便從某個地方開始,比如說人民日報的首頁,這個叫initial pages,用$表示吧。
在人民日報的首頁,你看到那個頁面引向的各種鏈接。於是你很開心地從爬到了「國內新聞」那個頁面。太好了,這樣你就已經爬完了倆頁面(首頁和國內新聞)!暫且不用管爬下來的頁面怎麼處理的,你就想像你把這個頁面完完整整抄成了個html放到了你身上。
突然你發現, 在國內新聞這個頁面上,有一個鏈接鏈回「首頁」。作為一隻聰明的蜘蛛,你肯定知道你不用爬回去的吧,因為你已經看過了啊。所以,你需要用你的腦子,存下你已經看過的頁面地址。這樣,每次看到一個可能需要爬的新鏈接,你就先查查你腦子里是不是已經去過這個頁面地址。如果去過,那就別去了。
好的,理論上如果所有的頁面可以從initial page達到的話,那麼可以證明你一定可以爬完所有的網頁。
那麼在python里怎麼實現呢?
很簡單
import Queue
initial_page = "初始化頁"
url_queue = Queue.Queue()
seen = set()
seen.insert(initial_page)
url_queue.put(initial_page)
while(True): #一直進行直到海枯石爛
if url_queue.size()>0:
current_url = url_queue.get() #拿出隊例中第一個的url
store(current_url) #把這個url代表的網頁存儲好
for next_url in extract_urls(current_url): #提取把這個url里鏈向的url
if next_url not in seen:
seen.put(next_url)
url_queue.put(next_url)
else:
break
寫得已經很偽代碼了。
所有的爬蟲的backbone都在這里,下面分析一下為什麼爬蟲事實上是個非常復雜的東西——搜索引擎公司通常有一整個團隊來維護和開發。
2)效率
如果你直接加工一下上面的代碼直接運行的話,你需要一整年才能爬下整個豆瓣的內容。更別說Google這樣的搜索引擎需要爬下全網的內容了。
問題出在哪呢?需要爬的網頁實在太多太多了,而上面的代碼太慢太慢了。設想全網有N個網站,那麼分析一下判重的復雜度就是N*log(N),因為所有網頁要遍歷一次,而每次判重用set的話需要log(N)的復雜度。OK,OK,我知道python的set實現是hash——不過這樣還是太慢了,至少內存使用效率不高。
通常的判重做法是怎樣呢?Bloom Filter. 簡單講它仍然是一種hash的方法,但是它的特點是,它可以使用固定的內存(不隨url的數量而增長)以O(1)的效率判定url是否已經在set中。可惜天下沒有白吃的午餐,它的唯一問題在於,如果這個url不在set中,BF可以100%確定這個url沒有看過。但是如果這個url在set中,它會告訴你:這個url應該已經出現過,不過我有2%的不確定性。注意這里的不確定性在你分配的內存足夠大的時候,可以變得很小很少。一個簡單的教程:Bloom Filters by Example
注意到這個特點,url如果被看過,那麼可能以小概率重復看一看(沒關系,多看看不會累死)。但是如果沒被看過,一定會被看一下(這個很重要,不然我們就要漏掉一些網頁了!)。 [IMPORTANT: 此段有問題,請暫時略過]
好,現在已經接近處理判重最快的方法了。另外一個瓶頸——你只有一台機器。不管你的帶寬有多大,只要你的機器下載網頁的速度是瓶頸的話,那麼你只有加快這個速度。用一台機子不夠的話——用很多台吧!當然,我們假設每台機子都已經進了最大的效率——使用多線程(python的話,多進程吧)。
3)集群化抓取
爬取豆瓣的時候,我總共用了100多台機器晝夜不停地運行了一個月。想像如果只用一台機子你就得運行100個月了...
那麼,假設你現在有100台機器可以用,怎麼用python實現一個分布式的爬取演算法呢?
我們把這100台中的99台運算能力較小的機器叫作slave,另外一台較大的機器叫作master,那麼回顧上面代碼中的url_queue,如果我們能把這個queue放到這台master機器上,所有的slave都可以通過網路跟master聯通,每當一個slave完成下載一個網頁,就向master請求一個新的網頁來抓取。而每次slave新抓到一個網頁,就把這個網頁上所有的鏈接送到master的queue里去。同樣,bloom filter也放到master上,但是現在master只發送確定沒有被訪問過的url給slave。Bloom Filter放到master的內存里,而被訪問過的url放到運行在master上的Redis里,這樣保證所有操作都是O(1)。(至少平攤是O(1),Redis的訪問效率見:LINSERT – Redis)
考慮如何用python實現:
在各台slave上裝好scrapy,那麼各台機子就變成了一台有抓取能力的slave,在master上裝好Redis和rq用作分布式隊列。
代碼於是寫成
#slave.py
current_url = request_from_master()
to_send = []
for next_url in extract_urls(current_url):
to_send.append(next_url)
store(current_url);
send_to_master(to_send)
#master.py
distributed_queue = DistributedQueue()
bf = BloomFilter()
initial_pages = "www.renmingribao.com"
while(True):
if request == 'GET':
if distributed_queue.size()>0:
send(distributed_queue.get())
else:
break
elif request == 'POST':
bf.put(request.url)
好的,其實你能想到,有人已經給你寫好了你需要的:darkrho/scrapy-redis · GitHub
4)展望及後處理
雖然上面用很多「簡單」,但是真正要實現一個商業規模可用的爬蟲並不是一件容易的事。上面的代碼用來爬一個整體的網站幾乎沒有太大的問題。
但是如果附加上你需要這些後續處理,比如
有效地存儲(資料庫應該怎樣安排)
有效地判重(這里指網頁判重,咱可不想把人民日報和抄襲它的大民日報都爬一遍)
有效地信息抽取(比如怎麼樣抽取出網頁上所有的地址抽取出來,「朝陽區奮進路中華道」),搜索引擎通常不需要存儲所有的信息,比如圖片我存來幹嘛...
及時更新(預測這個網頁多久會更新一次)
如你所想,這里每一個點都可以供很多研究者十數年的研究。雖然如此,
「路漫漫其修遠兮,吾將上下而求索」。
所以,不要問怎麼入門,直接上路就好了:)
㈡ Python 3 網路爬蟲學習建議
用py3寫爬蟲的話,強力推薦這本書,應該是目前最系統最完善介紹python爬蟲的書。可以去圖靈社區買電子版。書的內容很新也很系統,從beautifulSoup,requests到ajax,圖像識別,單元測試。比起絕大多數blog零散的教程要好的多,看完書後就可以去做些實戰項目,這個時候可以去github上找類似的項目借鑒下。英文版pdf:個人覺得英文版更好)中文版pdf:這本書內容比較淺,我表示贊同。但是對於新手來說,看完這本書,對於爬蟲基礎的應用與概念絕對有了初步的了解。其實國內有一本講爬蟲的好書,《自己動手寫網路爬蟲》,這本書除了介紹爬蟲基本原理,包括優先順序,寬度優先搜索,分布式爬蟲,多線程,還有雲計算,數據挖掘內容。只不過用了java來實現,但是思路是相同的。有這幾個包基本上就夠用了。當初學習爬蟲的時候一點都不懂,甚至連爬蟲是什麼都不知道就在學了,但是懷著不懂裝懂的精神,到現在基本上也算對爬蟲了解一二。正如你所說,爬蟲是個大坑!因為這不僅僅是Python的事,想要學好爬蟲,需要學習:網路基礎知識(post/get/抓包)、(推薦)正則表達式(re模塊)、多線程/多進程、資料庫(儲存)。還有各種各樣的問題:Python蛋疼的編碼問題、遇到Ajax就要用selenium(效率低)、遇到驗證碼腫么辦(我放棄)、需要模擬登錄(我直接用cookies,在這里推薦requests,用法是:被網站禁ip等等所以,如果你是想學爬蟲,那麼就慢慢磨吧。但是你是想學習機器學習,網上那麼多的數據集,可以不必專門學。
㈢ 自己寫的python程序怎麼使用的django的models
在一個爬蟲腳本中將爬取的數據通過django自帶的model保存到資料庫
修改的文件(其餘pycharm新建Django項目生成,未修改):
# testapp/models.pyfrom django.db import models class Problem(models.Model): title = models.CharField(max_length=100, default="") author = models.CharField(max_length=100, default="")
def __str__(self): return self.title pass
# testapp/spider.pyimport osimport sysimport django pathname = os.path.dirname(os.path.abspath(__file__))sys.path.insert(0, pathname)sys.path.insert(0, os.path.abspath(os.path.join(pathname, '..')))os.environ.setdefault("DJANGO_SETTINGS_MODULE", "testproject.settings") django.setup() from testapp.models import Problem if __name__ == "__main__": p = Problem(title="hi", author="hi") p.save() pass
# testproject/setting.py......INSTALLED_APPS = [ 'django.contrib.admin', 'django.contrib.auth', 'django.contrib.contenttypes', 'django.contrib.sessions', 'django.contrib.messages', 'django.contrib.staticfiles', # 添加應用 'testapp',]......
# testapp/admin.py 在後台管理界面注冊 Problemfrom django.contrib import admin # Register your models here. from testapp.models import Problemadmin.site.register(Problem)
㈣ python網路數據採集 用python寫網路爬蟲 哪個好
寫python爬蟲2年多了,主要用的scrapy。關於python3,還沒有開始學;在這方面,我算是傳統的。一直在思考什麼時候轉python3。我主要關注的是我常用的python庫是否支持,一旦支持,就立刻轉python3.從最早的django、MySQLdb、PIL(Pillow)不支持,但現在這三者都支持了。所以在做web項目的時候是可以直接用python3了。所以現在的計劃是今年下半年轉python3。
說回爬蟲。scrapy確實使用者眾,可惜還不支持python3。所以現在的爬蟲項目還是用python2.7。現在用著非常順手。我的思路是,用django開發業務邏輯,根據業務邏輯建立的model,用scrapy抓取。是的,我的項目將django和scrapy代碼放在一個repo了。也可以分開。另外,scrapy的調度使用的是celery,所有爬蟲的調度時間和頻率都是用celery控制的。django、scrapy、celery是我做開發的三大法器。
如果你不想使用scrapy等框架,像上面的回答一樣,用一些請求庫和解析庫也能搭建出來。但我傾向於用django、celery、scrapy搭建通用的抓取系統。簡單說,用django建立模型,scrapy做一些常用爬蟲,規則定義模塊;celery制定調度策略,可以非常快地建立一套系統。
㈤ Python中Django如何使用
django1.9.5&python3.4.4
文件結構
在一個爬蟲腳本中將爬取的數據通過django自帶的model保存到資料庫
修改的文件(其餘pycharm新建Django項目生成,未修改):
# testapp/models.pyfrom django.db import modelsclass Problem(models.Model): title = models.CharField(max_length=100, default="") author = models.CharField(max_length=100, default="") def __str__(self): return self.title pass# testapp/spider.pyimport osimport sysimport djangopathname = os.path.dirname(os.path.abspath(__file__))sys.path.insert(0, pathname)sys.path.insert(0, os.path.abspath(os.path.join(pathname, '..')))os.environ.setdefault("DJANGO_SETTINGS_MODULE", "testproject.settings")django.setup()from testapp.models import Problemif __name__ == "__main__": p = Problem(title="hi", author="hi") p.save() pass# testproject/setting.py......INSTALLED_APPS = [ 'django.contrib.admin', 'django.contrib.auth', 'django.contrib.contenttypes', 'django.contrib.sessions', 'django.contrib.messages', 'django.contrib.staticfiles', # 添加應用 'testapp',]......# testapp/admin.py 在後台管理界面注冊 Problemfrom django.contrib import admin# Register your models here.from testapp.models import Problemadmin.site.register(Problem)
運行spider.py,添加一條實例記錄
運行Django項目, 創建管理員賬號, 後台管理界面查看結果
㈥ python爬蟲學習教程哪個好
第一階段
Python開發基礎和核心特性1.變數及運算符2.分支及循環3.循環及字元串4.列表及嵌套列表5.字典及項目練習6.函數的使用7.遞歸及文件處理8.文件9.面向對象10.設計模式及異常處理11.異常及模塊的使用12.坦克大戰13.核心編程14.高級特性15.內存管理
第二階段
資料庫和linux基礎1.並發編程2.網路通信3.MySQL4.Linux5.正則表達式
第三階段
web前端開發基礎1.html基本標簽2.css樣式3.css浮動和定位4.js基礎5.js對象和函數6.js定時器和DOM7.js事件響應8.使用jquery9.jquery動畫特效10.Ajax非同步網路請求
第四階段
Python Web框架階段1.Django-Git版本控制2.Django-博客項目3.Django-商城項目4.Django模型層5.Django入門6.Django模板層7.Django視圖層8.Tornado框架
第五階段
Python 爬蟲實戰開發1.Python爬蟲基礎2.Python爬蟲Scrapy框架
㈦ 如何入門 Python 爬蟲
鏈接:https://pan..com/s/1wMgTx-M-Ea9y1IYn-UTZaA
課程簡介
畢業不知如何就業?工作效率低經常挨罵?很多次想學編程都沒有學會?
Python 實戰:四周實現爬蟲系統,無需編程基礎,二十八天掌握一項謀生技能。
帶你學到如何從網上批量獲得幾十萬數據,如何處理海量大數據,數據可視化及網站製作。
課程目錄
開始之前,魔力手冊 for 實戰學員預習
第一周:學會爬取網頁信息
第二周:學會爬取大規模數據
第三周:數據統計與分析
第四周:搭建 Django 數據可視化網站
......
㈧ 沒有django基礎可以學慕課網的python分布式爬蟲課程嗎
沒有django基礎也可以學,因為慕課 網 的python分布式爬蟲課程中對django的應用比較簡單,不過也就是提供搜索介面和展示搜索數據罷了,老師主要是講scrapy和elasticsearch這部分內容,不過你學習這個課程也不能赤膊上陣,還是得需要具備一定的原生爬蟲基礎的,而且還得了解前端頁面,面向對象概念,計算機網路協議和資料庫知識,同時知道html的dom結構和少量的css。
㈨ python爬蟲必知必會的幾個工具包
爬蟲是學習python有趣途徑,同樣有強大的框架
python自帶的urllib其實使用起來有點麻煩,推薦你使用requests庫,這是一個非常強大,使用方便的庫,而且有全面的中文文檔,網上爬數據爬圖片都不在話下。
還有更高級的庫-scrapy庫。
Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架。 其可以應用在數據挖掘,信息處理或存儲歷史數據等一系列的程序中。Scrapy 使用了 Twisted非同步網路庫來處理網路通訊。爬取網站數據,當然少不了正則模塊re,還有beautiful soup模塊
re模塊具有強大的處理字元串的能力,但是使用起來並不簡單,因為當你覺得可以使用正則表達式的時候,這本身就是一個問題,因為寫出一個正則表達式就是一個大問題。不過不用怕,在處理網站結構的數據時,有更強大的庫-beautiful soup
Beautiful Soup 是一個可以從HTML或XML文件中提取數據的Python庫,擁有完善的中文文檔,提供了種類繁多的屬性和方法供你選擇,讓你解析網站數據更加的得心應手!
web後端框架django,flask
python在web開發方面也是多面手,既有大而全的框架django,又有小而精的框架flask。
雖說在web開發方面有許多框架,但是最常用的還是這兩種,如果你想做中方面的工作,學好這兩個框架就夠用了,而且,目前的python後端開發的招聘需求多半是要求會這兩個框架。