中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
使用Python的Scrapy框架編寫(xiě)web爬蟲(chóng)的簡(jiǎn)單示例

 在這個(gè)教材中,我們假定你已經(jīng)安裝了Scrapy。假如你沒(méi)有安裝,你可以參考這個(gè)安裝指南。

我們將會(huì)用開(kāi)放目錄項(xiàng)目(dmoz)作為我們例子去抓取。

這個(gè)教材將會(huì)帶你走過(guò)下面這幾個(gè)方面:

  •     創(chuàng)造一個(gè)新的Scrapy項(xiàng)目
  •     定義您將提取的Item
  •     編寫(xiě)一個(gè)蜘蛛去抓取網(wǎng)站并提取Items。
  •     編寫(xiě)一個(gè)Item Pipeline用來(lái)存儲(chǔ)提出出來(lái)的Items

Scrapy由Python寫(xiě)成。假如你剛剛接觸Python這門(mén)語(yǔ)言,你可能想要了解這門(mén)語(yǔ)言起,怎么最好的利用這門(mén)語(yǔ)言。假如你已經(jīng)熟悉其它類似的語(yǔ)言,想要快速地學(xué)習(xí)Python,我們推薦這種深入方式學(xué)習(xí)Python。假如你是新手,想從開(kāi)始使用Python學(xué)習(xí),可以嘗試去看看非程序員Python資源列表。

創(chuàng)造一個(gè)項(xiàng)目

在你要抓取之前,首先要建立一個(gè)新的Scrapy項(xiàng)目。然后進(jìn)去你的存放代碼目錄,執(zhí)行如下命令。

scrapy startproject tutorial

它將會(huì)創(chuàng)建如下的向?qū)夸?

tutorial/
    scrapy.cfg
    tutorial/
        __init__.py
        items.py
        pipelines.py
        settings.py
        spiders/
            __init__.py
            ...

這是一些基本信息:

  •     scrapy.cfg: 項(xiàng)目的配置文件。
  •     tutorial/: 項(xiàng)目的python模塊, 在這里稍后你將會(huì)導(dǎo)入你的代碼。
  •     tutorial/items.py: 項(xiàng)目items文件。
  •     tutorial/pipelines.py: 項(xiàng)目管道文件。
  •     tutorial/settings.py: 項(xiàng)目配置文件。
  •     tutorial/spiders/: 你將要放入你的spider到這個(gè)目錄中。


定義我們的Item

Items是裝載我們抓取數(shù)據(jù)的容器。它們工作像簡(jiǎn)單的Python字典,它提供更多的保護(hù),比如對(duì)未定義的字段提供填充功能防止出錯(cuò)。

它們通過(guò)創(chuàng)建scrapy.item.Item類來(lái)聲明并定義它們的屬性作為scrapy.item.Field 對(duì)象,就像是一個(gè)對(duì)象關(guān)系映射(假如你不熟悉ORMs,你將會(huì)看見(jiàn)它是一個(gè)簡(jiǎn)單的任務(wù)).

我們將需要的item模塊化,來(lái)控制從demoz.org網(wǎng)站獲取的數(shù)據(jù),比如我們將要去抓取網(wǎng)站的名字,url和描述信息。我們定義這三種屬性的域。我們編輯items.py文件,它在向?qū)夸浿?。我們Item類看起來(lái)像這樣。

 

from scrapy.item import Item, Field class DmozItem(Item): title = Field() link = Field() desc = Field()

這個(gè)看起來(lái)復(fù)雜的,但是定義這些item能讓你用其他Scrapy組件的時(shí)候知道你的item到底是什么

我們第一個(gè)Spider

Spiders是用戶寫(xiě)的類,它用來(lái)去抓取一個(gè)網(wǎng)站的信息(或者一組網(wǎng)站) 。
我們定義一個(gè)初始化的URLs列表去下載,如何跟蹤鏈接,如何去解析這些頁(yè)面的內(nèi)容去提取 items.創(chuàng)建一個(gè)Spider,你必須是scrapy.spider.BaseSpider的子類, 并定義三個(gè)主要的,強(qiáng)制性的屬性。

    名字: Spider的標(biāo)識(shí). 它必須是唯一的, 那就是說(shuō),你不能在不同的Spiders中設(shè)置相同的名字。

    開(kāi)始鏈接:Spider將會(huì)去爬這些URLs的列表。所以剛開(kāi)始的下載頁(yè)面將要包含在這些列表中。其他子URL將會(huì)從這些起始URL中繼承性生成。

    parse() 是spider的一個(gè)方法, 調(diào)用時(shí)候傳入從每一個(gè)URL傳回的Response對(duì)象作為參數(shù)。response是方法的唯一參數(shù)。

    這個(gè)方法負(fù)責(zé)解析response數(shù)據(jù)和提出抓取的數(shù)據(jù)(作為抓取的items),跟蹤URLs

    parse()方法負(fù)責(zé)處理response和返回抓取數(shù)據(jù)(作為Item對(duì)象) 和跟蹤更多的URLs(作為request的對(duì)象)

這是我們的第一個(gè)Spider的代碼;它保存在moz/spiders文件夾中,被命名為dmoz_spider.py:
 

from scrapy.spider import BaseSpider class DmozSpider(BaseSpider): name = 'dmoz' allowed_domains = ['dmoz.org'] start_urls = [ 'http://www.dmoz.org/Computers/Programming/Languages/Python/Books/', 'http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/' ] def parse(self, response): filename = response.url.split('/')[-2] open(filename, 'wb').write(response.body)

為了使你的spider工作, 到項(xiàng)目的頂級(jí)目錄讓后運(yùn)行:

scrapy crawl dmoz

crawl dmoz命令使spider去爬dmoz.org網(wǎng)站的信息。你將會(huì)得到如下類似的信息:

2008-08-20 03:51:13-0300 [scrapy] INFO: Started project: dmoz2008-08-20 03:51:13-0300 [tutorial] INFO: Enabled extensions: ...2008-08-20 03:51:13-0300 [tutorial] INFO: Enabled downloader middlewares: ...2008-08-20 03:51:13-0300 [tutorial] INFO: Enabled spider middlewares: ...2008-08-20 03:51:13-0300 [tutorial] INFO: Enabled item pipelines: ...2008-08-20 03:51:14-0300 [dmoz] INFO: Spider opened2008-08-20 03:51:14-0300 [dmoz] DEBUG: Crawled (referer: )2008-08-20 03:51:14-0300 [dmoz] DEBUG: Crawled (referer: )2008-08-20 03:51:14-0300 [dmoz] INFO: Spider closed (finished)

注意那些行包含[dmoz], 它和我們的spider相關(guān)。你能夠看見(jiàn)每行初始化的URL日志信息。因?yàn)檫@些URLs是起始頁(yè)面,所以他們沒(méi)有引用referrers。 所以在每行的末尾部門(mén),你能看見(jiàn)(referer: ).

但是有趣的是,在我們的parse方法作用下,兩個(gè)文件被創(chuàng)建: Books and Resources, 它保航兩個(gè)URLs的內(nèi)容
剛剛發(fā)生了什么事情?

Scrapy為每一個(gè)start_urls創(chuàng)建一個(gè)scrapy.http.Request對(duì)象,并將爬蟲(chóng)的parse 方法指定為回調(diào)函數(shù)。

這些Request首先被調(diào)度,然后被執(zhí)行,之后通過(guò)parse()方法,將scrapy.http.Response對(duì)象被返回,結(jié)果也被反饋給爬蟲(chóng)。

提取Items
選擇器介紹

我們有多種方式去提取網(wǎng)頁(yè)中數(shù)據(jù)。Scrapy 使用的是XPath表達(dá)式,通常叫做XPath selectors。如果想了解更多關(guān)于選擇器和提取數(shù)據(jù)的機(jī)制,可以看看如下教程XPath selectors documentation.

這里有一些表達(dá)式的例子和它們相關(guān)的含義:

  •     /html/head/title: 選擇元素,在HTML文檔的<head>元素里</head>
  •     /html/head/title/text(): 選擇元素里面的文本
  •     //td: 選擇所有的元素
  •     //div[@class='mine']: 選擇所有的div元素里面class屬性為mine的

這里有許多的例子關(guān)于怎么使用XPath,可以說(shuō)XPath表達(dá)式是非常強(qiáng)大的。如果你想要學(xué)習(xí)更多關(guān)于XPath,我們推薦如下教程this XPath tutorial.

為了更好使用XPaths, Scrapy提供了一個(gè)XPathSelector類,它有兩種方式, HtmlXPathSelector(HTML相關(guān)數(shù)據(jù))和XmlXPathSelector(XML相關(guān)數(shù)據(jù))。如果你想使用它們,你必須實(shí)例化一個(gè)Response對(duì)象.

你能夠把selectors作為對(duì)象,它代表文件結(jié)構(gòu)中的節(jié)點(diǎn)。所以,第1個(gè)實(shí)例的節(jié)點(diǎn)相當(dāng)于root節(jié)點(diǎn),或者稱為整個(gè)文檔的節(jié)點(diǎn)。

選擇器有三種方法(點(diǎn)擊方法你能夠看見(jiàn)完整的API文檔)。

  •     select(): 返回選擇器的列表,每一個(gè)select表示一個(gè)xpath表達(dá)式選擇的節(jié)點(diǎn)。
  •     extract(): 返回一個(gè)unicode字符串 ,該字符串XPath選擇器返回的數(shù)據(jù)。
  •     re() : 返回unicode字符串列表,字符串作為參數(shù)由正則表達(dá)式提取出來(lái)。


在Shell里面使用選擇器

為了更加形象的使用選擇器,我們將會(huì)使用Scrapy shell,它同時(shí)需要你的系統(tǒng)安裝IPython (一個(gè)擴(kuò)展的Python控制臺(tái))。

如果使用shell,你必須到項(xiàng)目的頂級(jí)目錄上,讓后運(yùn)行如下命令:

scrapy shell http://www.dmoz.org/Computers/Programming/Languages/Python/Books/

shell將會(huì)顯示如下的信息

[ ... Scrapy log here ... ][s] Available Scrapy objects:[s] 2010-08-19 21:45:59-0300 [default] INFO: Spider closed (finished)[s] hxs [s] item Item()[s] request [s] response <200 http://www.dmoz.org/computers/programming/languages/python/books/="">[s] spider [s] xxs [s] Useful shortcuts:[s] shelp() Print this help[s] fetch(req_or_url) Fetch a new request or URL and update shell objects[s] view(response) View response in a browserIn [1]:

當(dāng)shell裝載之后,你將會(huì)得到一個(gè)response的本地變量。所以你輸入reponse.body,你能夠看見(jiàn)response的body部分或者你能夠輸入response.headers,你能夠看見(jiàn)reponse.headers部分。

shell同樣實(shí)例化了兩個(gè)選擇器,一個(gè)是HTML(在hvx變量里),一個(gè)是XML(在xxs變量里)。所以我們嘗試怎么使用它們:

In [1]: hxs.select('//title')Out[1]: []In [2]: hxs.select('//title').extract()Out[2]: [u'Open Directory - Computers: Programming: Languages: Python: Books']In [3]: hxs.select('//title/text()')Out[3]: []In [4]: hxs.select('//title/text()').extract()Out[4]: [u'Open Directory - Computers: Programming: Languages: Python: Books']In [5]: hxs.select('//title/text()').re('(\w+):')Out[5]: [u'Computers', u'Programming', u'Languages', u'Python']

提取數(shù)據(jù)Extracting the data

現(xiàn)在我們開(kāi)始嘗試在這幾個(gè)頁(yè)面里提取真正的信息。

你能夠在控制臺(tái)里面輸入response.body,檢查源代碼里面的XPaths是否與預(yù)期相同。然而,檢查原始的HTML代碼是一件非常枯燥乏味的事情。假如你想讓你的工作變的簡(jiǎn)單,你使用Firefox擴(kuò)展的插件例如Firebug來(lái)做這項(xiàng)任務(wù)。更多關(guān)于介紹信息請(qǐng)看Using Firebug for scrapingUsing Firefox for scraping。

當(dāng)你檢查了頁(yè)面源代碼之后,你將會(huì)發(fā)現(xiàn)頁(yè)面的信息放在一個(gè)

    元素里面,事實(shí)上,確切地說(shuō)是第二個(gè)
      元素。

      所以我們選擇每一個(gè)

    • 元素使用如下的代碼:
       

      hxs.select('//ul/li')

      網(wǎng)站的描述信息可以使用如下代碼:
       

      hxs.select('//ul/li/text()').extract()

      網(wǎng)站的標(biāo)題:
       

      hxs.select('//ul/li/a/text()').extract()

      網(wǎng)站的鏈接:
       

      hxs.select('//ul/li/a/@href').extract()

      如前所述,每個(gè)select()調(diào)用返回一個(gè)selectors列表,所以我們可以結(jié)合select()去挖掘更深的節(jié)點(diǎn)。我們將會(huì)用到這些特性,所以:
       

      sites = hxs.select('//ul/li')for site in sites: title = site.select('a/text()').extract() link = site.select('a/@href').extract() desc = site.select('text()').extract() print title, link, descNote


      如果想了解更多的嵌套選擇器,可以參考Nesting selectorsWorking with relative XPaths相關(guān)的Selectors文檔
      將代碼添加到我們spider中:

       

      from scrapy.spider import BaseSpiderfrom scrapy.selector import HtmlXPathSelector class DmozSpider(BaseSpider): name = 'dmoz' allowed_domains = ['dmoz.org'] start_urls = [ 'http://www.dmoz.org/Computers/Programming/Languages/Python/Books/', 'http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/' ] def parse(self, response): hxs = HtmlXPathSelector(response) sites = hxs.select('//ul/li') for site in sites: title = site.select('a/text()').extract() link = site.select('a/@href').extract() desc = site.select('text()').extract() print title, link, desc

      現(xiàn)在我們?cè)俅巫トmoz.org,你將看到站點(diǎn)在輸出中被打印 ,運(yùn)行命令:
       

      scrapy crawl dmoz

      使用我們的 item

      Item對(duì)象是自定義python字典;使用標(biāo)準(zhǔn)字典類似的語(yǔ)法,你能夠訪問(wèn)它們的字段(就是以前我們定義的屬性) 
       

      >>> item = DmozItem()>>> item['title'] = 'Example title'>>> item['title']'Example title'

      Spiders希望將抓取的數(shù)據(jù)放在 Item對(duì)象里。所以,為了返回我們抓取的數(shù)據(jù),最終的代碼要如下這么寫(xiě) :

       

      from scrapy.spider import BaseSpiderfrom scrapy.selector import HtmlXPathSelector from tutorial.items import DmozItem class DmozSpider(BaseSpider): name = 'dmoz' allowed_domains = ['dmoz.org'] start_urls = [ 'http://www.dmoz.org/Computers/Programming/Languages/Python/Books/', 'http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/' ] def parse(self, response): hxs = HtmlXPathSelector(response) sites = hxs.select('//ul/li') items = [] for site in sites: item = DmozItem() item['title'] = site.select('a/text()').extract() item['link'] = site.select('a/@href').extract() item['desc'] = site.select('text()').extract() items.append(item) return items
      Note

      你能夠找到完整功能的spider在dirbot項(xiàng)目里,同樣你可以訪問(wèn)https://github.com/scrapy/dirbot

      現(xiàn)在重新抓取dmoz.org網(wǎng)站:

      [dmoz] DEBUG: Scraped from <200 http://www.dmoz.org/computers/programming/languages/python/books/=""> {'desc': [u' - By David Mertz; Addison Wesley. Book in progress, full text, ASCII format. Asks for feedback. [author website, Gnosis Software, Inc.\n], 'link': [u'http://gnosis.cx/TPiP/'], 'title': [u'Text Processing in Python']}[dmoz] DEBUG: Scraped from <200 http://www.dmoz.org/computers/programming/languages/python/books/=""> {'desc': [u' - By Sean McGrath; Prentice Hall PTR, 2000, ISBN 0130211192, has CD-ROM. Methods to build XML applications fast, Python tutorial, DOM and SAX, new Pyxie open source XML processing library. [Prentice Hall PTR]\n'], 'link': [u'http://www.informit.com/store/product.aspx?isbn=0130211192'], 'title': [u'XML Processing with Python']}


      存儲(chǔ)抓取的數(shù)據(jù)

      最簡(jiǎn)單的方式去存儲(chǔ)抓取的數(shù)據(jù)是使用Feed exports,使用如下的命令:

       

      scrapy crawl dmoz -o items.json -t json

      它將會(huì)產(chǎn)生一個(gè)items.json文件,它包含所有抓取的items(序列化的JSON)。

      在一些小的項(xiàng)目里(例如我們的教程中),那就足夠啦。然而,假如你想要執(zhí)行更多復(fù)雜的抓取items,你能夠?qū)懸粋€(gè) Item Pipeline。 因?yàn)樵陧?xiàng)目創(chuàng)建的時(shí)候,一個(gè)專門(mén)用于Item Pipelines的占位符文件已經(jīng)隨著項(xiàng)目一起被建立,目錄在tutorial/pipelines.py。如果你只需要存取這些抓取后的items的話,就不需要去實(shí)現(xiàn)任何的條目管道。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
Python抓取框架Scrapy入門(mén)教程
python抓取數(shù)據(jù)
爬蟲(chóng)框架簡(jiǎn)單學(xué)習(xí)
爬蟲(chóng) | Scrapy 爬取 BOSS 直聘招聘信息
Python爬蟲(chóng)框架Scrapy的安裝與正確使用方法
爬蟲(chóng)框架Scrapy(1)Scrapy基礎(chǔ)1
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服