什麼是爬蟲?python網絡爬蟲中概念的介紹

2019-10-29     科技i關注

本篇文章給大家帶來的內容是關於什麼是爬蟲?python網絡爬蟲中概念的介紹,有一定的參考價值,有需要的朋友可以參考一下,希望對你有所幫助。

爬蟲相關概念簡介

a)什麼是爬蟲:

爬蟲就是通過編寫程序模擬瀏覽器上網,然後讓其去網際網路上抓取數據的過程。

b)哪些語言可以實現爬蟲:

1.php:可以實現爬蟲。php被號稱是全世界最優美的語言(當然是其自己號稱的,就是王婆賣瓜的意思),但是php在實現爬蟲中支持多線程和多進程方面做的不好。

2.java:可以實現爬蟲。java可以非常好的處理和實現爬蟲,是唯一可以與python並駕齊驅且是python的頭號勁敵。但是java實現爬蟲代碼較為臃腫,重構成本較大。

3.c、c++:可以實現爬蟲。但是使用這種方式實現爬蟲純粹是是某些人(大佬們)能力的體現,卻不是明智和合理的選擇。

4.python:可以實現爬蟲。python實現和處理爬蟲語法簡單,代碼優美,支持的模塊繁多,學習成本低,具有非常強大的框架(scrapy等)且一句難以言表的好!沒有但是!

c)爬蟲的分類:根據使用場景可以分為如下兩類

1.通用爬蟲:通用爬蟲是搜尋引擎(Baidu、Google、Yahoo等)「抓取系統」的重要組成部分。主要目的是將網際網路上的網頁下載到本地,形成一個網際網路內容的鏡像備份。

1)搜尋引擎如何抓取網際網路上的網站數據?

a)門戶網站主動向搜尋引擎公司提供其網站的url

b)搜尋引擎公司與DNS服務商合作,獲取網站的url

c)門戶網站主動掛靠在一些知名網站的友情連結中

2.聚焦爬蟲:聚焦爬蟲是根據指定的需求抓取網絡上指定的數據。例如:獲取豆瓣上電影的名稱和影評,而不是獲取整張頁面中所有的數據值。

d) robots.txt協議:

如果自己的門戶網站中的指定頁面中的數據不想讓爬蟲程序爬取到的話,那麼則可以通過編寫一個robots.txt的協議文件來約束爬蟲程序的數據爬取。robots協議的編寫格式可以觀察淘寶網的robots(訪問www.taobao.com/robots.txt即可)。但是需要注意的是,該協議只是相當於口頭的協議,並沒有使用相關技術進行強制管制,所以該協議是防君子不防小人。但是我們在學習爬蟲階段編寫的爬蟲程序可以先忽略robots協議。

e) 反爬蟲:

門戶網站通過相應的策略和技術手段,防止爬蟲程序進行網站數據的爬取。

f) 反反爬蟲:

爬蟲程序通過相應的策略和技術手段,破解門戶網站的反爬蟲手段,從而爬取到相應的數據。

以上就是什麼是爬蟲?python網絡爬蟲中概念的介紹的詳細內容,更多請關注其它相關文章!

更多技巧請《轉發 + 關注》哦!

文章來源: https://twgreatdaily.com/zh-cn/wRTHFG4BMH2_cNUgrU5g.html