如何入门 Python 爬虫 如何入门 python 爬虫?

\u5982\u4f55\u5165\u95e8 Python \u722c\u866b?

\u201c\u5165\u95e8\u201d\u662f\u826f\u597d\u7684\u52a8\u673a\uff0c\u4f46\u662f\u53ef\u80fd\u4f5c\u7528\u7f13\u6162\u3002\u5982\u679c\u4f60\u624b\u91cc\u6216\u8005\u8111\u5b50\u91cc\u6709\u4e00\u4e2a\u9879\u76ee\uff0c\u90a3\u4e48\u5b9e\u8df5\u8d77\u6765\u4f60\u4f1a\u88ab\u76ee\u6807\u9a71\u52a8\uff0c\u800c\u4e0d\u4f1a\u50cf\u5b66\u4e60\u6a21\u5757\u4e00\u6837\u6162\u6162\u5b66\u4e60\u3002
\u5982\u679c\u4f60\u60f3\u8981\u5165\u95e8Python\u722c\u866b\uff0c\u4f60\u9700\u8981\u505a\u5f88\u591a\u51c6\u5907\u3002\u9996\u5148\u662f\u719f\u6089python\u7f16\u7a0b\uff1b\u5176\u6b21\u662f\u4e86\u89e3HTML\uff1b
\u8fd8\u8981\u4e86\u89e3\u7f51\u7edc\u722c\u866b\u7684\u57fa\u672c\u539f\u7406\uff1b\u6700\u540e\u662f\u5b66\u4e60\u4f7f\u7528python\u722c\u866b\u5e93\u3002
\u5982\u679c\u4f60\u4e0d\u61c2python\uff0c\u90a3\u4e48\u9700\u8981\u5148\u5b66\u4e60python\u8fd9\u95e8\u975e\u5e38easy\u7684\u8bed\u8a00\u3002\u7f16\u7a0b\u8bed\u8a00\u57fa\u7840\u8bed\u6cd5\u65e0\u975e\u662f\u6570\u636e\u7c7b\u578b\u3001\u6570\u636e\u7ed3\u6784\u3001\u8fd0\u7b97\u7b26\u3001\u903b\u8f91\u7ed3\u6784\u3001\u51fd\u6570\u3001\u6587\u4ef6IO\u3001\u9519\u8bef\u5904\u7406\u8fd9\u4e9b\uff0c\u5b66\u8d77\u6765\u4f1a\u663e\u67af\u71e5\u4f46\u5e76\u4e0d\u96be\u3002
\u521a\u5f00\u59cb\u5165\u95e8\u722c\u866b\uff0c\u4f60\u751a\u81f3\u4e0d\u9700\u8981\u53bb\u5b66\u4e60python\u7684\u7c7b\u3001\u591a\u7ebf\u7a0b\u3001\u6a21\u5757\u4e4b\u7c7b\u7684\u7565\u96be\u5185\u5bb9\u3002\u627e\u4e00\u4e2a\u9762\u5411\u521d\u5b66\u8005\u7684\u6559\u6750\u6216\u8005\u7f51\u7edc\u6559\u7a0b\uff0c\u82b1\u4e2a\u5341\u51e0\u5929\u529f\u592b\uff0c\u5c31\u80fd\u5bf9python\u57fa\u7840\u6709\u4e2a\u4e09\u56db\u5206\u7684\u8ba4\u8bc6\u4e86\u3002

\u7f51\u7edc\u722c\u866b\u7684\u542b\u4e49\uff1a
\u7f51\u7edc\u722c\u866b\uff0c\u5176\u5b9e\u4e5f\u53ef\u4ee5\u53eb\u505a\u7f51\u7edc\u6570\u636e\u91c7\u96c6\u66f4\u5bb9\u6613\u7406\u89e3\u3002\u5c31\u662f\u901a\u8fc7\u7f16\u7a0b\u5411\u7f51\u7edc\u670d\u52a1\u5668\u8bf7\u6c42\u6570\u636e\uff08HTML\u8868\u5355\uff09\uff0c\u7136\u540e\u89e3\u6790HTML\uff0c\u63d0\u53d6\u51fa\u81ea\u5df1\u60f3\u8981\u7684\u6570\u636e\u3002
\u8fd9\u4f1a\u6d89\u53ca\u5230\u6570\u636e\u5e93\u3001\u7f51\u7edc\u670d\u52a1\u5668\u3001HTTP\u534f\u8bae\u3001HTML\u3001\u6570\u636e\u79d1\u5b66\u3001\u7f51\u7edc\u5b89\u5168\u3001\u56fe\u50cf\u5904\u7406\u7b49\u975e\u5e38\u591a\u7684\u5185\u5bb9\u3002\u4f46\u5bf9\u4e8e\u521d\u5b66\u8005\u800c\u8a00\uff0c\u5e76\u4e0d\u9700\u8981\u638c\u63e1\u8fd9\u4e48\u591a\u3002

\u770b\u4e00\u4e9b\u7b80\u5355\u7684\u89c6\u9891\u3002Python\u4f5c\u4e3a\u4e00\u79cd\u9ad8\u7ea7\u7f16\u7a0b\u8bed\u8a00\uff0c\u57282018\u5e74\u4e16\u754c\u811a\u672c\u8bed\u8a00\u5217\u8868\u4e2d\u6392\u540d\u7b2c\u4e00\uff0c\u4e5f\u662f\u8bb8\u591a\u9886\u57df\u7684\u9996\u9009\u8bed\u8a00\u3002
\u65e0\u8bba\u662f\u4ece\u5165\u95e8\u7ea7\u9009\u624b\u5230\u4e13\u4e1a\u7ea7\u9009\u624b\u90fd\u5728\u505a\u7684\u722c\u866b\uff0c\u8fd8\u662fWeb \u7a0b\u5e8f\u5f00\u53d1\u3001\u684c\u9762\u7a0b\u5e8f\u5f00\u53d1\u8fd8\u662f\u79d1\u5b66\u8ba1\u7b97\u3001\u56fe\u50cf\u5904\u7406\uff0cPython\u90fd\u53ef\u4ee5\u80dc\u4efb\u3002


Python\u57fa\u4e8e\u6e05\u6670\u7684\u8bed\u6cd5\u548c\u76f4\u89c2\u7684\u95ee\u9898\u89e3\u51b3\u65b9\u6848\u8fd8\u6709\u5176\u5f3a\u5927\u7684\u8de8\u5e73\u53f0GUI\u5de5\u5177\uff0c\u4e5f\u662f\u6fc0\u8d77\u8bb8\u591a\u5c0f\u767d\u521d\u5b66\u8005\u5174\u8da3\u7684\u91cd\u8981\u6761\u4ef6\uff0c\u76f8\u6bd4\u4e8e\u5176\u4ed6\u8bed\u8a00\uff0cPython\u6548\u7387\u6781\u9ad8\uff0c\u7a0b\u5e8f\u5305\u542b\u7684\u4ee3\u7801\u884c\u66f4\u5c11\uff0c\u4ee3\u7801\u4e5f\u66f4\u5bb9\u6613\u9605\u8bfb\u3001\u8c03\u8bd5\u548c\u6269\u5c55\u3002

从爬虫必要的几个基本需求来讲:
1.抓取
  python的urllib不一定去用,但是要学,如果还没用过的话。
  比较好的替代品有requests等第三方更人性化、成熟的库,如果pyer不了解各种库,那就白学了。
  抓取最基本就是拉网页回来。
  如果深入做下去,会发现要面对不同的网页要求,比如有认证的,不同文件格式、编码处理,各种奇怪的url合规化处理、重复抓取问题、cookies跟随问题、多线程多进程抓取、多节点抓取、抓取调度、资源压缩等一系列问题。
  所以第一步就是拉网页回来,慢慢会发现各种问题待优化。
2.存储
  抓回来一般会用一定策略存下来,而不是直接分析,个人觉得更好的架构应该是把分析和抓取分离,更加松散,每个环节出了问题能够隔离另外一个环节可能出现的问题,好排查也好更新发布。
  那么存文件系统、SQLorNOSQL数据库、内存数据库,如何去存就是这个环节的重点。
  可以选择存文件系统开始,然后以一定规则命名。
3.分析
  对网页进行文本分析,提取链接也好,提取正文也好,总之看的需求,但是一定要做的就是分析链接了。
  可以用认为最快最优的办法,比如正则表达式。
  然后将分析后的结果应用与其他环节:)
4.展示
  要是做了一堆事情,一点展示输出都没有,如何展现价值。
  所以找到好的展示组件,去show出肌肉也是关键。
  如果为了做个站去写爬虫,抑或要分析某个东西的数据,都不要忘了这个环节,更好地把结果展示出来给别人感受。

“入门”是良好的动机,但是可能作用缓慢。如果你手里或者脑子里有一个项目,那么实践起来你会被目标驱动,而不会像学习模块一样慢慢学习。

另外如果说知识体系里的每一个知识点是图里的点,依赖关系是边的话,那么这个图一定不是一个有向无环图。因为学习A的经验可以帮助你学习B。因此,你不需要学习怎么样“入门”,因为这样的“入门”点根本不存在!你需要学习的是怎么样做一个比较大的东西,在这个过程中,你会很快地学会需要学会的东西的。当然,你可以争论说需要先懂python,不然怎么学会python做爬虫呢?但是事实上,你完全可以在做这个爬虫的过程中学习python :D

看到前面很多答案都讲的“术”——用什么软件怎么爬,那我就讲讲“道”和“术”吧——爬虫怎么工作以及怎么在python实现。

先长话短说summarize一下:
你需要学习

基本的爬虫工作原理
基本的http抓取工具,scrapy
Bloom Filter: Bloom Filters by Example
如果需要大规模网页抓取,你需要学习分布式爬虫的概念。其实没那么玄乎,你只要学会怎样维护一个所有集群机器能够有效分享的分布式队列就好。最简单的实现是python-rq:https://github.com/nvie/rq
rq和Scrapy的结合:darkrho/scrapy-redis · GitHub
后续处理,网页析取(grangier/python-goose · GitHub),存储(Mongodb)

扩展阅读:python手机版下载安装 ... python爬虫实例入门 ... 爬虫一单多少钱 ... python编程入门自学 ... python初学编程必背 ... 为什么爬虫会坐牢 ... python免费自学网站 ... 新手怎么入门python爬虫 ... 爬虫可以做哪些事 ...

本站交流只代表网友个人观点,与本站立场无关
欢迎反馈与建议,请联系电邮
2024© 车视网