爬虫通常指的是网络爬虫,就是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。下面是小编为您整理的关于python为什么叫爬虫,希望对你有所帮助。
	
[图片0]
	python为什么叫爬虫
	爬虫一般是指网络资源的抓取,因为python的脚本特性,python易于配置,对字符的处理也非常灵活,加上python有丰富的网络抓取模块,所以两者经常联系在一起。
	为什么python适合写爬虫?
	我用c#,java都写过爬虫。区别不大,原理就是利用好正则表达式。只不过是平台问题。后来了解到很多爬虫都是用python写的。因为目前对python并不熟,所以也不知道这是为什么。百度了下结果:
1)抓取网页本身的接口
	相比与其他静态编程语言,如java,c#,C++,python抓取网页文档的接口更简洁;相比其他动态脚本语言,如perl,shell,python的urllib2包提供了较为完整的访问网页文档的API。(当然ruby也是很好的选择)
此外,抓取网页有时候需要模拟浏览器的行为,很多网站对于生硬的爬虫抓取都是封杀的。这是我们需要模拟user agent的行为构造合适的请求,譬如模拟用户登陆、模拟session/cookie的存储和设置。在python里都有非常优秀的第三方包帮你搞定,如Requests,mechanize
2)网页抓取后的处理
	抓取的网页通常需要处理,比如过滤html标签,提取文本等。python的beautifulsoap提供了简洁的文档处理功能,能用极短的代码完成大部分文档的处理。
	其实以上功能很多语言和工具都能做,但是用python能够干得最快,最干净。Life is short, u need python.
	冲最后一句‘Life is short, u need python’,立马在当当上买了本python的书!以前就膜拜过python大牛,一直想学都扯于各种借口迟迟没有开始。。
py用在linux上很强大,语言挺简单的。
	
[图片1]
	 快速开发(唯一能和python比开发效率的语言只有rudy)语言简洁,没那么多技巧,所以读起来很清楚容易。
	跨平台(由于python的开源,他比java更能体现"一次编写到处运行"
	解释性( 无须编译,直接运行/调试代码)
	构架选择太多(GUI构架方面 主要的就有 wxPython, tkInter, PyGtk, PyQt 。
	怎么用python写爬虫来抓数据
	用python语言来写爬虫,建议先熟悉python的基础语法,再深入练习。
	如果用python写爬虫是为了满足“抓数据”的需求,使用爬虫软件更为方便。
	推荐使用八爪鱼:一款行业知名的免费爬虫软件,操作简单、功能强大。编程老手还能使用八爪鱼的高级功能。虽然自由度不如python,但掌握成本低,能帮助用户将有限的资源投入到更有意义的事情上去。
	为什么Python写的爬虫有时候抓取的数据是乱码
	写爬虫是经常会遇到这样的问题,这种问题很显然是编码问题,解决的方法其实也不难。
	你可以用下面的两个方法来解决你的编码问题:
	第一种是,通过浏览器打开你写的html之后,找到浏览器中的文字编码修改,将编码改为Unicode编码,即可修复。
	xml takes all the pain out of XML. Stephan Richter lxml是Python语言里和XML以及HTML工作的功能最丰富和最容易使用的库