大家好,今天小编来为大家解答以下的问题,关于楼盘信息网站源码分享,楼盘网页这个很多人还不知道,现在让我们一起来看看吧!
去年楼市暴涨,今年楼市一天一个价格,也不知道什么时候会跌.北上广一线城市高的离谱.南京,成都,合肥算是二线城市,但是房价也很高.想买到一套物美价廉的房子,谈何容易啊!今天我就来先爬取南京20000多套二手房,来看一下南京的楼市.
前面爬虫我写了好多篇,一直都是自己造轮子,还没有用爬虫神器scrapy.今天我们就用scrapy来爬取一下南京楼市的数据.代码大概50几行,非常方便.
01关于scrapy
1.了解scrapy框架
scrapy就像是一个做好的模版,框架已经搭建好了,你只需要熟悉它的架构,往里面填东西就行了,非常方便.所以使用前要熟练了解这个框架,整体架构大致如下:
Scrapy运行的大概流程如下:
1).Engine先从调度器中拿出一个起始(URL)
2).Engine把URL封装成一个请求,扔给下载器去下载内容,并封装成应答包response
3).爬虫解析Response,内置了selector对象处理
4).解析出实体(Item),则传输给实体管道进行进一步的处理
5).接着爬取下一个url,循环上面的步骤
接着我们需要了解下面3个基本动作:
如何生成项目
如何运行爬取
如何输出结果
基本上就是下面的这几个命令运用:
2.关于scrapy解析网页
一般我们爬虫都很喜欢用BeautifulSoup,BeautifulSoup虽然好用,但是有一个非常大的缺点,就是慢.(为啥是python写的库)
scrapy框架内置了selector对象来解析数据,selector采用的XPath选择器或者CSS选择器,速度要秒杀bs好几条街.使用起来需要熟悉一下,如果有前端经验的同学可以很快上手!
对于XPath其实是XPath是一门在XML文档中查找信息的语言,在XPath中,有七种类型的节点:元素、属性、文本、命名空间、处理指令、注释以及文档根节点
我个人比较喜欢CSS选择器,因为容易懂
其实scrapy最爽的地方是内置了类似IPython那样的shell调试器,非常好用.好言归正传,我们赶紧开始爬数据吧,看看scrapy如何分分钟爬取二手房的数据
02实战爬取南京二手房
3.网页分析
我们是要爬取二手房的信息,这样的网站很多房天下,house365,链家等等。这里我选择比较简单的链家网站,方便爬取.
哇有20937套二手房,我们希望了解下面几个重要参数:
房子的位置
房子有房间
房子的面积
房子的总价
房子的单价
看一下源码,好不好分析呢呢:
通过查看network里面的数据,发现还比较规整,如果用bs很好获取,这里我用css选择器解析.
4.创建代码工程
1).安装
先用pipinstallscrapy,scrapy有py2和py3两个版本,这里我用py2版本.
2).创建项目
scrapystartprojectnj_house
3).查看创建的项目工程
工程文件说明:
scrapy.cfg记录项目的配置信息
items.py存放爬取完数据的模板,用于结构化数据
pipelines数据处理行为,比如结构化的数据,存放到数据库持久化等等
settings.py配置文件,比如递归的层数、并发数,延迟下载等
spiders真正干活的爬虫目录,对网页的数据清洗
4).编写爬虫
进入刚才创建的目录,然后敲scrapygenspider创建一个lj_house.py文件
cdnj_house/
scrapygenspiderlj_housenj.lianjia.com/ershoufang/
5).查看生成好的模版代码
刚才创建的lj_house.py其实就是我们要解析网页的文件,跟以前爬虫的思路非常类似,首先解析第一个网页,然后获取其他网页的链接,接着挨个爬取解析.
看一下scrapy帮我生成好的代码:
6).编程解析网页文件
scrapy已经帮我写好的框架,这里的parse函数传进来的response就是我们第一个网页的代码,我们printresponse.text就能看到内容.(记着把setting.py里面的ROBOT协议尊守改为False,不如爬不了任何数据).
ROBOTSTXT_OBEY=False
接着我们修改起始的网页链接,并且编写parse函数就可以了
我们存放数据的时候,用了一个HouseSpiderItem类,这个类是在item.py文件中生成的.
classHouseSpiderItem(scrapy.Item):\nname=scrapy.Field()\nhouse=scrapy.Field()\ntotal_price=scrapy.Field()\nunit_price=scrapy.Field()\nhouse_room=scrapy.Field()\nhouse_area=scrapy.Field()
注意scrapy大量用yield生成器,yield算是python中一个比较难的概念,具体可以看我的历史文章(Python写个迷你聊天机器人|生成器的高级用法)里面有很详细的介绍
7).获取下一个网页链接
类似前面的方法,把页面拉到最下面,看一下底部的下一个网页的链接:
5.运行代码看一下数据
经过上面几步,大功告成,运行一下吧:
scrapycrawlnj_house
直接生成csv文件
scrapycrawlnj_house-ohouse.csv
一个区域大概2-3000多套,南京有11个区域,依次爬取就可以获得所有的二手房数据.
结论:
爬取南京二手房这个例子比较简单,适合小白上手练习scrapy.其实scrapy威力非常强大,后面我会用scrapy爬取更加大型和复杂的网站。这篇文章只是上篇,二手房的数据还没有分析呢,敬请期待下篇!大家若有什么问题,欢迎留言讨论.
End.
运行人员:中国统计网小编(微信号:itongjilove)
微博ID:中国统计网
中国统计网,是国内最早的大数据学习网站,公众号:中国统计网
http://www.itongji.cn
OK,关于楼盘信息网站源码分享和楼盘网页的内容到此结束了,希望对大家有所帮助。