1.准备工作:
工欲善其事必先利其器,因此我们有必要在进行Coding前先配置一个适合我们自己的开发环境,我搭建的开发环境是:
操作系统:Ubuntu 14.04 LTS
Python版本:2.7.6
代码编辑器:Sublime Text 3.0
2.实战网页爬虫:
2.1.获取城市列表:
首先,我们需要获取到湖北省所有城市的网页,然后进行网页解析。网络地址为:http://www.tianqihoubao.com/weather/province.aspx?id=420000
我们查看该网页的源码可以发现所有的城市列表都是以,因此,我们可以封装一个函数来通过使用正则表达式获取我们想要的数据,示例代码如下所示:
抓取的结果如下所示:
top/anlu.html" title="安陆历史天气查询
topong.html" title="巴东历史天气查询
top/baokang.html" title="保康历史天气查询
top/caidian.html" title="蔡甸历史天气查询
topangyang.html" title="长阳历史天气查询
......
2.2.获取对应城市的所有天气信息:
然后我们需要根据抓取到的城市链接去抓取对应城市的天气情况,这里我们再封装一个函数用于显示对应城市的所有天气状况:
这样以来,我们就可以获取到了对应城市的天气情况了!!
完整代码:
3.知识总结:
3.1.编码问题:
#在ubuntu上,由于编码问题,我们需要在代码的开始位置添加一行注释,告诉Pyhton解释器我们指定的编码格式:
#此外,我们还需要设置默认的编码格式,否则Sublime Text会无法识别中文,报告一个错误:“UnicodeEncodeError: 'ascii' codec can't encode characters in position”
#-*-coding:utf8-*-
import sys
reload(sys)
sys.setdefaultencoding('UTF-8')
3.2.正则表达式:
导入正则表达式库:import re
匹配任意字符:.
匹配前一个字符0次或无限次:*
匹配前一个字符0次或一次:?
贪心算法:.*
非贪心算法:.*?
匹配数字:(\d+)
常用函数:
re.findall(pattern, string)
re.search(pattern, string)
re.sub(pattern, repl, string)
最后的最后,如果你尝试过运行我贴出来的完整代码,或许你会遇到和我一样的瓶颈,就是运行的速度不够快(尤其像我这种机器配置不是很好的电脑)。在我的机器上运行这段脚本总共花费了 371.8s。我运行过多次,每次都是在350+。因此,如果你的程序不在乎运行速度,那么可能Python还是挺适合的,毕竟可以通过它写更少的代码去做更多的事情!!!