时间:2020-07-02 python爬虫 查看: 1192
随着大数据时代的到来,数据将如同煤电气油一样,成为我们最重要的能源之一,然而这种能源是可以源源不断产生、可再生的。而Python爬虫作为获取数据的关键一环,在大数据时代有着极为重要的作用。于是许多同学就前来咨询:Python爬虫好学吗?
什么是爬虫?
网络爬虫,又被称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。
数据从何而来?
要想学Python首先请问:我们所爬的数据,是从哪里来的呢?
企业产生的用户数据:百度指数、阿里指数、TBI腾讯浏览指数、新浪微博指数;
数据平台购买数据:数据堂、国云数据市场、贵阳大数据交易所;
政府/机构公开的数据:中华人民共和国国家统计局数据、世界银行公开数据、联合国数据、纳斯达克;
数据管理咨询公司:麦肯锡、埃森哲、艾瑞咨询;
爬取网络数据:如果需要的数据市场上没有,或者不愿意购买,那么可以选择招/做一名爬虫工程师,自己动手丰衣足食。
怎么抓取页面数据?
网页三大特征:
网页都有自己唯一的URL(统一资源定位符)来进行定位;
网页都使用HTML (超文本标记语言)来描述页面信息;
网页都使用HTTP/HTTPS(超文本传输协议)协议来传输HTML数据;
爬虫的设计思路:
首先确定需要爬取的网页URL地址。
通过HTTP/HTTP协议来获取对应的HTML页面。
提取HTML页面里有用的数据:
a. 如果是需要的数据,就保存起来。
b. 如果是页面里的其他URL,那就继续执行第二步。
结语:Python爬虫的学习实际上在Python学习过程中是一个基础入门级的部分,学起来没啥难的,但它确实是职业能力中不可或缺的技能之一。、
内容扩展:
一个简单的爬虫实例:
import urllib,urllib2
import re
def geturllist():
# 不访问网站,而是实例一个对象,为了模拟浏览器访问服务器
req = urllib2.Request("http://www.budejie.com/video/")
# 添加申请访问的header,让对方服务器误以为是浏览器申请访问(参数是通过浏览器复制过来的)
req.add_header('User-Agent',' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36')
# 打开我刚才创建的实例对象
res =urllib2.urlopen(req)
html = res.read()
print html # 访问到了资源代码
# 定义一个正则化表达式为了获取我要的视频网址
reg = r'data-mp4="(.*?)">'
# 将网页源码中的视频网址找出来
urllist = re.findall(reg,html)
# print urllist
# 有20个视频网址,用for循环一个一个下载出来
n = 1
for url in urllist:
# url 视频网址,'%s.mp4'下载后的名字,url.split('/')[-1] 将字符串按照‘/'分开
urllib.urlretrieve(url,'%s.mp4' %url.split('/')[-1]) # 下载视频
n = n+1
geturllist()
到此这篇关于python爬虫容易学吗的文章就介绍到这了,更多相关python爬虫好学吗内容请搜索python博客以前的文章或继续浏览下面的相关文章希望大家以后多多支持python博客!