Python爬虫实战:数据爬取:Jira与静态网页

静态网页抓取

在网站设计中,纯HTML格式的网页通常被称之为静态网页,在网络爬虫中静态网页的数据比较容易抓取,因为说有的数据都呈现在网页的HTML代码中。相对而言使用Ajax动态加载的玩个的数据不一定会出现在HTML代码中,就给爬虫抓取增加了难度。

在静态网页抓取中,有一个强大的requests库能够让你轻松的发送HTTP请求,这个库功能完善,而且操作非常简单。

安装requestS

通过pip安装,打开cmd或terminal,键入:
pip install requests

获取响应内容

print("文本编码", r.encoding)
print("响应状态码:", r.status_code)
print("字符串方式的响应体:", r.text)

  • r.text是服务器响应的内容,会自动根据响应头的字符编码进行解码
  • r.encoding是服务器内容使用的文本编码
  • r.status_code用于检测响应的状态码,200请求成功,4xx客户端错误,5xx服务器错误
  • r.content是字节方式的响应体,会自动解码gzip和deflate编码的响应数据
  • r.json()是requests中的内置JSON解码器

指定requests

有些网页需要对request的参数进行测试才能获取需要的数据,这包括url传参,定制请求头,发送post请求,设置超时等。

传递URL参数

如果是自己构建URL那么数据一般会跟在一个问号后面,并且以键值对的形式存放在URL中,

keydict = {'key1': '111', 'key2': '222'}

r = requests.get(link, params=keydict)

print("rul已经正确编码", r.url)

print("响应体:\n", r.text)
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.

定制请求头

import requests  # 最简单易用的HTTP库

heders = {

'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '

'Chrome/96.0.4664.110 Safari/537.36',

'Host': 'www.santostang.com'}

r = requests.get(link, headers=heders)

print('响应状态码:', r.status_code)
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.

发送post请求

除了GET请求外,又是还需要发送一些表单形式的数据,如果在登录的时候请求就为post,如果用GET请求密码就会显示在地址栏中,这非常的不安全
keydict = {'key1': '111', 'key2': '222'}
r = requests.post(link, data=keydict)
print(r.text)

超时

有时候爬虫遇到服务器长时间不返回,这爬虫程序就会一直等待,造成爬虫程序没有顺利执行。可以在request中timeout参数设定秒数,指定时间内没有响应就返回异常,一般设置为20秒

request爬虫实践:top250电影数据

点击查看代码

def get_movies():
    headers = {
        'Host': 'movie.douban.com',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36',
        'charset': 'utf-8'
    }
    movie_list = []
    for i in range(0, 10):
        link = 'https://movie.douban.com/top250?start=' + str(i * 25)
        r = requests.get(link, headers=headers, timeout=10, allow_redirects=False)
        print(str(i + 1), "页响应状态码:", r.status_code)
        soup = BeautifulSoup(r.text, "html.parser")
        div_list = soup.find_all('div', class_='hd')
        for each in div_list:
            movie = each.a.span.text.strip()
            movie_list.append(movie)
    return movie_list
movies = get_movies()
print(movies)
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.



QR Code
微信扫一扫,欢迎咨询~

联系我们
武汉格发信息技术有限公司
湖北省武汉市经开区科技园西路6号103孵化器
电话:155-2731-8020 座机:027-59821821
邮件:tanzw@gofarlic.com
Copyright © 2023 Gofarsoft Co.,Ltd. 保留所有权利
遇到许可问题?该如何解决!?
评估许可证实际采购量? 
不清楚软件许可证使用数据? 
收到软件厂商律师函!?  
想要少购买点许可证,节省费用? 
收到软件厂商侵权通告!?  
有正版license,但许可证不够用,需要新购? 
联系方式 155-2731-8020
预留信息,一起解决您的问题
* 姓名:
* 手机:

* 公司名称:

姓名不为空

手机不正确

公司不为空