"); //-->
今日中国人民日报发布了全国各地的疫苗接种数据进展情况。根据人民日报发不的消息,全国已经有31个省区市接种的疫苗已经超过了4亿剂次。目前广东的新冠疫苗接种的数据已达到全国第一。其他地区也紧跟其后。
目前广东,山东,北京,上海,湖北,浙江,河南,安徽,重庆,四川,等省区的疫苗接种的数据报告已经达到了千万剂次。
截止目前北京用户18岁以上的疫苗接种人数已经超过北京的80%以上。河南人18岁以上的疫苗接种人数已经达到了82%。截止目前为止这些详细的数据信息都可以在人民日报发出的数据信息中看到。可以看出中国疫苗接种已经遥遥领先。如果想要各地区疫苗接种的实时数据情况,可以通过爬虫程序对各地区的本地宝进行实时数据采集进行统计,这样才能更加准确的统计出当地地区的疫苗接种数据情况。
比如成都地区,截止目前为止还没统计出具体接种人数,但是根据疫苗接种的剂次,可以分析出成都日接种量可达48万人份,如果想要完整的接种疫苗数据情况,爬虫程序访问成都本地宝,进行实时的疫苗接种的数据采集和分析,监控,统计出完整的疫苗接种人数。但是想这种实时采集的疫苗接种数据的情况,爬虫程序最好使用亿牛云的隧道转发爬虫代理去进行实时的数据采集与分析,然后统计出结果,可以参考一下代码:
#! -*- encoding:utf-8 -*- import base64 import sys import random PY3 = sys.version_info[0] >= 3 def base64ify(bytes_or_str): if PY3 and isinstance(bytes_or_str, str): input_bytes = bytes_or_str.encode('utf8') else: input_bytes = bytes_or_str output_bytes = base64.urlsafe_b64encode(input_bytes) if PY3: return output_bytes.decode('ascii') else: return output_bytes class ProxyMiddleware(object): def process_request(self, request, spider): # 代理服务器(产品官网 www.16yun.cn) proxyHost = "t.16yun.cn" proxyPort = "31111" # 代理验证信息 proxyUser = "username" proxyPass = "password" request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort) # 添加验证头 encoded_user_pass = base64ify(proxyUser + ":" + proxyPass) request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass # 设置IP切换头(根据需求) tunnel = random.randint(1,10000) request.headers['Proxy-Tunnel'] = str(tunnel)
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。