新闻  |   论坛  |   博客  |   在线研讨会
如何采集大量新闻数据
laical | 2021-06-16 16:18:17    阅读:215   发布文章

如何采集大量的新闻网站数据,几千个新闻网站数据对于任何一个爬虫工作者来说都是一个巨大工作量。采集新闻网站数据,一般可以采用 xpath 进行解析,但是由于采集的网站数据太多,如果单独用 xpath 进行解析采集的话,工作量就很巨大,而且采集缓慢。中途我也找到自动化解析页面的 readbility 库,最开始使用这个库还行,对于标准格式的html网页,解析还是可以的,但是遇到一些不规则的html 网页,解析效果就不太好,就放弃了这种方案。

现在大多数的网站的内容包含导航栏,广告,版权等无关信息,这些信息和采集的新闻数据信息无关就可以省略,经过一段时间的研究,我们可以是使用python的scrapy框架使用爬虫代理进行大量新闻数据采集:

        #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "username"
                proxyPass = "password"

                request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)

                # 添加验证头
                encoded_user_pass = base64ify(proxyUser + ":" + proxyPass)
                request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass                    

                # 设置IP切换头(根据需求)
                tunnel = random.randint(1,10000)
                request.headers['Proxy-Tunnel'] = str(tunnel)


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客