快盘下载:好资源、好软件、快快下载吧!

快盘排行|快盘最新

当前位置:首页软件教程电脑软件教程 → 【Python实现网络爬虫】Scrapy爬取网易新闻(仅供学习交流使用!)

【Python实现网络爬虫】Scrapy爬取网易新闻(仅供学习交流使用!)

时间:2022-10-06 17:08:42人气:作者:快盘下载我要评论


目录

​​1. 新建项目​​​​2. 修改itmes.py文件​​​​3. 定义spider,创建一个爬虫模板​​​​3.1 创建crawl爬虫模板​​​​3.2 补充知识:selectors选择器​​​​3.3. 分析网页内容​​​​主体​​​​标题​​​​时间​​​​分类​​​​4. 修改spider下创建的爬虫文件​​​​4.1 导入包​​​​最终代码​​

1. 新建项目

在命令行窗口下输入​​scrapy startproject scrapytest​​, 如下

【Python实现网络爬虫】Scrapy爬取网易新闻(仅供学习交流使用!)

​​https://www.163.com/dy/article/G570TESI05372M9P.html?f=post2020_dy_recommends​​

主体

4. 修改spider下创建的爬虫文件

4.1 导入包

打开创建的爬虫模板,进行代码的编写,除了导入系统自动创建的三个库,我们还需要导入news.items(这里就涉及到了包的概念了,最开始说的–init–.py文件存在说明这个文件夹就是一个包可以直接导入,不需要安装)

注意:​​使用的类ExampleSpider一定要继承自CrawlSpider,因为最开始我们创建的就是一个‘crawl’的爬虫模板,对应上​

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
name = 'codingce'
allowed_domains = ['163.com']

start_urls = ['http://news.163.com/']

rules = (
Rule(LinkExtractor(allow=r'.*.163.com/d{2}/d{4}/d{2}/.*.html'), callback='parse', follow=True),
)

def parse(self, response):
item = {}
content = '<br>'.join(response.css('.post_content p::text').getall())
if len(content) < 100:
return

return

Rule(LinkExtractor(allow=r’..163.com/d{2}/d{4}/d{2}/..html’), callback=‘parse’, follow=True), 其中第一个allow里面是书写正则表达式的(也是我们核心要输入的内容),第二个是回调函数,第三个表示是否允许深入

最终代码

from datetime import datetime
import re

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
name = 'codingce'
allowed_domains = ['163.com']

start_urls = ['http://news.163.com/']

rules = (
Rule(LinkExtractor(allow=r'.*.163.com/d{2}/d{4}/d{2}/.*.html'), callback='parse', follow=True),
)

def parse(self, response):
item = {}
content = '<br>'.join(response.css('.post_content p::text').getall())
if len(content) < 100:
return

title = response.css('h1::text').get()

category = response.css('.post_crumb a::text').getall()[-1]
print(category, "=======category")
time_text = response.css('.post_info::text').get()
timestamp_text = re.search(r'd{4}-d{2}-d{2} d{2}:d{2}:d{2}', time_text).group()
timestamp = datetime.fromisoformat(timestamp_text)
print(title, "=========title")
print(content, "===============content")
print(timestamp, "==============timestamp")
print(response.url)
return

css,【Python实现网络爬虫】Scrapy爬取网易新闻(仅供学习交流使用!)

项目地址:https://gitee.com/codingce/codingce-scrapy


相关文章

  • Linux配置HTTP服务

    Linux配置HTTP服务,配置Linux初级httpd服务...
  • Python处理Excel数据-pandas篇

    Python处理Excel数据-pandas篇,在计算机编程中,pandas是Python编程语言的用于数据操纵和分析的软件库。特别是,它提供操纵数值表格和时间序列的数据结构和运算操作。它的名字衍生自术语“面......

网友评论

快盘下载暂未开通留言功能。

关于我们| 广告联络| 联系我们| 网站帮助| 免责声明| 软件发布

Copyright 2019-2029 【快快下载吧】 版权所有 快快下载吧 | 豫ICP备10006759号公安备案:41010502004165

声明: 快快下载吧上的所有软件和资料来源于互联网,仅供学习和研究使用,请测试后自行销毁,如有侵犯你版权的,请来信指出,本站将立即改正。