使用python scrapy框架抓取cnblog 的文章内容
ccwgpt 2024-10-28 15:05 23 浏览 0 评论
scrapy 的文档请移驾到 http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/install.html
1、准备工作
安装python 、Spyder 、scrapy 如果想要数据直接入mysql 还需要安装python的 MySQLdb 依赖包
本人mac操作系统 安装MySQLdb的时候出现了些小问题 最后是重装了openssl 才通过的
Spyder 是编写python的ide
2、新建项目
cd /usr/local/var/www/python
执行 scrapy startproject myblog 则新建了一个名称为myblog 的项目,执行完成后 你的python文件夹就出现了myblog文件夹了
cnblog_spider.py 是后来我新建的 后缀.pyc 是执行python后的编译的文件 其他的都是执行创建项目后就自动生成的文件了
3、编写爬虫脚本 cnblog_spider.py
分析cnblog的网站 使用scrapy shell http://www.cnblogs.com/threemore/
使用google浏览器 找到你想要抓取的数据 话不多说 直接上代码,我抓取了cnblog文章的标题,链接 时间,文章的id,正文内容
# -*- coding: utf-8 -*- from scrapy.spider import Spider from scrapy.selector import Selector from myblog.items import MyblogItem import scrapy import re #SITE_URL = 'http://www.cnblogs.com/threemore/' #抓取在cnblog中的文章 class CnblogSpider(Spider): #抓取名称 执行命令的时候后面的名称 scrapy crawl cnblog 中的cnblog 就是在这里定义的 name ='cnblog' allow_domains = ["cnblogs.com"] #定义抓取的网址 start_urls = [ 'http://www.cnblogs.com/threemore/' ] #执行函数 def parse(self,response): sel = Selector(response) self.log("begins % s" % response.url) article_list = sel.css('div.postTitle').xpath('a') #抓取列表里面的内容也地址后循环抓取列表的内容页面数据 for article in article_list: url = article.xpath('@href').extract[0] self.log("list article url: % s" % url) #继续抓取内容页数据 yield scrapy.Request(url,callback=self.parse_content) #如果有下一页继续抓取数据 next_pages = sel.xpath('//*[@id="nav_next_page"]/a/@href') if next_pages : next_page = next_pages.extract[0] #print next_page self.log("next_page: % s" % next_page) #自己调用自己 类似php 函数的当中的递归 yield scrapy.Request(next_page,callback=self.parse) #内容页抓取 def parse_content(self,response): self.log("detail views: % s" % response.url) #定义好的item 只需要在items 文件中定义抓取过来的数据对应的字段 item = MyblogItem #xpath 寻找需要在页面中抓取的数据 item['link'] = response.url #正则匹配出文章在cnblog中的id m = re.search(r"([0-9])+", item['link']) if m: item['aid'] = m.group(0) else: item['aid'] = 0; item['title'] = response.xpath('//*[@id="cb_post_title_url"]/text').extract[0] item['content'] = response.xpath('//*[@id="cnblogs_post_body"]').extract[0] item['date'] = response.xpath('//*[@id="post-date"]').extract #print item['content'] yield item
4、数据入库
编写管道程序pipelines.py,管道就是存储数据使用的 爬虫文件最后yield 的item 会将数据给到pipelines.py 这个文件
为了测试和正式环境的方便 我就配置了两份mysql的登陆信息
每次执行前 都将即将入库的数据表给清空了一次 防止重复采集 ,直接看代码
# -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html #需要在setting.py文件中设置ITEM_PIPELINES 将前面的注释打开配置成当前的文件即可 #当前的管道就是这么配置 'myblog.pipelines.MyblogPipeline': 300, import MySQLdb,datetime DEBUG = True #定义测试环境和正式环境中的mysql if DEBUG: dbuser = 'root' dbpass = 'root' dbname = 'test' dbhost = '127.0.0.1' dbport = '3306' else: dbuser = 'root' dbpass = 'root' dbname = 'test' dbhost = '127.0.0.1' dbport = '3306' class MyblogPipeline(object): #初始化 链接数据库 def __init__(self): self.conn = MySQLdb.connect(user=dbuser, passwd=dbpass, db=dbname, host=dbhost, charset="utf8", use_unicode=True) self.cursor = self.conn.cursor self.cursor.execute('truncate table test_cnbog') self.conn.commit #执行sql语句 def process_item(self, item, spider): try: self.cursor.execute("""INSERT INTO test_cnbog (title, link, aid,content,date) VALUES (%s,%s,%s,%s,%s)""", ( item['title'].encode('utf-8'), item['link'].encode('utf-8'), item['aid'], item['content'].encode('utf-8'), datetime.datetime.now, ) ) self.conn.commit except MySQLdb.Error, e: print u'Error %d: $s' % (e.args[0],e.args[1]) return item
5、配置setting.py
开启入库的配置
找到 ITEM_PIPELINES 将前面的注释去掉 看到代码上面的注释的链接了么 直接访问看下是干啥的就行了 官方网站上看实例好像是将数据写入到monge里面去了
本人对monge 不熟悉 直接放到mysql去了 大致意思就是说pipelines.py 这个文件就是讲你采集的数据存放在什么地方
# Configure item pipelines # See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'myblog.pipelines.MyblogPipeline': 300, }
6、执行采集
在项目的文件夹下面执行 :scrapy crawl myblog
特意将crawl 拿百度翻译看了下 啥意思 原来就是“爬行”
最后展示下采集回来的数据
15条没有采集到数据 aid 程序就是拿正则随便处理了下
相关推荐
- 如何高效实现API接口的自动化测试?
-
实现API接口的自动化测试是一个多步骤的过程,涉及需求分析、测试用例设计、环境搭建、脚本编写、执行测试、结果分析和持续集成等多个环节。选择合适的工具和框架也是成功的关键。嘿,咱来聊聊实现API接口自动...
- 总结100+前端优质库,让你成为前端百事通
-
1年多时间,陆陆续续整理了一些常用且实用的开源项目,方便大家更高效地学习和工作.js相关库js常用工具类「lodash」一个一致性、模块化、高性能的JavaScript实用工具库。「xij...
- 混合开发到底怎么个混法?(混合开发rn)
-
引言最近几年混合开发越来越火,从PhoneGap到Cordova到Ionic,再到ReactNative,到Flutter。同时在搜索引擎中诸如IonicVSReactNativeRN和Weex+...
- 无所不能,将 Vue 渲染到嵌入式液晶屏
-
该文章转载自公众号@前端时刻,https://mp.weixin.qq.com/s/WDHW36zhfNFVFVv4jO2vrA前言之前看了雪碧大佬的将React渲染到嵌入式液晶屏觉得很有意思,R...
- 【直接收藏】前端 VUE 高阶面试题(一)
-
说说vue动态权限绑定渲染列表(权限列表渲染)首先请求服务器,获取当前用户的权限数据,比如请求this.$http.get("rights/list");获取到权限数据之后,在列表中...
- Vue采用虚拟DOM的目的是什么?(vue2 虚拟dom)
-
虚拟DOM更新其实效率并不像大家想象中的那么高,而且React官方也从来没说过虚拟DOM效率有多高,相反React虚拟DOM的实现也不是所有虚拟DOM产品中最好的。但是通过虚拟D...
- 什么是 JavaScript?(什么是党的旗帜)
-
本文首发自「慕课网」,想了解更多IT干货内容,程序员圈内热闻,欢迎关注!作者|慕课网精英讲师然冬JavaScript(JS)是一种具有函数优先的轻量级,解释型或即时编译型的编程语言。(MDN...
- Weex在内涵发现页中的工程实践(weex唯客交易所官网)
-
React-Native和Weex是目前最为火热的两个客户端跨平台解决方案。从去年2016年9月份开始,IES在抖音产品中应用了ReactNative,中途遇到了很多的问题,尤其是长列表的性能问题一...
- 新恒汇:公司主要业务包括智能卡业务、蚀刻引线框架业务以及物联网eSIM芯片封测业务
-
证券日报网讯新恒汇7月3日在互动平台回答投资者提问时表示,公司主要业务包括智能卡业务、蚀刻引线框架业务以及物联网eSIM芯片封测业务。具体请关注公司公告和公开披露信息。(编辑王雪儿)...
- “移”科普——什么是物联网?(移动设备物联网物联网应用实例)
-
物联网(InternetofThings,简称IoT)是指通过互联网将物理世界与数字世界相连接,实现物与物之间的智能互联的网络。它是一种新型的信息通信技术,通过传感器、嵌入式系统、网络技术等手段,...
- 如何自己搭建一个物联网平台?(自建物联网云平台)
-
自己搭建一个物联网(IoT)平台需要涉及多个关键步骤,包括硬件设备的选择、软件开发、网络通信、安全性设计以及数据管理。以下是搭建物联网平台的基本流程:1.确定物联网平台架构一个完整的物联网平台通常包...
- 物联网数据接入篇-应用层 Modbus(5)
-
前四篇文章讲述的是TCP/IP模型中的网络接口层、网络层、传输层、应用层一,这里到了第四层应用层二。由于协议比较多,就分开篇来介绍。这篇讲Modbus协议,后面再讲MQTT协议、CoAP协议、...
- 乐鑫ESP32-C5全面量产:行业首款双频Wi-Fi 6的RISC-V SoC
-
IT之家5月2日消息,乐鑫信息科技4月30日宣布,ESP32-C5现已全面进入量产。ESP32-C5宣称是行业首款2.4&5GHz双频Wi-Fi6的RISC-...
- Vue Shop Admin:强大而易用的后台管理系统模板
-
VueShopAdmin是一个基于Vue.js框架的后台管理系统模板。它具有简洁、易用和美观的特点,非常适合开发人员用于快速构建各种类型的管理系统。这个模板使用了最新的技术,如Vue3、V...
- 基于Prometheus的自动化巡检(prometheus自动发现详解)
-
!!大家好,我是乔克,一个爱折腾的运维工程,一个睡觉都被自己丑醒的云原生爱好者。作者:乔克公众号:运维开发故事道路千万条,安全第一条。操作不规范,运维两行泪。前言目前,大部分公司都采用Promet...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- 框架图 (58)
- flask框架 (53)
- quartz框架 (51)
- abp框架 (47)
- jpa框架 (47)
- springmvc框架 (49)
- 分布式事务框架 (65)
- scrapy框架 (56)
- shiro框架 (61)
- 定时任务框架 (56)
- java日志框架 (61)
- JAVA集合框架 (47)
- mfc框架 (52)
- abb框架断路器 (48)
- ui自动化框架 (47)
- beego框架 (52)
- java框架spring (58)
- grpc框架 (55)
- ppt框架 (48)
- 内联框架 (52)
- cad怎么画框架 (58)
- ps怎么画框架 (47)
- ssm框架实现登录注册 (49)
- oracle字符串长度 (48)
- oracle提交事务 (47)