Skip to content

A Scrapy crawlSpider for crawling the information of postgraduate schools in China

Notifications You must be signed in to change notification settings

VanGy-code/postGraduate

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

54 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Scrapy for information of postgraduate college(Scrapy通用爬虫爬取国内考研信息资讯)

language platform codebeat badge GitHub repo size PyPI - Python Version

一、项目目标


  本项目的主要目标是爬取中国研究生招生信息网的信息库。其中包括院校信息的院校简介、下属学院设置、招生政策布、网上报考公告以及调剂政策。专业信息包括,专业所属科目、专业门目、专业代码称。

  其次,通过爬去其他提供可靠研究生招生信息的网站,如考试点,加以对比和筛选数据,增强数据可靠性。

二、编译环境以及准备工作


1.python

2.Scrapy 框架

  Scrapy 是一个基于 Twisted 的异步处理框架,是纯Python 实现的爬虫框架,其架构清晰,板块之间的榈合程度低,可扩展性极强,可以灵活完成各种需求。我们只需要定制开发几个模块就可以轻松实现一个爬虫。

3.Splash

  

4.MySQL

三、程序结构


四、爬取思路


  我们需要大规模爬取研招网的院校库以及专业库的信息。

  以研招网首页为起点,爬取信息库中的院校库和专业库中的信息。院校库中采用的爬取方法是,以院校库列表为起点爬取爬取各大院校在研招网的信息主页,再由各大院校在研招网的信息主页爬取各大院校的院校简介、招生简章、信息发布、网报公告、调剂政策,依次类推,递归爬取院校信息。

  专业库相对院校库较特殊,专业列表是通过JavaScript加载的,所以需要Splash 执行页面渲染。这里采用的爬取策略是, 利用Splash 先将页面渲染返回给Scrapy,在获取到学位类型后,将学位类型的Id以post的形式发送给网站,返回该学位下设学科的信息,再通过将学科id以post形式发送给网站,返回该学科下设门类信息,同理,将门类id以post形式发送给网站即可获得该门类下设所以学科的信息。依次类推,递归爬取专业信息

五、爬取分析


六、项目进度


(一)新建项目及项目配置


(二)定义 Rule(获取链接的规则)


1.研招网院校库链接筛选规则:

  • 院校库链接筛选规则

  • 院校信息页面链接筛选规则

  • 院校库列表翻页链接筛选规则

  • 院校信息页院校简介链接筛选规则

  • 招生政策列表链接筛选规则

  • 招生政策详情页链接筛选规则

  • 网报公告详情页链接筛选规则

  • 信息发布列表页链接筛选规则

  • 信息发布详情页链接筛选规则

  • 调剂办法列表页链接筛选规则

  • 调剂办法详情页链接筛选规则


2.研招网专业库链接筛选规则:

  • 专业库链接筛选规则
  • 专业库专业列表链接筛选规则
  • 专业库专业主页链接筛选规则

(三)解析页面(数据提取)


1.院校库页面数据提取:

  • 使用BeautifulSoup,提取院校库列表中院校基本信息
  • 使用BeautifulSoup,提取院校简介详情
  • 使用BeautifulSoup,提取招生政策详情
  • 使用BeautifulSoup,提取网报公告详情
  • 使用BeautifulSoup,提取调剂办法详情

2.专业库页面数据提取:

  • 使用BeautifulSoup,提取 门类/类别
  • 使用Selector,提取 学科/类别
  • 使用Selector,提取专业名称、专业代码

(四)数据清洗


  直接从页面上获取的数据中,除了我吗需要的信息之外还存在一些因网页编写或者信息输入时发生错误所导致的字符异常以及一些转义字符。为了保持数据的有效性,我们用re库对字符串进行数据清洗.

  • 使用re.sub(),清洗院校基本信息
  • 使用re.sub(),清洗专业信息

(五)通用配置抽取


(六)数据存储


1.数据库设计

  UML图:

2.数据库建表

  • 建立MySQL 数据库
  • 插入基本表

3.使用Item Pipeline存储到MySQL:

  • MysqlPipeline功能实现

七、使用说明


About

A Scrapy crawlSpider for crawling the information of postgraduate schools in China

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages