|
12 | 12 | ```
|
13 | 13 | # <p align="center">PythonCrawler: 用 python编写的爬虫项目集合</p>
|
14 | 14 | <p align="center">
|
15 |
| - <a href="https://github.com/Fenghuapiao/PythonCrawler/blob/master/LICENSE"> |
| 15 | + <a href="https://github.com/yhangf/PythonCrawler/blob/master/LICENSE"> |
16 | 16 | <img src="https://img.shields.io/cocoapods/l/EFQRCode.svg?style=flat">
|
17 | 17 | </a>
|
18 | 18 | <a href="">
|
|
21 | 21 | <a href="https://github.com/python/cpython">
|
22 | 22 | <img src="https://img.shields.io/badge/language-python-ff69b4.svg">
|
23 | 23 | </a>
|
24 |
| - <a href="https://github.com/Fenghuapiao/PythonCrawler"> |
25 |
| - <img src="https://img.shields.io/github/stars/Fenghuapiao/PythonCrawler.svg?style=social&label=Star"> |
| 24 | + <a href="https://github.com/yhangf/PythonCrawler"> |
| 25 | + <img src="https://img.shields.io/github/stars/yhangf/PythonCrawler.svg?style=social&label=Star"> |
26 | 26 | </a>
|
27 |
| - <a href="https://github.com/Fenghuapiao/PythonCrawler"> |
28 |
| - <img src="https://img.shields.io/github/forks/Fenghuapiao/PythonCrawler.svg?style=social&label=Fork"> |
| 27 | + <a href="https://github.com/yhangf/PythonCrawler"> |
| 28 | + <img src="https://img.shields.io/github/forks/yhangf/PythonCrawler.svg?style=social&label=Fork"> |
29 | 29 | </a>
|
30 | 30 | </p>
|
31 | 31 |
|
32 | 32 |
|
33 | 33 |
|
34 | 34 | # spiderFile模块简介
|
35 | 35 |
|
36 |
| -##### 1. [baidu_sy_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/baidu_sy_img.py): 抓取百度的‘高清摄影’图片。 |
| 36 | +##### 1. [baidu_sy_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/baidu_sy_img.py): 抓取百度的‘高清摄影’图片。 |
37 | 37 |
|
38 |
| -##### 2. [baidu_wm_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/baidu_wm_img.py): 抓取百度图片‘唯美意境’模块。 |
| 38 | +##### 2. [baidu_wm_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/baidu_wm_img.py): 抓取百度图片‘唯美意境’模块。 |
39 | 39 |
|
40 |
| -##### 3. [get_photos.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/get_photos.py): 抓取百度贴吧某话题下的所有图片。 |
| 40 | +##### 3. [get_photos.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/get_photos.py): 抓取百度贴吧某话题下的所有图片。 |
41 | 41 |
|
42 |
| -##### 4. [get_web_all_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/get_web_all_img.py): 抓取整个网站的图片。 |
| 42 | +##### 4. [get_web_all_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/get_web_all_img.py): 抓取整个网站的图片。 |
43 | 43 |
|
44 |
| -##### 5. [lagou_position_spider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/lagou_position_spider.py): 任意输入关键字,一键抓取与关键字相关的职位招聘信息,并保存到本地文件。 |
| 44 | +##### 5. [lagou_position_spider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/lagou_position_spider.py): 任意输入关键字,一键抓取与关键字相关的职位招聘信息,并保存到本地文件。 |
45 | 45 |
|
46 |
| -##### 6. [student_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/student_img.py): 基于本学校官网的url漏洞,获取所有注册学生学籍证件照。 |
| 46 | +##### 6. [student_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/student_img.py): 基于本学校官网的url漏洞,获取所有注册学生学籍证件照。 |
47 | 47 |
|
48 |
| -##### 7. [JD_spider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/JD_spider.py): 大批量抓取京东商品id和标签。 |
| 48 | +##### 7. [JD_spider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/JD_spider.py): 大批量抓取京东商品id和标签。 |
49 | 49 |
|
50 |
| -##### 8. [ECUT_pos_html.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/ECUT_pos_html.py): 抓取学校官网所有校园招聘信息,并保存为html格式,图片也会镶嵌在html中。 |
| 50 | +##### 8. [ECUT_pos_html.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/ECUT_pos_html.py): 抓取学校官网所有校园招聘信息,并保存为html格式,图片也会镶嵌在html中。 |
51 | 51 |
|
52 |
| -##### 9. [ECUT_get_grade.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/ECUT_get_grade.py): 模拟登陆学校官网,抓取成绩并计算平均学分绩。 |
| 52 | +##### 9. [ECUT_get_grade.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/ECUT_get_grade.py): 模拟登陆学校官网,抓取成绩并计算平均学分绩。 |
53 | 53 |
|
54 |
| -##### 10. [github_hot.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/github_hot.py): 抓取github上面热门语言所对应的项目,并把项目简介和项目主页地址保存到本地文件。 |
| 54 | +##### 10. [github_hot.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/github_hot.py): 抓取github上面热门语言所对应的项目,并把项目简介和项目主页地址保存到本地文件。 |
55 | 55 |
|
56 |
| -##### 11.[xz_picture_spider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/xz_picture_spider.py): 应一位知友的请求,抓取某网站上面所有的写真图片。 |
| 56 | +##### 11.[xz_picture_spider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/xz_picture_spider.py): 应一位知友的请求,抓取某网站上面所有的写真图片。 |
57 | 57 |
|
58 |
| -##### 12.[one_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/one_img.py): 抓取one文艺网站的图片。 |
| 58 | +##### 12.[one_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/one_img.py): 抓取one文艺网站的图片。 |
59 | 59 |
|
60 |
| -##### 13.[get_baike.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/get_baike.py): 任意输入一个关键词抓取百度百科的介绍。 |
| 60 | +##### 13.[get_baike.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/get_baike.py): 任意输入一个关键词抓取百度百科的介绍。 |
61 | 61 |
|
62 |
| -##### 14.[kantuSpider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/kantuSpider.py): 抓取看图网站上的所有图片。 |
| 62 | +##### 14.[kantuSpider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/kantuSpider.py): 抓取看图网站上的所有图片。 |
63 | 63 |
|
64 | 64 | ---
|
65 | 65 | # spiderAPI模块简介
|
|
0 commit comments