Skip to content

Commit 2024a8e

Browse files
authored
Update README.md
1 parent 1f4ac16 commit 2024a8e

File tree

1 file changed

+19
-19
lines changed

1 file changed

+19
-19
lines changed

README.md

Lines changed: 19 additions & 19 deletions
Original file line numberDiff line numberDiff line change
@@ -12,7 +12,7 @@
1212
```
1313
# <p align="center">PythonCrawler: 用 python编写的爬虫项目集合</p>
1414
<p align="center">
15-
<a href="https://github.com/Fenghuapiao/PythonCrawler/blob/master/LICENSE">
15+
<a href="https://github.com/yhangf/PythonCrawler/blob/master/LICENSE">
1616
<img src="https://img.shields.io/cocoapods/l/EFQRCode.svg?style=flat">
1717
</a>
1818
<a href="">
@@ -21,45 +21,45 @@
2121
<a href="https://github.com/python/cpython">
2222
<img src="https://img.shields.io/badge/language-python-ff69b4.svg">
2323
</a>
24-
<a href="https://github.com/Fenghuapiao/PythonCrawler">
25-
<img src="https://img.shields.io/github/stars/Fenghuapiao/PythonCrawler.svg?style=social&label=Star">
24+
<a href="https://github.com/yhangf/PythonCrawler">
25+
<img src="https://img.shields.io/github/stars/yhangf/PythonCrawler.svg?style=social&label=Star">
2626
</a>
27-
<a href="https://github.com/Fenghuapiao/PythonCrawler">
28-
<img src="https://img.shields.io/github/forks/Fenghuapiao/PythonCrawler.svg?style=social&label=Fork">
27+
<a href="https://github.com/yhangf/PythonCrawler">
28+
<img src="https://img.shields.io/github/forks/yhangf/PythonCrawler.svg?style=social&label=Fork">
2929
</a>
3030
</p>
3131

3232

3333

3434
# spiderFile模块简介
3535

36-
##### 1. [baidu_sy_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/baidu_sy_img.py): 抓取百度的‘高清摄影’图片。
36+
##### 1. [baidu_sy_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/baidu_sy_img.py): 抓取百度的‘高清摄影’图片。
3737

38-
##### 2. [baidu_wm_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/baidu_wm_img.py): 抓取百度图片‘唯美意境’模块。
38+
##### 2. [baidu_wm_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/baidu_wm_img.py): 抓取百度图片‘唯美意境’模块。
3939

40-
##### 3. [get_photos.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/get_photos.py): 抓取百度贴吧某话题下的所有图片。
40+
##### 3. [get_photos.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/get_photos.py): 抓取百度贴吧某话题下的所有图片。
4141

42-
##### 4. [get_web_all_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/get_web_all_img.py): 抓取整个网站的图片。
42+
##### 4. [get_web_all_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/get_web_all_img.py): 抓取整个网站的图片。
4343

44-
##### 5. [lagou_position_spider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/lagou_position_spider.py): 任意输入关键字,一键抓取与关键字相关的职位招聘信息,并保存到本地文件。
44+
##### 5. [lagou_position_spider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/lagou_position_spider.py): 任意输入关键字,一键抓取与关键字相关的职位招聘信息,并保存到本地文件。
4545

46-
##### 6. [student_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/student_img.py): 基于本学校官网的url漏洞,获取所有注册学生学籍证件照。
46+
##### 6. [student_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/student_img.py): 基于本学校官网的url漏洞,获取所有注册学生学籍证件照。
4747

48-
##### 7. [JD_spider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/JD_spider.py): 大批量抓取京东商品id和标签。
48+
##### 7. [JD_spider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/JD_spider.py): 大批量抓取京东商品id和标签。
4949

50-
##### 8. [ECUT_pos_html.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/ECUT_pos_html.py): 抓取学校官网所有校园招聘信息,并保存为html格式,图片也会镶嵌在html中。
50+
##### 8. [ECUT_pos_html.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/ECUT_pos_html.py): 抓取学校官网所有校园招聘信息,并保存为html格式,图片也会镶嵌在html中。
5151

52-
##### 9. [ECUT_get_grade.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/ECUT_get_grade.py): 模拟登陆学校官网,抓取成绩并计算平均学分绩。
52+
##### 9. [ECUT_get_grade.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/ECUT_get_grade.py): 模拟登陆学校官网,抓取成绩并计算平均学分绩。
5353

54-
##### 10. [github_hot.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/github_hot.py): 抓取github上面热门语言所对应的项目,并把项目简介和项目主页地址保存到本地文件。
54+
##### 10. [github_hot.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/github_hot.py): 抓取github上面热门语言所对应的项目,并把项目简介和项目主页地址保存到本地文件。
5555

56-
##### 11.[xz_picture_spider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/xz_picture_spider.py): 应一位知友的请求,抓取某网站上面所有的写真图片。
56+
##### 11.[xz_picture_spider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/xz_picture_spider.py): 应一位知友的请求,抓取某网站上面所有的写真图片。
5757

58-
##### 12.[one_img.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/one_img.py): 抓取one文艺网站的图片。
58+
##### 12.[one_img.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/one_img.py): 抓取one文艺网站的图片。
5959

60-
##### 13.[get_baike.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/get_baike.py): 任意输入一个关键词抓取百度百科的介绍。
60+
##### 13.[get_baike.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/get_baike.py): 任意输入一个关键词抓取百度百科的介绍。
6161

62-
##### 14.[kantuSpider.py](https://github.com/Fenghuapiao/PythonCrawler/blob/master/spiderFile/kantuSpider.py): 抓取看图网站上的所有图片。
62+
##### 14.[kantuSpider.py](https://github.com/yhangf/PythonCrawler/blob/master/spiderFile/kantuSpider.py): 抓取看图网站上的所有图片。
6363

6464
---
6565
# spiderAPI模块简介

0 commit comments

Comments
 (0)