Здравствуй, наш новый товарищ!
Каждый, кто хочет присоединиться к проекту, должен внести свой, пусть и небольшой, вклад. Для этого лучше всего подходят задачи в разделе issues с пометкой good first issue.
В данный момент нам нужно разработать много парсеров, с чего и советуем начать.
Для парсинга мы используем довольно мощный фреймворк scrapy, на основе которого сделали собственное решение, которое позволило стандартизировать парсеры и упростить их поддержку. Советуем тебе ознакомиться с мультипарсерами(multi_site_parser) и базовым спайдером (BaseSpiderComponent), а в качестве образца/шаблона взять NsregDomainshopSpider. Тебе нужно будет подобрать правильные xpath для твоего сайта, и, возможно, сделать один или два перехода на страницы с ценами(такое бывает, когда цены разбросаны по сайту, но это встречается редко). Где и как найти цену на сайте - решать уже тебе) :)
Требования к пулл-реквесту:
- Ты сделал fork репозитория и открыл пулл-реквест в ветку dev
- После начала работы ты написал в обсуждении issue, что принял сайт в работу (чтобы не было накладок, когда двое сделали один и тот же парсер)
- Пулл-реквест прошел проверку линтером в гитхаб (вкладка checks)
- Твой парсер должен запускаться
- Он должен корректно находить три цены: на регистрацию, продление и перенос доменного имени в зоне .ru
- Найденные цены нужно складывать в базу данных
Подробные инструкции по установке проекта и запуску на локальной машине, а также по разработке парсеров находятся в README проекта
Если останутся вопросы - не стесняйся писать в обсуждении issue, мы постараемся ответить на все!
Обрати внимание, что значительная часть парсеров устарела, и использует файл grabber/nsreg/utils.py и utils_spider.py, но при этом не использует BaseSpiderComponent. Эти парсеры будут удалены либо замещены новыми.