Никак не могу дописать документацию по Grab:Spider — это часть библиотеки Grab — для написания асинхронных пауков. Подумал выкладывать куски документации на хабрахабр. Думаю, с некоторым фидбэком дело быстрей пойдёт. На данный момент в документации есть лишь введение, описывающие в общих чертах, что за это за зверь такой Grab:Spider. Его и выкладываю.
Модуль Spider это фреймворк позволяющий описать парсер сайта как набор функций обработчиков, где каждый обработчик отвечает за специчный тип запроса. Например, при парсинге форума у вас будут обработчики для главной страницы, страницы подфорума, страницы топика, страницы профиля участника. Изначально такая структура парсера была разработана в силу ограничений асинхронного режима, но впоследствии оказалось, что писать парсеры в таком структурированном виде (один запрос — одна функция) очень удобно.
Модуль Spider работает асинхронно. Это значит что всегда есть только один рабочий поток программы. Для множественных запросов не создаются ни треды, ни процессы. Все созданные запросы обрабатываются библиотекой multicurl. Суть асинхронного подхода в том, что программа создаёт сетевые запросы и ждёт сигналы о готовности ответа на эти запроссы. Как только готов ответ, то вызывается функция-обработчик, которую мы привязали к конкретному запросу. Асинхронный подход позволяет обрабатывать большее количество одновременных соединений чем подход, связанный с созданием тредов или процессов т.к. память занята всего одним процессом и процессору не нужно постоянно переключаться между множество процессов.
Есть один нюанс, который будет очень непривычен тем, кто привык работать в синхронном стиле. Асинхронный подход позволяет вызывать функции обработчики при готовности сетевого ответа. Если алгоритм парсинга состоит из нескольких последовательных сетевых запросов, то нужно где-то хранить информацию о том, для чего мы создали сетевой запрос и что с ним делать. Spider позволяет достаточно удобно решать эту проблему.
Каждая функция-обработчки получает два входных аргумента. Первый аргумент — это объект Grab, в котором хранится информация о сетевом ответе. Вся прелесть Spider модуля в том, что он сохранил знакомый вам интерфейс для работы с синхронными запросами. Второй аргумент функции-обработчика это Task объект. Task объекты создаются в Spideer для того, чтобы добавить в очередь сетевых запросов новое задание. С помощью Task объекта можно сохранять промежуточные данные между множественными запросами.
Рассмотрим пример простого парсера. Допустим, мы хотим зайти на сайт habrahabr.ru, считать заголовки последних новостей, далее для каждого заголовка найти картинку с помощью images.yandex.ru и сохранить полученные данные в файл:
# coding: utf-8
import urllib
import csv
import logging
from grab.spider import Spider, Task
class ExampleSpider(Spider):
# Список страниц, с которых Spider начнёт работу
# для каждого адреса в этом списке будет сгенерировано
# задание с именем initial
initial_urls = ['http://habrahabr.ru/']
def prepare(self):
# Подготовим файл для записи результатов
# Функция prepare вызываетя один раз перед началом
# работы парсера
self.result_file = csv.writer(open('result.txt', 'w'))
# Этот счётчик будем использовать для нумерации
# найденных картинок, чтобы создавать им простые имена файлов.
self.result_counter = 0
def task_initial(self, grab, task):
print 'Habrahabr home page'
# Это функция обработчик для заданий с именем initial
# т.е. для тех заданий, чтобы были созданы для
# адреов указанных в self.initial_urls
# Как видите интерфейс работы с ответом такой же
# как и в обычном Grab
for elem in grab.xpath_list('//h1[@class="title"]/a[@class="post_title"]'):
# Для каждой ссылки-заголовка создадим новое задание
# с именем habrapost
# Обратите внимание, что мы создаём задания с помощью
# вызова yield - это сделано исключительно ради красоты
# По-сути это равносильно следующему коду:
# self.add_task(Task('habrapost', url=...))
yield Task('habrapost', url=elem.get('href'))
def task_habrapost(self, grab, task):
print 'Habrahabr topic: %s' % task.url
# Эта функция, как вы уже догадываетесь
# получает результаты обработки запросов, кооторые
# мы создали для кадого хабратопика, найденного на
# главной странице хабры
# Для начала сохраним адрес и заголовк топика в массив
post = {
'url': task.url,
'title': grab.xpath_text('//h1/span[@class="post_title"]'),
}
# Теперь создадим запрос к поиску картинок яндекса, обратите внимание,
# что мы передаём объекту Task информацию о хабрапосте. Таким образом
# в функции обработки поиска картинок мы будем знать, для какого именно
# хабрапоста мы получили результат поиска картинки. Дело в том, что все
# нестандартные аргументы конструктора Task просто запоминаются в созданном
# объекте и доступны в дальнейшем как его атррибуты
query = urllib.quote_plus(post['title'].encode('utf-8'))
search_url = 'http://images.yandex.ru/yandsearch?text=%s&rpt=image' % query
yield Task('image_search', url=search_url, post=post)
def task_image_search(self, grab, task):
print 'Images search result for %s' % task.post['title']
# В этой функции мы получили результат обработки поиска картинок, но
# это ещё не сама картинка! Это только список найденных картинок,
# Теперь возьмём адрес первой картинки и создадим задание для её
# скачивания. Не забудем передать информацию о хабрапосте, для которого
# мы ищем картинку, эта информация хранится в `task.post`.
image_url = grab.xpath_text('//div[@class="b-image"]/a/img/@src')
yield Task('image', url=image_url, post=task.post)
def task_image(self, grab, task):
print 'Image downloaded for %s' % task.post['title']
# Это последнняя функция в нашем парсере.
# Картинка получена, можно сохранить результат.
path = 'images/%s.jpg' % self.result_counter
grab.response.save(path)
self.result_file.writerow([
task.post['url'].encode('utf-8'),
task.post['title'].encode('utf-8'),
path
])
# Не забудем увеличить счётчик ответов, чтобы
# следующая картинка записалась в другой файл
self.result_counter += 1
if __name__ == '__main__':
logging.basicConfig(level=logging.DEBUG)
# Запустим парсер в многопоточном режиме - два потока
# Можно больше, только вас яндекс забанит
# Он вас и с двумя то потоками забанит, если много будете его беспокоить
bot = ExampleSpider(thread_number=2)
bot.run()
В примере рассмотрены простейший парсеры и не затронуты очень много возможностей, которые умееет Spider. Читайте о них в подробной документации. Обратите внимание, что часть функций обработчиков отработают с ошибкой, например, потому что, яндекс ничего не найдёт по заданному запросу.
Далее я планирую описать различные способы создания Task-объектов, обработку сетевых ошибок и фунционал повтороного выполнения заданий, остановленных по ошибке.
Автор: itforge