Привет, друзья!
Нужен ваш профессиональный совет: чем современный питонист должен парсить сайты?
Поводом для обращения к аудитории для меня послужило открытие либы pyquery, которая позволяет делать jqurey-style запросы по xml-документам. Я вдруг осознал, что есть много нетрадиционных, но весьма удобных подходов к проблемме.
А какие интересные и удобные способы парсинга известны вам?
11 комментариев:
Если документы не слишком большие —BeautifulSoup. Не?
Регэкспами.
scrapy
scrapy
http://grablib.org - это обёртка над pycurl/lxml. pyquery - кстати, это тоже обёртка над lxml
Независимо от использования pyquery или grab, современный питонист должен знать lxml, как единственную адекватную библиотеку для парсинга lxml/html.
Григорий, поправь кодировку на grablib.org.
еще на хабре что-то такое проскакивало - http://habrahabr.ru/blogs/python/127584/
http://scrapy.org/
Мне больше нравится lxml:
from lxml.html import parse
root = parse(url).getroot()
results = root.cssselect(".company-data h1")
Асинхроный Grab, уже использовал в парсинге десятка сайтов, остались только позитивные впечатления.
perl и только он)
Отправить комментарий