Привет, друзья!
Нужен ваш профессиональный совет: чем современный питонист должен парсить сайты?
Поводом для обращения к аудитории для меня послужило открытие либы pyquery, которая позволяет делать jqurey-style запросы по xml-документам. Я вдруг осознал, что есть много нетрадиционных, но весьма удобных подходов к проблемме.
А какие интересные и удобные способы парсинга известны вам?
Если документы не слишком большие —BeautifulSoup. Не?
ОтветитьУдалитьРегэкспами.
ОтветитьУдалитьscrapy
ОтветитьУдалитьscrapy
ОтветитьУдалитьhttp://grablib.org - это обёртка над pycurl/lxml. pyquery - кстати, это тоже обёртка над lxml
ОтветитьУдалитьНезависимо от использования pyquery или grab, современный питонист должен знать lxml, как единственную адекватную библиотеку для парсинга lxml/html.
Григорий, поправь кодировку на grablib.org.
ОтветитьУдалитьеще на хабре что-то такое проскакивало - http://habrahabr.ru/blogs/python/127584/
ОтветитьУдалитьhttp://scrapy.org/
ОтветитьУдалитьМне больше нравится lxml:
ОтветитьУдалитьfrom lxml.html import parse
root = parse(url).getroot()
results = root.cssselect(".company-data h1")
Асинхроный Grab, уже использовал в парсинге десятка сайтов, остались только позитивные впечатления.
ОтветитьУдалитьperl и только он)
ОтветитьУдалить