python – BeautifulSoup webscraper问题:找不到某些div / table

我有抓刮pro-football-reference.com的问题.我正在尝试访问“Team Offense”表,但似乎无法定位div / table.
我能做的最好的事情是:

soup.find('div', {'id':'all_team_stats})

它不返回表,也不是直接的div包装器.以下尝试返回“无”:

soup.find('div', {'id':'div_team_stats'})
soup.find('table', {'id':'team_stats'})

我已经通过以下方式抓取了不同的页面:

soup.find('table', {'id':'table_id})

但我无法弄清楚为什么它不在这个页面上工作.以下是我一直在使用的代码.任何帮助深表感谢!

from bs4 import BeautifulSoup
import urllib2

def make_soup(url):
    page = urllib2.urlopen(url)
    soupdata = BeautifulSoup(page, 'lxml')
    return soupdata

def get_player_totals():
    soup = make_soup("http://www.pro-football-reference.com/years/2015/")

    tableStats = soup.find('table', {'id':'team_stats'})

    return tableStats

print get_player_totals()

编辑:

谢谢各位的帮助.以下两种解决方案都取得了成功.非常感激!

解决方法:

这里有几点想法:首先,正如评论中所提到的,acutal表已被注释掉,并且本身不是DOM的一部分(无法通过解析器adhoc访问).
在这种情况下,您可以循环查找找到的注释并尝试通过正则表达式获取信息(尽管这已经过大量讨论,并且在*,see here for more information上大多不受欢迎).最后,但并非最不重要的,我会推荐requests而不是urllib2.

话虽这么说,这是一个工作代码示例:

from bs4 import BeautifulSoup, Comment
import requests, re

def make_soup(url):
    r = requests.get(url)
    soupdata = BeautifulSoup(r.text, 'lxml')
    return soupdata

soup = make_soup("http://www.pro-football-reference.com/years/2015/")

# get the comments
comments = soup.findAll(text=lambda text:isinstance(text, Comment))

# look for table with the id "team_stats"
rx = re.compile(r'<table.+?id="team_stats".+?>[\s\S]+?</table>')
for comment in comments:
    try:
        table = rx.search(comment.string).group(0)
        print(table)
        # break the loop if found
        break
    except:
        pass

总是喜欢解析器解决方案,特别是正则表达式部分非常容易出错.

上一篇:python bs4 BeautifulSoup


下一篇:python – 如何使用BeautifulSoup提取div的属性值