天天看點

beautifulsoup

1、安裝

  pip install beautifulsoup4

  安裝解析器

    pip install lxml

    pip install html5lib

  建議安裝lxml作為解析器,因為速度快,文檔容錯能力強,效率

2、簡單使用

HTML文檔:

<!DOCTYPE html>
<html>
<head>
    <meta content="text/html;charset=utf-8" http-equiv="content-type" />
    <meta content="IE=Edge" http-equiv="X-UA-Compatible" />
    <meta content="always" name="referrer" />
    <link href="https://ss1.bdstatic.com/5eN1bjq8AAUYm2zgoY3K/r/www/cache/bdorz/baidu.min.css" rel="stylesheet" type="text/css" />
    <title>百度一下,你就知道 </title>
</head>
<body link="#0000cc">
  <div id="wrapper">
    <div id="head">
        <div class="head_wrapper">
          <div id="u1">
            <a class="mnav" href="http://news.baidu.com" name="tj_trnews">新聞 </a>
            <a class="mnav" href="https://www.hao123.com" name="tj_trhao123">hao123 </a>
            <a class="mnav" href="http://map.baidu.com" name="tj_trmap">地圖 </a>
            <a class="mnav" href="http://v.baidu.com" name="tj_trvideo">視訊 </a>
            <a class="mnav" href="http://tieba.baidu.com" name="tj_trtieba">貼吧 </a>
            <a class="bri" href="//www.baidu.com/more/" name="tj_briicon" style="display: block;">更多産品 </a>
          </div>
        </div>
    </div>
  </div>
</body>
</html>      

python代碼:

from bs4 import BeautifulSoup

file = open('../pachong.html', 'rb')
html = file.read()
bs = BeautifulSoup(html, "html.parser")
# print(bs.prettify())  # 格式化html結構
print(bs.title)  # 擷取title标簽
print(bs.title.name)  # 擷取title标簽的name
print(bs.title.string)  # 擷取title标簽的文本内容
print(bs.title.get_text())
# print(bs.head)
print(bs.div)  # 擷取第一個div标簽中的所有内容
print(bs.div["id"])  # 擷取第一個div标簽的id的值
print(bs.a)  # 擷取第一個a标簽
print(bs.find_all("a"))  # 擷取所有的a标簽
print(bs.find(id="u1"))  # 擷取id="u1"的标簽
for item in bs.find_all("a"):
    print(item.get("href"))  # 擷取所有的a标簽,并周遊列印a标簽中的href的值
for item in bs.find_all("a"):
    print(item.string)  # 擷取所有的a标簽,并周遊列印a标簽的文本内容      

Beautiful Soup将複雜HTML文檔轉換成一個複雜的樹形結構,每個節點都是Python對象,所有對象可以歸納為4種: Tag , NavigableString , BeautifulSoup , Comment .

Tag:

通俗點講就是HTML中的一個個标簽,例如:

from bs4 import BeautifulSoup 
file = open('../pachong.html', 'rb') 
html = file.read() 
bs = BeautifulSoup(html,"html.parser") 
# 擷取title标簽的所有内容
print(bs.title) 
# 擷取head标簽的所有内容
print(bs.head) 
# 擷取第一個a标簽的所有内容
print(bs.a) 
# 類型
print(type(bs.a))      

tag中重要的屬性:name和attributes

from bs4 import BeautifulSoup 
file = open('../pachong.html', 'rb') 
html = file.read() 
bs = BeautifulSoup(html,"html.parser") 
# [document] #bs 對象本身比較特殊,它的 name 即為 [document]
print(bs.name) 
# head #對于其他内部标簽,輸出的值便為标簽本身的名稱
print(bs.head.name) 
# 在這裡,我們把 a 标簽的所有屬性列印輸出了出來,得到的類型是一個字典。
print(bs.a.attrs) 
#還可以利用get方法,傳入屬性的名稱,二者是等價的
print(bs.a['class']) # 等價 bs.a.get('class')
# 可以對這些屬性和内容等等進行修改
bs.a['class'] = "newClass"
print(bs.a) 
# 還可以對這個屬性進行删除
del bs.a['class'] 
print(bs.a)      

3、周遊文檔樹

3.1、.contents:擷取Tag的所有子節點,傳回一個list

# tag的.content 屬性可以将tag的子節點以清單的方式輸出
print(bs.head.contents)
# 用清單索引來擷取它的某一個元素
print(bs.head.contents[1])      

3.2、.children:擷取Tag的所有子節點,傳回一個生成器

print(type(bs.head.children))
for child in bs.head.children:
    print(child)      

3.3、.descendants:擷取Tag的所有子孫節點

3.4、.strings:如果Tag包含多個字元串,即在子孫節點中有内容,可以用此擷取,而後進行周遊

3.5、.stripped_strings:與strings用法一緻,隻不過可以去除掉那些多餘的空白内容

3.6、.parent:擷取Tag的父節點

3.7、.parents:遞歸得到父輩元素的所有節點,傳回一個生成器

3.8、.previous_sibling:擷取目前Tag的上一個節點,屬性通常是字元串或空白,真實結果是目前标簽與上一個标簽之間的頓号和換行符

3.9、.next_sibling:擷取目前Tag的下一個節點,屬性通常是字元串或空白,真是結果是目前标簽與下一個标簽之間的頓号與換行符

3.10、.previous_siblings:擷取目前Tag的上面所有的兄弟節點,傳回一個生成器

3.11、.next_siblings:擷取目前Tag的下面所有的兄弟節點,傳回一個生成器

3.12、.previous_element:擷取解析過程中上一個被解析的對象(字元串或tag),可能與previous_sibling相同,但通常是不一樣的

3.13、.next_element:擷取解析過程中下一個被解析的對象(字元串或tag),可能與next_sibling相同,但通常是不一樣的

3.14、.previous_elements:傳回一個生成器,可以向前通路文檔的解析内容

3.15、.next_elements:傳回一個生成器,可以向後通路文檔的解析内容

3.16、.has_attr:判斷Tag是否包含屬性

4、搜尋文檔樹

4.1、find_all(name, attrs, recursive, text, **kwargs)

在上面的栗子中我們簡單介紹了find_all的使用,接下來介紹一下find_all的更多用法-過濾器。這些過濾器貫穿整個搜尋API,過濾器可以被用在tag的name中,節點的屬性等。

(1)name參數:

字元串過濾:會查找與字元串完全比對的内容

a_list = bs.find_all("a")
print(a_list)      

正規表達式過濾:如果傳入的是正規表達式,那麼BeautifulSoup4會通過search()來比對内容

t_list = bs.find_all(re.compile("a")) 
for item in t_list: 
   print(item)      

清單:如果傳入一個清單,BeautifulSoup4将會與清單中的任一進制素比對到的節點傳回

t_list = bs.find_all(["meta","link"])
for item in t_list:
    print(item)      

方法:傳入一個方法,根據方法來比對

def name_is_exists(tag): 
    return tag.has_attr("name") 
t_list = bs.find_all(name_is_exists) 
for item in t_list: 
    print(item)      

(2)kwargs參數:

# 查詢id=head的Tag
t_list = bs.find_all(id="head") 
print(t_list) 
# 查詢href屬性包含ss1.bdstatic.com的Tag
t_list = bs.find_all(href=re.compile("http://news.baidu.com")) 
print(t_list) 
# 查詢所有包含class的Tag(注意:class在Python中屬于關鍵字,是以加_以示差別)
t_list = bs.find_all(class_=True) 
for item in t_list: 
    print(item)      

(3)attrs參數:

并不是所有的屬性都可以使用上面這種方式進行搜尋,比如HTML的data-*屬性:

t_list = bs.find_all(data-foo="value")      

如果執行以上這行代碼,将會報錯。我們可以使用attrs參數,定義一個字典來搜尋包含特殊屬性的tag:

t_list = bs.find_all(attrs={"data-foo":"value"})
for item in t_list:
    print(item)      

(4)text參數:

通過text參數可以搜尋文檔中的字元串内容,與name參數的可選值一樣,text參數接受 字元串,正規表達式,清單

t_list = bs.find_all(attrs={"data-foo": "value"}) 
for item in t_list: 
    print(item) 
t_list = bs.find_all(text="hao123") 
for item in t_list: 
    print(item) 
t_list = bs.find_all(text=["hao123", "地圖", "貼吧"]) 
for item in t_list: 
    print(item) 
t_list = bs.find_all(text=re.compile("\d")) 
for item in t_list: 
    print(item)      

當我們搜尋text中的一些特殊屬性時,同樣也可以傳入一個方法來達到我們的目的:

def length_is_two(text):
    return text and len(text) == 2
t_list = bs.find_all(text=length_is_two)
for item in t_list:
    print(item)      

(5)limit參數:

可以傳入一個limit參數來限制傳回的數量,當搜尋出的資料量為5,而設定了limit=2時,此時隻會傳回前2個資料

t_list = bs.find_all("a",limit=2) 
for item in t_list: 
    print(item)      

find_all除了上面一些正常的寫法,還可以對其進行一些簡寫:

# 兩者是相等的
# t_list = bs.find_all("a") => t_list = bs("a")
t_list = bs("a") # 兩者是相等的
# t_list = bs.a.find_all(text="新聞") => t_list = bs.a(text="新聞")
t_list = bs.a(text="新聞")      

4.2、find()

find()将傳回符合條件的第一個Tag,有時我們隻需要或一個Tag時,我們就可以用到find()方法了。當然了,也可以使用find_all()方法,傳入一個limit=1,然後再取出第一個值也是可以的,不過未免繁瑣。

# 傳回隻有一個結果的清單
t_list = bs.find_all("title",limit=1) 
print(t_list) 
# 傳回唯一值
t = bs.find("title") 
print(t) 
# 如果沒有找到,則傳回None
t = bs.find("abc") print(t)      

從結果可以看出find_all,盡管傳入了limit=1,但是傳回值仍然為一個清單,當我們隻需要取一個值時,遠不如find方法友善。但

是如果未搜尋到值時,将傳回一個None

在上面介紹BeautifulSoup4的時候,我們知道可以通過bs.div來擷取第一個div标簽,如果我們需要擷取第一個div下的第一個div,

我們可以這樣:

t = bs.div.div
# 等價于
t = bs.find("div").find("div")      

5、CSS選擇器

BeautifulSoup支援發部分的CSS選擇器,在Tag擷取BeautifulSoup對象的.select()方法中傳入字元串參數,即可使用CSS選擇器的文法找到Tag:

5.1、通過标簽名查找

print(bs.select('title'))
print(bs.select('a'))      

5.2、通過類名查找

print(bs.select('.mnav'))      

5.3、通過id查找

print(bs.select('#u1'))      

5.4、組合查找

print(bs.select('div .bri'))      

5.5、屬性查找

print(bs.select('a[class="bri"]'))
print(bs.select('a[href="http://tieba.baidu.com"]'))      

5.6、直接子标簽查找

t_list = bs.select("head > title")
print(t_list)      

5.7、兄弟節點标簽查找

t_list = bs.select(".mnav ~ .bri")
print(t_list)      

5.8、擷取内容

t_list = bs.select("title")
print(bs.select('title')[0].get_text())