女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python爬蟲之Beautiful Soup模塊

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-10 21:56 ? 次閱讀

模塊安裝

pip3 install beautifulsoup4

模塊導(dǎo)入

from bs4 import BeautifulSoup

示例html內(nèi)容

獲取html內(nèi)容代碼

import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36 115Browser/9.0.0"
}
response = requests.get("https://www.xbiquge6.com/xbqgph.html",headers=headers)
response.encoding = "utf-8"
html = response.text
print(html)

獲取的html內(nèi)容


小說排行榜列表

構(gòu)建BeautifulSoup對象

常用四種解釋器

解釋器 標(biāo)識 特點(diǎn)
Python標(biāo)準(zhǔn)庫 html.parser Python內(nèi)置,執(zhí)行速度中
lxml的HTML解釋器 lxml 速度快
lxml的XML解釋器 xml 唯一支持XML解析
html5lib html5lib 容錯性最好,以瀏覽器方式解析
soup = BeautifulSoup(html, 'html.parser')

還可以解析本地html文件

soup1 = BeautifulSoup(open('index.html'))

.prettify()格式化輸出節(jié)點(diǎn)

通過 . 獲取節(jié)點(diǎn)

title = soup.head.title
print(type(title))
print(title)

結(jié)果是

對于名稱唯一的節(jié)點(diǎn),可以省略層級

title = soup.title
print(type(title))
print(title)

結(jié)果同樣是

名稱不唯一的節(jié)點(diǎn),直接獲取只會獲取第一個匹配的節(jié)點(diǎn)

li = soup.li
print(li)

結(jié)果是

find_all根據(jù)條件獲取節(jié)點(diǎn)

find_all( name , attrs , recursive , text , **kwargs )
name :查找所有名字為 name 的tag,字符串對象會被自動忽略掉;
attrs:根據(jù)屬性查詢,使用字典類型;
text :可以搜搜文檔中的字符串內(nèi)容.與 name 參數(shù)的可選值一樣, text 參數(shù)接受 字符串 , 正則表達(dá)式 , 列表, True ;
recursive:調(diào)用tag的 find_all() 方法時,Beautiful Soup會檢索當(dāng)前tag的所有子孫節(jié)點(diǎn),如果只想搜索tag的直接子節(jié)點(diǎn),可以使用參數(shù) recursive=False ;
limit:find_all() 方法返回全部的搜索結(jié)構(gòu),如果文檔樹很大那么搜索會很慢.如果我們不需要全部結(jié)果,可以使用 limit 參數(shù)限制返回結(jié)果的數(shù)量.效果與SQL中的limit關(guān)鍵字類似,當(dāng)搜索到的結(jié)果數(shù)量達(dá)到 limit 的限制時,就停止搜索返回結(jié)果;
class_ :通過 class_ 參數(shù)搜索有指定CSS類名的tag,class_ 參數(shù)同樣接受不同類型的 過濾器 ,字符串,正則表達(dá)式,方法或 True。

根據(jù)標(biāo)簽名字

lis = soup.find_all(nam)
for item in lis:
    print(item)

結(jié)果是

根據(jù)標(biāo)簽屬性

屬性和值以字典形式傳入

lis = soup.find_all(attrs={"class":"s2"})
for item in lis:
    print(item)

結(jié)果是
作品名稱
我能舉報萬物
女戰(zhàn)神的黑包群
花崗巖之怒
超神機(jī)械師
無量真途
我的細(xì)胞監(jiān)獄
前任無雙
元陽道君
逆成長巨星
承包大明

限制搜索范圍

find_all 方法會搜索當(dāng)前標(biāo)簽的所有子孫節(jié)點(diǎn),如果只想搜索直接子節(jié)點(diǎn),可以使用參數(shù) recursive=False

遍歷獲取子節(jié)點(diǎn)

.contents獲取所有子節(jié)點(diǎn)

以列表形式返回所有子節(jié)點(diǎn),要注意,列表里面還會摻雜 '/n'

ul = soup.ul
print(ul)
print(ul.contents)

結(jié)果是
['/n',

.children獲取所有子節(jié)點(diǎn)

返回一個list生成器對象

ul = soup.ul
print(ul.children)
print(list(ul.children))

結(jié)果是
['/n', 

.descendants遍歷所有子孫節(jié)點(diǎn)

ul = soup.ul
for item in ul.descendants:
    print(item)

結(jié)果是(中間很多'/n'空行我刪掉了)
首頁 首頁 永久書架 永久書架 玄幻奇幻 玄幻奇幻 武俠仙俠 武俠仙俠 都市言情 都市言情 歷史軍事 歷史軍事 科幻靈異 科幻靈異 網(wǎng)游競技 網(wǎng)游競技 女頻頻道 女頻頻道 完本小說 完本小說 排行榜單 排行榜單 臨時書架 臨時書架

獲取其父節(jié)點(diǎn)

a = soup.li.a
print(a)
p = a.parent
print(p)

結(jié)果是
首頁

提取節(jié)點(diǎn)信息

節(jié)點(diǎn)名稱

感覺沒什么用

title = soup.title
print(title.name)

結(jié)果是
title

節(jié)點(diǎn)屬性

a = soup.li.a
print(a)
print(a.attrs)    # 獲取所有屬性,返回字典形式
print(a['href'])# 獲取a節(jié)點(diǎn)的href屬性值

結(jié)果是
首頁
{'href': '/'}
/

節(jié)點(diǎn)文本

a = soup.li.a
print(type(a.string)) # 節(jié)點(diǎn)內(nèi)文本的類型
print(a.string) # 獲取節(jié)點(diǎn)內(nèi)的文本內(nèi)容
print(a.get_text())    # 也是獲取節(jié)點(diǎn)內(nèi)的文本內(nèi)容
結(jié)果是

首頁

注意!!!如果節(jié)點(diǎn)內(nèi)文本是注釋,則用string取出文本時會自動去除注釋標(biāo)記
注釋的類型:,可以通過類型判斷

遍歷獲取所有子孫節(jié)點(diǎn)中的文本

for string in soup.stripped_strings:  # 去除多余空白內(nèi)容
    print(repr(string))
想進(jìn)一步了解編程開發(fā)相關(guān)知識,與我一同成長進(jìn)步,請關(guān)注我的公眾號“松果倉庫”,共同分享宅&程序員的各類資源,謝謝!!!

審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • JAVA
    +關(guān)注

    關(guān)注

    20

    文章

    2984

    瀏覽量

    106854
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48691

    瀏覽量

    246426
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4825

    瀏覽量

    86169
  • 爬蟲
    +關(guān)注

    關(guān)注

    0

    文章

    83

    瀏覽量

    7361
收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    爬蟲數(shù)據(jù)獲取實(shí)戰(zhàn)指南:從入門到高效采集

    爬蟲數(shù)據(jù)獲取實(shí)戰(zhàn)指南:從入門到高效采集 ? ? 在數(shù)字化浪潮中,數(shù)據(jù)已成為驅(qū)動商業(yè)增長的核心引擎。無論是市場趨勢洞察、競品動態(tài)追蹤,還是用戶行為分析,爬蟲技術(shù)都能助你快速捕獲目標(biāo)信息。然而,如何既
    的頭像 發(fā)表于 03-24 14:08 ?489次閱讀

    運(yùn)行OVModelForCausalLM Python模塊時出錯了,怎么解決?

    創(chuàng)建了一個自定義 Python* 代碼,類似于遵循 240-dolly-2-instruction 的 Jupyter 筆記本。 OVModelForCausalLM Python* 模塊運(yùn)行時出錯。
    發(fā)表于 03-05 06:44

    IP地址數(shù)據(jù)信息和爬蟲攔截的關(guān)聯(lián)

    IP地址數(shù)據(jù)信息和爬蟲攔截的關(guān)聯(lián)主要涉及到兩方面的內(nèi)容,也就是數(shù)據(jù)信息和爬蟲。IP 地址數(shù)據(jù)信息的內(nèi)容豐富,包括所屬地域、所屬網(wǎng)絡(luò)運(yùn)營商、訪問時間序列、訪問頻率等。 從IP地址信息中可以窺見
    的頭像 發(fā)表于 12-23 10:13 ?299次閱讀

    Python常用函數(shù)大全

    Python 世界里,有一些寶藏函數(shù)和模塊,它們可以讓你編程更輕松、代碼更高效。這篇文章將帶你一一認(rèn)識這些神器,讓你的開發(fā)生活瞬間輕松不少!
    的頭像 發(fā)表于 10-27 17:20 ?789次閱讀

    全球視野下的海外爬蟲IP:趨勢、機(jī)遇與風(fēng)險

    在全球視野下,海外爬蟲IP的使用呈現(xiàn)出一系列趨勢,同時也伴隨著機(jī)遇與風(fēng)險。
    的頭像 發(fā)表于 10-15 07:54 ?479次閱讀

    海外爬蟲IP的合法邊界:合規(guī)性探討與實(shí)踐

    海外爬蟲IP的合法邊界主要涉及合規(guī)性探討與實(shí)踐。
    的頭像 發(fā)表于 10-12 07:56 ?526次閱讀

    如何利用海外爬蟲IP進(jìn)行數(shù)據(jù)抓取

    利用海外爬蟲IP進(jìn)行數(shù)據(jù)抓取需要綜合考慮多個方面。
    的頭像 發(fā)表于 10-12 07:54 ?518次閱讀

    詳細(xì)解讀爬蟲多開代理IP的用途,以及如何配置!

    爬蟲多開代理IP是一種在爬蟲開發(fā)中常用的技術(shù)策略,主要用于提高數(shù)據(jù)采集效率、避免IP被封禁以及獲取地域特定的數(shù)據(jù)。
    的頭像 發(fā)表于 09-14 07:55 ?720次閱讀

    pytorch和python的關(guān)系是什么

    在當(dāng)今的人工智能領(lǐng)域,Python已經(jīng)成為了最受歡迎的編程語言之一。Python的易學(xué)易用、豐富的庫和框架以及強(qiáng)大的社區(qū)支持,使其成為了數(shù)據(jù)科學(xué)、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等領(lǐng)域的首選語言。而在深度學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 08-01 15:27 ?3073次閱讀

    如何實(shí)現(xiàn)Python復(fù)制文件操作

    Python 中有許多“開蓋即食”的模塊(比如 os,subprocess 和 shutil)以支持文件 I/O 操作。在這篇文章中,你將會看到一些用 Python 實(shí)現(xiàn)文件復(fù)制的特殊方法。下面我們開始學(xué)習(xí)這九種不同的方法來實(shí)現(xiàn)
    的頭像 發(fā)表于 07-18 14:53 ?690次閱讀

    網(wǎng)絡(luò)爬蟲,Python和數(shù)據(jù)分析

    電子發(fā)燒友網(wǎng)站提供《網(wǎng)絡(luò)爬蟲,Python和數(shù)據(jù)分析.pdf》資料免費(fèi)下載
    發(fā)表于 07-13 09:27 ?2次下載

    python訓(xùn)練出的模型怎么調(diào)用

    使用pickle模塊 pickle 是Python的一個內(nèi)置模塊,用于序列化和反序列化Python對象結(jié)構(gòu)。使用 pickle 可以方便地保存和加載模型。 import pickle
    的頭像 發(fā)表于 07-11 10:15 ?3200次閱讀

    用pycharm進(jìn)行python爬蟲的步驟

    以下是使用PyCharm進(jìn)行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的
    的頭像 發(fā)表于 07-11 10:11 ?1329次閱讀

    常見的數(shù)據(jù)采集工具的介紹

    Scraping) 網(wǎng)絡(luò)爬蟲是一種自動化的程序,用于從互聯(lián)網(wǎng)上提取信息。它們可以訪問網(wǎng)頁,解析HTML內(nèi)容,并從中提取所需的數(shù)據(jù)。 Scrapy : 一個快速且強(qiáng)大的Python框架,用于抓取網(wǎng)站數(shù)據(jù)。 Beautiful
    的頭像 發(fā)表于 07-01 14:51 ?1610次閱讀

    AC/DC電源模塊:跟蹤技術(shù)的創(chuàng)新

    BOSHIDA ?AC/DC電源模塊:跟蹤技術(shù)的創(chuàng)新選 AC/DC電源模塊是一種將交流電轉(zhuǎn)換為直流電的設(shè)備,廣泛應(yīng)用于各個領(lǐng)域的電子設(shè)備中。隨著現(xiàn)代科技的發(fā)展,對電子設(shè)備的要求越來越高,需要
    的頭像 發(fā)表于 06-06 13:55 ?550次閱讀
    AC/DC電源<b class='flag-5'>模塊</b>:跟蹤技術(shù)的創(chuàng)新<b class='flag-5'>之</b>選