javascript
java jsonp网络爬虫_JSOUP 爬虫
接下來我們專門針對幾種常見的應用場景舉例說明 jsoup 是如何優雅的進行 HTML 文檔處理的。
4.文檔輸入
jsoup 可以從包括字符串、URL地址以及本地文件來加載 HTML 文檔,并生成 Document 對象實例。
下面是相關代碼:
//直接從字符串中輸入 HTML 文檔
String html = "
JSONP" +"
這里是 jsoup 項目的相關文章
";Document doc=Jsoup.parse(html);//從URL直接加載 HTML 文檔
Document doc = Jsoup.connect("http://www.baidu.net/").get();
String title=doc.title();
Document doc= Jsoup.connect("http://www.baidu.net/")
.data("query", "Java") //請求參數
.userAgent("I’m jsoup") //設置User-Agent
.cookie("auth", "token") //設置cookie
.timeout(3000) //設置連接超時時間
.post(); //使用POST方法訪問URL//從文件中加載 HTML 文檔
File input = new File("D:/test.html");
Document doc= Jsoup.parse(input,"UTF-8","http://www.oschina.net/");
請大家注意最后一種 HTML 文檔輸入方式中的 parse 的第三個參數,為什么需要在這里指定一個網址呢(雖然可以不指定,如第一種方法)?因為 HTML 文檔中會有很多例如鏈接、圖片以及所引用的外部腳本、css文件等,而第三個名為 baseURL 的參數的意思就是當 HTML 文檔使用相對路徑方式引用外部文件時,jsoup 會自動為這些 URL 加上一個前綴,也就是這個 baseURL。?例如 :
開源軟件
會被轉換成
開源軟件。
5.解析并提取 HTML 元素
這部分涉及一個 HTML 解析器最基本的功能,但 jsoup 使用一種有別于其他開源項目的方式——選擇器,我們將在最后一部分詳細介紹 jsoup 選擇器,本節中你將看到 jsoup 是如何用最簡單的代碼實現。
不過 jsoup 也提供了傳統的 DOM 方式的元素解析,看看下面的代碼:
File input = new File("D:/test.html");
Document doc= Jsoup.parse(input, "UTF-8", "http://www.baidu.net/");
Element content= doc.getElementById("content");
Elements links= content.getElementsByTag("a");for(Element link : links) {
String linkHref= link.attr("href");
String linkText=link.text();
}
你可能會覺得 jsoup 的方法似曾相識,沒錯,像 getElementById 和 getElementsByTag 方法跟 JavaScript 的方法名稱是一樣的,功能也完全一致。你可以根據節點名稱或者是 HTML 元素的 id 來獲取對應的元素或者元素列表。
與 htmlparser 項目不同的是,jsoup 并沒有為 HTML 元素定義一個對應的類,一般一個 HTML 元素的組成部分包括:節點名、屬性和文本,jsoup 提供簡單的方法供你自己檢索這些數據,這也是 jsoup 保持瘦身的原因。
而在元素檢索方面,jsoup 的選擇器簡直無所不能,
File input = new File("D:\test.html");
Document doc= Jsoup.parse(input,"UTF-8","http://www.baidu.net/");
Elements links= doc.select("a[href]"); //具有 href 屬性的鏈接
Elements pngs = doc.select("img[src$=.png]");//所有引用png圖片的元素
Element masthead = doc.select("div.masthead").first();//找出定義了 class="masthead" 的元素
Elements resultLinks = doc.select("h3.r > a"); //direct a after h3
這是 jsoup 真正讓我折服的地方,jsoup 使用跟 jQuery 一模一樣的選擇器對元素進行檢索,以上的檢索方法如果換成是其他的 HTML 解釋器,至少都需要很多行代碼,而 jsoup 只需要一行代碼即可完成。
jsoup 的選擇器還支持表達式功能,我們將在最后一節介紹這個超強的選擇器。
6.修改數據
在解析文檔的同時,我們可能會需要對文檔中的某些元素進行修改,例如我們可以為文檔中的所有圖片增加可點擊鏈接、修改鏈接地址或者是修改文本等。
下面是一些簡單的例子:
doc.select("div.comments a").attr("rel", "nofollow");//為所有鏈接增加 rel=nofollow 屬性
doc.select("div.comments a").addClass("mylinkclass");//為所有鏈接增加 class="mylinkclass" 屬性
doc.select("img").removeAttr("onclick"); //刪除所有圖片的onclick屬性
doc.select("input[type=text]").val(""); //清空所有文本輸入框中的文本
道理很簡單,你只需要利用 jsoup 的選擇器找出元素,然后就可以通過以上的方法來進行修改,除了無法修改標簽名外(可以刪除后再插入新的元素),包括元素的屬性和文本都可以修改。
修改完直接調用 Element(s) 的 html() 方法就可以獲取修改完的 HTML 文檔。
7.HTML 文檔清理
jsoup 在提供強大的 API 同時,人性化方面也做得非常好。在做網站的時候,經常會提供用戶評論的功能。有些用戶比較淘氣,會搞一些腳本到評論內容中,而這些腳本可能會破壞整個頁面的行為,更嚴重的是獲取一些機要信息,例如 XSS 跨站點攻擊之類的。
jsoup 對這方面的支持非常強大,使用非常簡單。看看下面這段代碼:
String unsafe = "
JSONP
";String safe=Jsoup.clean(unsafe, Whitelist.basic());//輸出://
JSONP
jsoup 使用一個 Whitelist 類用來對 HTML 文檔進行過濾,該類提供幾個常用方法:
總結
以上是生活随笔為你收集整理的java jsonp网络爬虫_JSOUP 爬虫的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 世界杯快到了,看我用Python爬虫实现
- 下一篇: cpython cython_pytho