一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

服務(wù)器之家:專注于服務(wù)器技術(shù)及軟件下載分享
分類導(dǎo)航

PHP教程|ASP.NET教程|JAVA教程|ASP教程|

服務(wù)器之家 - 編程語言 - JAVA教程 - java實現(xiàn)爬取知乎用戶基本信息

java實現(xiàn)爬取知乎用戶基本信息

2020-05-05 14:14臥顏沉默 JAVA教程

這篇文章主要為大家介紹了一個基于JAVA的知乎爬蟲,抓取知乎用戶基本信息,感興趣的小伙伴們可以參考一下

本文實例為大家分享了一個基于JAVA的知乎爬蟲,抓取知乎用戶基本信息,基于HttpClient 4.5,供大家參考,具體內(nèi)容如下
詳細內(nèi)容:
抓取90W+用戶信息(基本上活躍的用戶都在里面)
大致思路:
1.首先模擬登錄知乎,登錄成功后將Cookie序列化到磁盤,不用以后每次都登錄(如果不模擬登錄,可以直接從瀏覽器塞入Cookie也是可以的)。
2.創(chuàng)建兩個線程池和一個Storage。一個抓取網(wǎng)頁線程池,負責(zé)執(zhí)行request請求,并返回網(wǎng)頁內(nèi)容,存到Storage中。另一個是解析網(wǎng)頁線程池,負責(zé)從Storage中取出網(wǎng)頁內(nèi)容并解析,解析用戶資料存入數(shù)據(jù)庫,解析該用戶關(guān)注的人的首頁,將該地址請求又加入抓取網(wǎng)頁線程池。一直循環(huán)下去。
3.關(guān)于url去重,我是直接將訪問過的鏈接md5化后存入數(shù)據(jù)庫,每次訪問前,查看數(shù)據(jù)庫中是否存在該鏈接。
到目前為止,抓了100W用戶了,訪問過的鏈接220W+?,F(xiàn)在抓取的用戶都是一些不太活躍的用戶了。比較活躍的用戶應(yīng)該基本上也抓完了。
項目地址:https://github.com/wycm/mycrawler
實現(xiàn)代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
作者:臥顏沉默
鏈接:https://www.zhihu.com/question/36909173/answer/97643000
來源:知乎
著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處。
 
 /**
  *
  * @param httpClient Http客戶端
  * @param context Http上下文
  * @return
  */
public boolean login(CloseableHttpClient httpClient, HttpClientContext context){
String yzm = null;
String loginState = null;
HttpGet getRequest = new HttpGet("https://www.zhihu.com/#signin");
HttpClientUtil.getWebPage(httpClient,context, getRequest, "utf-8", false);
HttpPost request = new HttpPost("https://www.zhihu.com/login/email");
List<NameValuePair> formParams = new ArrayList<NameValuePair>();
yzm = yzm(httpClient, context,"https://www.zhihu.com/captcha.gif?type=login");//肉眼識別驗證碼
formParams.add(new BasicNameValuePair("captcha", yzm));
formParams.add(new BasicNameValuePair("_xsrf", ""));//這個參數(shù)可以不用
formParams.add(new BasicNameValuePair("email", "郵箱"));
formParams.add(new BasicNameValuePair("password", "密碼"));
formParams.add(new BasicNameValuePair("remember_me", "true"));
UrlEncodedFormEntity entity = null;
try {
entity = new UrlEncodedFormEntity(formParams, "utf-8");
} catch (UnsupportedEncodingException e) {
e.printStackTrace();
}
request.setEntity(entity);
loginState = HttpClientUtil.getWebPage(httpClient,context, request, "utf-8", false);//登錄
JSONObject jo = new JSONObject(loginState);
if(jo.get("r").toString().equals("0")){
System.out.println("登錄成功");
getRequest = new HttpGet("https://www.zhihu.com");
HttpClientUtil.getWebPage(httpClient,context ,getRequest, "utf-8", false);//訪問首頁
HttpClientUtil.serializeObject(context.getCookieStore(),"resources/zhihucookies");//序列化知乎Cookies,下次登錄直接通過該cookies登錄
return true;
}else{
System.out.println("登錄失敗" + loginState);
return false;
}
}
/**
  * 肉眼識別驗證碼
  * @param httpClient Http客戶端
  * @param context Http上下文
  * @param url 驗證碼地址
  * @return
  */
public String yzm(CloseableHttpClient httpClient,HttpClientContext context, String url){
HttpClientUtil.downloadFile(httpClient, context, url, "d:/test/", "1.gif",true);
Scanner sc = new Scanner(System.in);
String yzm = sc.nextLine();
return yzm;
}

效果圖:

java實現(xiàn)爬取知乎用戶基本信息

java實現(xiàn)爬取知乎用戶基本信息

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助。

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 人人爱操 | 国产成人精品男人的天堂538 | 天天色天天舔 | 欧洲破处 | 国产成人欧美 | 精品久久一 | 色菇凉天天综合网 | narutotsunade全彩雏田 | 96萝莉 | 国产日韩欧美精品在线 | 久久99国产精品二区不卡 | 2021最新国产成人精品视频 | 百合女女师生play黄肉黄 | 欧美猛男同志video在线 | 色播影院性播影院私人影院 | 国产亚洲欧美日韩综合综合二区 | 日本人妖网站 | 亚洲国产在线99视频 | 国产视频中文字幕 | 国产一区精品视频 | 欧美日韩不卡视频 | 91免费精品国自产拍在线不卡 | 好吊色青青青国产综合在线观看 | 日日摸日日添日日透 | 99re视频精品全部免费 | 成人影院在线观看 | 狠狠婷婷综合缴情亚洲 | 欧美三级免费观看 | 亚洲品质自拍网站 | 亚洲高清一区二区三区久久 | 好男人资源免费播放在线观看 | 高清免费毛片 | 99久久精品99999久久 | 日本一区二区高清免费不卡 | 国产网站免费在线观看 | 99久久精品99999久久 | 人人澡人 | 大胸被c出奶水嗷嗷叫 | 色综合欧美色综合七久久 | 99视频在线看观免费 | 福利姬 magnet |