一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術(shù)及教程分享平臺!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - 詳解用python寫網(wǎng)絡(luò)爬蟲-爬取新浪微博評論

詳解用python寫網(wǎng)絡(luò)爬蟲-爬取新浪微博評論

2021-06-25 00:41Joliph Python

這篇文章主要介紹了python爬取新浪微博評論,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習或者工作具有一定的參考學(xué)習價值,需要的朋友們下面隨著小編來一起學(xué)習學(xué)習吧

新浪微博需要登錄才能爬取,這里使用m.weibo.cn這個移動端網(wǎng)站即可實現(xiàn)簡化操作,用這個訪問可以直接得到的微博id。

分析新浪微博的評論獲取方式得知,其采用動態(tài)加載。所以使用json模塊解析json代碼

單獨編寫了字符優(yōu)化函數(shù),解決微博評論中的嘈雜干擾字符

本函數(shù)是用python寫網(wǎng)絡(luò)爬蟲的終極目的,所以采用函數(shù)化方式編寫,方便后期優(yōu)化和添加各種功能

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
# -*- coding:gbk -*-
import re
import requests
import json
from lxml import html
#測試微博4054483400791767
comments=[]
 
def get_page(weibo_id):
  url='https://m.weibo.cn/status/{}'.format(weibo_id)
  html=requests.get(url).text
  regcount=r'"comments_count": (.*?),'
  comments_count=re.findall(regcount,html)[-1]
  comments_count_number=int(comments_count)
  page=int(comments_count_number/10)
  return page-1
 
def opt_comment(comment):
  tree=html.fromstring(comment)
  strcom=tree.xpath('string(.)')
  reg1=r'回復(fù)@.*?:'
  reg2=r'回覆@.*?:'
  reg3=r'//@.*'
  newstr=''
  comment1=re.subn(reg1,newstr,strcom)[0]
  comment2=re.subn(reg2,newstr,comment1)[0]
  comment3=re.subn(reg3,newstr,comment2)[0]
  return comment3
 
def get_responses(id,page):
  url="https://m.weibo.cn/api/comments/show?id={}&page={}".format(id,page)
  response=requests.get(url)
  return response
 
def get_weibo_comments(response):
  json_response=json.loads(response.text)
  for i in range(0,len(json_response['data'])):
    comment=opt_comment(json_response['data'][i]['text'])
    comments.append(comment)
 
 
weibo_id=input("輸入微博id,自動返回前5頁評論:")
weibo_id=int(weibo_id)
print('\n')
page=get_page(weibo_id)
for page in range(1,page+1):
  response=get_responses(weibo_id,page)
  get_weibo_comments(response)
 
for com in comments:
  print(com)
print(len(comments))

以上所述是小編給大家介紹的python爬取新浪微博評論詳解整合,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對服務(wù)器之家網(wǎng)站的支持!

原文鏈接:https://blog.csdn.net/Joliph/article/details/77334354

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 91精品国产亚一区二区三区 | ipx 在线播放| 国产精品自产拍在线观看2019 | www.日日爱| 2020年最新国产精品视频免费 | 18videossex性欧美69 | 欧美成人aa久久狼窝动画 | 成人福利在线播放 | a4yy欧美一区二区三区 | 国产盗摄女厕美女嘘嘘 | 日本中文字幕在线精品 | 九二淫黄大片看片 | 欧美国产在线 | 被巨大黑人的翻白眼 | 99国产精品免费视频 | 精品国偷自产在线 | 久久婷婷五月综合色丁香 | 百合女女师生play黄肉黄 | 日本高清视频在线免费观看 | 国产在线视频第一页 | 全黄h全肉细节文在线观看 全彩成人18h漫画 | 亚洲精品专区 | 韩国三级年轻的小婊孑 | 青青草成人在线观看 | 国产精品一区二区久久 | 国产美女亚洲精品久久久综合 | 韩日视频在线 | 色综合中文字幕天天在线 | 亚洲精品6久久久久中文字幕 | 免费国产在线观看 | 欧美一级片在线看 | 美女班主任让我爽了一夜视频 | 久久热r在线视频精品 | 色综合 成人 | 日本一片免费观看高清完整 | 天天做天天爽天天谢 | 欧美精品1区2区 | 草莓丝瓜芭乐樱桃榴莲色多黄 | 黄www片| 星空无限传媒视频在线观看视频 | 性欧美4khdxxxx |