一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Python3實現爬取指定百度貼吧頁面并保存頁面數據生成本地文檔的方法

Python3實現爬取指定百度貼吧頁面并保存頁面數據生成本地文檔的方法

2021-02-04 00:22wangbowj123 Python

這篇文章主要介紹了Python3實現爬取指定百度貼吧頁面并保存頁面數據生成本地文檔的方法,涉及Python基于urllib模塊的頁面爬取與文件讀寫相關操作技巧,需要的朋友可以參考下

分享給大家供大家參考,具體如下:Python3實現爬取指定百度貼吧頁面并保存頁面數據生成本地文檔的方法。分享給大家供大家參考,具體如下:

首先我們創建一個python文件, tieba.py,我們要完成的是,輸入指定百度貼吧名字與指定頁面范圍之后爬取頁面html代碼,我們首先觀察貼吧url的規律,比如:

百度貼吧LOL吧第一頁:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

第二頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50

第三頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100

發現規律了吧,貼吧中每個頁面不同之處,就是url最后的pn的值,其余的都是一樣的,我們可以抓住這個規律(kw表示貼吧名,采用url編碼)。

清楚了url規則,我們便可以利用urllib進行批量式數據爬取,代碼如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
# -*- coding:utf-8 -*-
from urllib import request as urllib2
from urllib import parse
import random
def loadPage(url, page):
  '''
  根據url獲取服務器響應文件
  url:需要爬取的url
  '''
  print('---------正在下載頁面%d-------' % page)
  ua_list = [
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
    "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",
    "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"
  ]
  header = random.choice(ua_list)
  request = urllib2.Request(url)
  request.add_header('User-Agent', header)
  response = urllib2.urlopen(request)
  html = response.read()
  return html
def write(html, page):
  '''
  將html文件寫入本地
  :param html: 服務器響應文件內容
  :return:
  '''
  data = html
  file_name = 'tieba{}.txt'.format(page)
  print('---------正在保存文件%s-------'%file_name)
  # 運用with open as語句使代碼更加簡潔 避免寫異常處理和文件關閉語句
  with open(file_name,'w',encoding='utf-8') as file:
    file.write(data.decode())
  print('---------success!---------')
def tiebaSpider(url, kw, begin, end):
  '''
  爬取貼吧信息
  '''
  words = {
    'kw':kw
  }
  kw = parse.urlencode(words)
  url = url % (kw)
  for page in range(begin, end + 1):
    pn = ((page-1)*50)
    ful_url = url + str(pn)
    html = loadPage(url, page)
    write(html, page)
if __name__ == '__main__':
  kw = input('請輸入爬取貼吧名:')
  beginPage = int(input('請輸入起始頁:'))
  endPage = int(input('請輸入結束頁:'))
  url = r'http://tieba.baidu.com/f?%s&pn='
  tiebaSpider(url, kw, beginPage, endPage)

控制臺結果如下:

請輸入爬取貼吧名:河南
請輸入起始頁:1
請輸入結束頁:3
---------正在下載頁面1-------
---------正在保存文件tieba1.txt-------
---------success!---------
---------正在下載頁面2-------
---------正在保存文件tieba2.txt-------
---------success!---------
---------正在下載頁面3-------
---------正在保存文件tieba3.txt-------
---------success!---------
Process finished with exit code 0

希望本文所述對大家Python程序設計有所幫助。

原文鏈接:https://blog.csdn.net/wangbowj123/article/details/79123789

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 精品久久成人 | 俺去俺去啦最新官网在线 | 亚洲国产剧情中文视频在线 | 日本一在线中文字幕天堂 | 亚洲黄色图 | 华人在线视频 | 俄罗斯三级在线观看级 | 99久久精品国产免看国产一区 | 女同性互吃奶乳免费视频 | 99久久一区二区精品 | 男女性gif抽搐出入视频 | 99热6这里只有精品 99欧美精品 | 国产精品亚洲w码日韩中文 国产精品香蕉在线观看不卡 | 日本大片免a费观看在线 | 国产成人综合一区精品 | 亚州在线视频 | 探花国产 | chinese男gay飞机同志 | 日韩网站免费 | 无限在线看免费视频大全 | 欧美精品99久久久久久人 | 给我免费的视频在线观看 | 国产精品在线 | 我的家教老师在线观看 | 黑人巨荃大战乌克兰美女 | 国产馆在线观看免费的 | 欧美日韩精品在线视频 | 精品久久久久久久久免费影院 | 草草视频人人爽 | 草馏社区最新1024 | 精品福利视频一区二区三区 | 久久亚洲成a人片 | 欧美在线视频 一区二区 | 亚洲成人免费 | 女人张开腿让男人桶视频免费大全 | 果冻传媒在线播放观看228集 | 成人激情| 亚洲一卡2卡三卡4卡5卡组 | 含羞草传媒网站免费进入欢迎 | china外卖员gay帮口 | 4455永久在线观免费看片 |