一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - 利用Python2下載單張圖片與爬取網(wǎng)頁圖片實(shí)例代碼

利用Python2下載單張圖片與爬取網(wǎng)頁圖片實(shí)例代碼

2020-12-28 00:46小川94 Python

這篇文章主要給大家介紹了關(guān)于利用Python2下載單張圖片與爬取網(wǎng)頁圖片的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。

前言

一直想好好學(xué)習(xí)一下Python爬蟲,之前斷斷續(xù)續(xù)的把Python基礎(chǔ)學(xué)了一下,悲劇的是學(xué)的沒有忘的快。只能再次拿出來濾了一遍,趁熱打鐵,通過實(shí)例來實(shí)踐下,下面這篇文章主要介紹了關(guān)于Python2下載單張圖片與爬取網(wǎng)頁的相關(guān)內(nèi)容,分享出來供大家參考學(xué)習(xí),下面話不多說了,來一起看看詳細(xì)的介紹吧。

一、需求分析

1、知道圖片的url地址,將圖片下載到本地。

2、知道網(wǎng)頁地址,將圖片列表中的圖片全部下載到本地。

二、準(zhǔn)備工作

1、開發(fā)系統(tǒng):win7 64位。

2、開發(fā)環(huán)境:python2.7。

3、開發(fā)工具:PyCharm。

4、瀏覽器:Chrome。

三、操作步驟

A.知道圖片的url地址,將圖片下載到本地。

a1、打開Chrome,隨意找到一個(gè)圖片網(wǎng)站。

利用Python2下載單張圖片與爬取網(wǎng)頁圖片實(shí)例代碼

a2、打開開發(fā)者工具(f12鍵或者fn+f12鍵),選擇第一張圖片,可以看到它的src屬性就是圖片的地址,復(fù)制出來。

利用Python2下載單張圖片與爬取網(wǎng)頁圖片實(shí)例代碼

a3、編寫代碼。這里需要引用urllib庫以及使用Python IO相關(guān)的知識(shí)。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# -*- coding:utf-8 -*
'''
知道圖片地址,下載圖片到本地
'''
import urllib
#圖片url地址
url = 'http://p1.wmpic.me/article/2017/12/22/1513930326_ciDepIns_215x185.jpg'
#方法一
#獲取圖片數(shù)據(jù)
res = urllib.urlopen(url).read()
#文件要保存的路徑名和文件名
path = "e:\dlimg\pic2.jpg"
#使用io寫入圖片
f = open(path , "wb")
f.write(res)
f.close()
#方法二
res2 = urllib.urlretrieve(url , 'e:\dlimg\pic3.jpg')

B.知道網(wǎng)頁地址,將圖片列表中的圖片全部下載到本地。

b1、還是以上面的網(wǎng)頁為爬取對(duì)象,在該網(wǎng)頁下,圖片列表中有30張照片,獲取每張圖片的src屬性值,再來下載即可。

b2、利用BeautifulSoup解析網(wǎng)頁,利用標(biāo)簽選擇器獲取每張圖片的src屬性值。

利用Python2下載單張圖片與爬取網(wǎng)頁圖片實(shí)例代碼

b3、編寫代碼。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
# -*- coding: utf-8 -*-
import requests
import urllib
from bs4 import BeautifulSoup
url = 'http://www.wmpic.me/tupian/qingxin'
res = requests.get(url)
#使用BeautifulSoup解析網(wǎng)頁
soup = BeautifulSoup(res.text , 'html.parser')
#通過標(biāo)簽選擇器定位到圖片位置(與css選擇器差不多)
pic_list = soup.select('.item_box .post a img')
i = 0
for img_url in pic_list:
 #獲取每個(gè)img標(biāo)簽的src屬性
 url_list = img_url['src']
 #保存路徑,后面是文件名
 save_path = 'E:\dlimg\\'+'downloadpic_'+str(i)+'.jpg'
 #解析圖片,寫入到本地
 pic_file = urllib.urlopen(url_list).read()
 f = open(save_path, "wb")
 f.write(pic_file)
 f.close()
 i = i+1

C.運(yùn)行結(jié)果(紅色框中pic2.jpg和pic3.jpg是A步驟運(yùn)行結(jié)果,其余以downloadpic_*.jpg命名的圖片是步驟B的運(yùn)行結(jié)果)

利用Python2下載單張圖片與爬取網(wǎng)頁圖片實(shí)例代碼

總結(jié)

以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,如果有疑問大家可以留言交流,謝謝大家對(duì)服務(wù)器之家的支持。

原文鏈接:http://www.cnblogs.com/xiaochuan94/archive/2017/12/25/8108857.html

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 国内久久婷婷综合欲色啪 | 亚洲va精品中文字幕 | 6080伦理久久精品亚洲 | 男女视频在线观看 | 福利色播 | 日本在线视频免费看 | 羞羞一区二区三区四区片 | 欧美日韩一区二区三区久久 | 久久精品亚洲国产AV涩情 | 国产成人久视频免费 | 美女露尿口| 99re在线精品视频免费 | yellow最新视频2019 | 特黄视频免费看 | 99久久精品免费看国产高清 | 美女逼逼喷水 | 欧美三级一区二区 | 久久成人精品免费播放 | 国产图片一区 | 黑人又大又硬又粗再深一点 | 艾秋麻豆果冻传媒老狼仙踪林 | 高清欧美videossexo免费 | 黑人双渗透 | 精品高潮呻吟99AV无码视频 | 精品免费视在线观看 | 国产51社区精品视频资源 | 免费刷10000名片赞网站 | 精品国产三级av在线 | 国产精品自产拍在线观看2019 | 91碰| 午夜福利在线观看6080 | 日本大学jalapsiki | 暴露狂婷婷医院暴露tx | 欧美亚洲国产精品久久久 | 四虎成人免费观看在线网址 | 国产va免费精品高清在线 | 精品日韩欧美一区二区三区 | 四虎免费影院在线播放 | xxxx意大利xxxxhd| 亚洲欧美久久久久久久久久爽网站 | 亚洲免费福利视频 |