一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - 結合Python網絡爬蟲做一個今日新聞小程序

結合Python網絡爬蟲做一個今日新聞小程序

2022-01-17 10:52Hann Yang Python

本篇文章介紹了我在開發過程中遇到的一個問題,以及解決該問題的過程及思路,通讀本篇對大家的學習或工作具有一定的價值,需要的朋友可以參考下

核心代碼

requests.get 下載html網頁
bs4.BeautifulSoup 分析html內容

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
from requests import get
from bs4 import BeautifulSoup as bs
from datetime import datetime as dt
 
def Today(style=1):
    date = dt.today()
    if style!=1: return f'{date.month}月{date.day}日'
    return f'{date.year}-{date.month:02}-{date.day:02}'
 
def SinaNews(style=1):
    url1 = 'http://news.***.com.cn/'
    if style==1: url1 += 'world'
    elif style==2: url1 += 'china'
    else: url1='https://mil.news.sina.com.cn/'
    text = get(url1)
    text.encoding='uft-8'
    soup = bs(text.text,'html.parser')
    aTags = soup.find_all("a")
    return [(t.text,t['href']) for t in aTags if Today() in str(t)]

爬取標題

>>> for i,news in enumerate(SinaNews(1)):
print(f'No{i+1}:',news[0])


No1: 外媒:*****
No2: 日媒:******
......

.......

內容已馬賽克!!!
>>>

首次做爬蟲,為了方便下手找一個不用破解網頁的某新聞網站,下載網頁就能直接取得內容。其中的國際、國內和軍事新聞三個網頁作內容源,requests.get下載網頁后,分析所得html文本,所有<a href=...>標記帶日期剛好所需要的。

爬取正文

然后再根據url下載正文網頁,分析可知id=‘article'的<div>層就是正文所在位置,.get_text()是取得文本的關鍵函數,然后適當做一些格式處理:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
>>> def NewsDownload(url):
    html = get(url)
    html.encoding='uft-8'
    soup = bs(html.text,'html.parser')
    text = soup.find('div',id='article').get_text().strip()
    text = text.replace('點擊進入專題:','相關專題:')
    text = text.replace('  ','\n  ')
    while '\n\n\n' in text:
        text = text.replace('\n\n\n','\n\n')
    return text
 
>>> url = 'https://******/w/2021-09-29/doc-iktzqtyt8811588.shtml'
>>> NewsDownload(url)
'原標題:******************************************************'
>>>

界面代碼

使用內置的圖形界面庫 tkinter 控件 Text 、Listbox、Scrollbar、Button。設置基本屬性、放置位置、綁定命令,然后調試到程序完工!

源代碼 News.pyw :其中涉及的網站名稱已馬賽克!

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
from requests import get
from bs4 import BeautifulSoup as bs
from datetime import datetime as dt
from os import path
import tkinter as tk
 
def Today(style=1):
    date = dt.today()
    if style!=1: return f'{date.month}月{date.day}日'
    return f'{date.year}-{date.month:02}-{date.day:02}'
 
def SinaNews(style=1):
    url1 = 'http://news.****.com.cn/'
    if style==1: url1 += 'world'
    elif style==2: url1 += 'china'
    else: url1='https://mil.****.com.cn/'
    text = get(url1)
    text.encoding='uft-8'
    soup = bs(text.text,'html.parser')
    aTags = soup.find_all("a")
    return [(t.text,t['href']) for t in aTags if Today() in str(t)]
 
def NewsList(i):
    global news
    news = SinaNews(i)
    tList.delete(0,tk.END)
    for idx,item in enumerate(news):
        tList.insert(tk.END,f'{idx+1:03} {item[0]}')
    tText.config(state=tk.NORMAL)
    tText.delete(0.0,tk.END)
    tText.config(state=tk.DISABLED)
    NewsShow(0)
    
def NewsList1(): NewsList(1)
def NewsList2(): NewsList(2)
def NewsList3(): NewsList(3)
 
def NewsShow(idx):
    if idx!=0:
        idx = tList.curselection()[0]
    title,url = news[idx][0],news[idx][1]
    html = get(url)
    html.encoding='uft-8'
    soup = bs(html.text,'html.parser')
    text = soup.find('div',id='article').get_text().strip()
    text = text.replace('點擊進入專題:','相關專題:')
    text = text.replace('  ','\n  ')
    while '\n\n\n' in text:
        text = text.replace('\n\n\n','\n\n')
    tText.config(state=tk.NORMAL)
    tText.delete(0.0,tk.END)
    tText.insert(tk.END, title+'\n\n'+text)
    tText.config(state=tk.DISABLED)
    
def InitWindow(self,W,H):
    Y = self.winfo_screenheight()
    winPosition = str(W)+'x'+str(H)+'+8+'+str(Y-H-100)
    self.geometry(winPosition)
    icoFile = 'favicon.ico'
    f = path.exists(icoFile)
    if f: win.iconbitmap(icoFile)
    self.resizable(False,False)
    self.wm_attributes('-topmost',True)
    self.title(bTitle[0])
    SetControl()
    self.update()
    self.mainloop()
 
def SetControl():
    global tList,tText
    tScroll = tk.Scrollbar(win, orient=tk.VERTICAL)
    tScroll.place(x=450,y=320,height=300)
    tList = tk.Listbox(win,selectmode=tk.BROWSE,yscrollcommand=tScroll.set)
    tScroll.config(command=tList.yview)
    for idx,item in enumerate(news):
        tList.insert(tk.END,f'{idx+1:03} {item[0]}')
    tList.place(x=15,y=320,width=435,height=300)
    tList.select_set(0)
    tList.focus()
    bW,bH = 70,35    #按鈕的寬高
    bX,bY = 95,270    #按鈕的坐標
    tBtn1 = tk.Button(win,text=bTitle[1],command=NewsList1)
    tBtn1.place(x=bX,y=bY,width=bW,height=bH)
    tBtn2=tk.Button(win,text=bTitle[2],command=NewsList2)
    tBtn2.place(x=bX+100,y=bY,width=bW,height=bH)
    tBtn3 = tk.Button(win,text=bTitle[3],command=NewsList3)
    tBtn3.place(x=bX+200,y=bY,width=bW,height=bH)
    tScroll2 = tk.Scrollbar(win, orient=tk.VERTICAL)
    tScroll2.place(x=450,y=10,height=240)
    tText = tk.Text(win,yscrollcommand=tScroll2.set)
    tScroll2.config(command=tText.yview)
    tText.place(x=15,y=10,width=435,height=240)
    tText.config(state=tk.DISABLED,bg='azure',font=('宋體', '14'))
    NewsShow(0)
    tList.bind("<Double-Button-1>",NewsShow)
 
if __name__=='__main__':
 
    win = tk.Tk()
    bTitle = ('今日新聞','國際新聞','國內新聞','軍事新聞')
    news = SinaNews()
    InitWindow(win,480,640)

奉上全部代碼,在此就不作詳細分析了,如有需要請留言討論。我的使用環境 Win7+Python3.8.8 下可以無錯運行!文中涉及網站名稱已打上馬賽克,猜不出名字的可以私下里問我。

軟件編譯

使用pyinstaller.exe編譯成單個運行文件,注意源碼文件的后綴名應該用.pyw否則會有cmd黑窗口出現。還有一個小知識點,任意網站的Logo圖標icon文件,一般都能在根目錄里下載到,即:
http(s)://websiteurl.com(.cn)/favicon.ico

編譯命令如下:

D:\>pyinstaller --onefile --nowindowed --icon="D:\favicon.ico" News.pyw

編譯完成后,在dist文件夾下生成一個News.exe可執行文件,大小約15M還能接受。

反正拿走就能直接用,臨走前記得收藏,謝謝!

到此這篇關于結合Python網絡爬蟲做一個今日新聞小程序的文章就介紹到這了,更多相關Python 新聞程序內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/boysoft2002/article/details/120549021

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 欧美乱理伦另类视频 | free性丰满hd性欧美厨房 | 男人j进女屁股视频在线观看 | 日本午夜vr影院新入口 | 天生奶水1v1高h | 被夫上司侵犯了中文字幕 | 99热国产这里只有精品99 | www.福利| 天天综合色天天综合色sb | 欧美精品一区视频 | 国产精品美女福利视频免费专区 | 爱福利一区二区 | 亚洲乱码一二三四区国产 | 午夜欧美精品久久久久久久久 | 日韩视频在线免费观看 | 国内外精品免费视频 | 艹的好爽 | 51国产午夜精品免费视频 | 特级毛片免费视频观看 | 无人区在线观看免费观看 | 天堂一区二区在线观看 | 亚洲精品私拍国产福利在线 | 欧美精品黑人巨大在线播放 | 粗了大了 整进去好爽视频 刺激一区仑乱 | 色哟哟哟在线精品观看视频 | 亚洲人成网站在线观看90影院 | 88av视频在线观看 | 恩不要好大好硬好爽3p | 99午夜高清在线视频在观看 | 美女被狂干 | 久久久高清国产999尤物 | 亚洲午夜精品久久久久久抢 | 欧美成人精品福利在线视频 | 穆挂英风流艳史小说 | 黑人干亚洲人 | 超级乱淫 不详 | 国产精品一区久久精品 | 美女逼逼喷水 | 美女脱一净二净不带胸罩 | 国产日韩高清一区二区三区 | 女张腿男人桶羞羞漫画 |