一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

2022-01-08 00:04紫陌幽茗 Python

這篇文章主要介紹了Scrapy啟動報錯invalid syntax的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

 

Scrapy啟動報錯invalid syntax

 

報錯信息

Traceback (most recent call last): File “d:pythonlib unpy.py”,
line 193, in _run_module_as_main
“main”, mod_spec) File “d:pythonlib unpy.py”, line 85, in run_code
exec(code, run_globals) File "D:pythonScriptsscrapy.exe_main.py", line 9, in File
“d:pythonlibsite-packagesscrapycmdline.py”, line 150, in execute
_run_print_help(parser, _run_command, cmd, args, opts) File “d:pythonlibsite-packagesscrapycmdline.py”, line 90, in
_run_print_help
func(*a, **kw) File “d:pythonlibsite-packagesscrapycmdline.py”, line 157, in
_run_command
cmd.run(args, opts) File “d:pythonlibsite-packagesscrapycommandscrawl.py”, line 57, in
run
self.crawler_process.crawl(spname, **opts.spargs) File “d:pythonlibsite-packagesscrapycrawler.py”, line 170, in crawl
crawler = self.create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 198, in
create_crawler
return self._create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 203, in
create_crawler
return Crawler(spidercls, self.settings) File “d:pythonlibsite-packagesscrapycrawler.py”, line 55, in init
self.extensions = ExtensionManager.from_crawler(self) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 58, in
from_crawler
return cls.from_settings(crawler.settings, crawler) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 34, in
from_settings
mwcls = load_object(clspath) File “d:pythonlibsite-packagesscrapyutilsmisc.py”, line 44, in
load_object
mod = import_module(module) File "d:pythonlibimportlib_init.py", line 127, in import_module
return _bootstrap._gcd_import(name[level:], package, level) File “

啟動命令如下:

scrapy crawl first_spider -o first_spider.csv

 

解決方法

經過查詢發現async在python3.7中是保留字,因此將twistedconchmanhole.py中的async修改為isasync即可解決問題

 

使用scrapy做爬蟲遇到的一些坑

使用xpath和CSS遇到的一些 invalid syntax

 

1.引號的歧義:最外面應該使用單引號

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:把定位的xpath外加單引號

Scrapy啟動報錯invalid syntax的解決

 

2.使用了關鍵字做變量

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:注意關鍵字不能做變量

Scrapy啟動報錯invalid syntax的解決

 

3.進入shell窗口時,url添加了“”

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:去掉url的引號

Scrapy啟動報錯invalid syntax的解決

 

4.使用xpath匹配相關信息,返回為空列表

錯誤:因為一開始網址就是錯誤的,所以不管匹配的xpath是不是對的,都會返回【】

Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

正確:

Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持服務器之家。

原文鏈接:https://blog.csdn.net/weixin_43165512/article/details/105978883

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: α片免费 | 波多野结衣一区免费作品 | 热99re久久精品国产首页 | 国产精品理论片 | 91李宗精品72集在线观看 | 日产免费自线一二区 | 跪在老师脚下吃丝袜脚 | 美女扒开胸罩露出胸大乳 | 日一日操一操 | 国产欧美日韩免费一区二区 | 狠狠色狠狠色综合曰曰 | 欧美vpswindows| 日韩精品中文字幕视频一区 | 我把校花黑色蕾丝胸罩脱了 | 天天做天天爱天天一爽一毛片 | 日韩欧美国产一区二区三区 | 日韩欧美亚洲国产高清在线 | 国色天香社区在线视频播放 | 337p大尺度啪啪人体午夜2020 | brazzersxxx欧美 | 男人的j插入女人的p | 精品牛牛影视久久精品 | 亚洲天堂一区二区在线观看 | 香蕉成人国产精品免费看网站 | 美女脱衣有肉 | 成人au免费视频影院 | 国产成人激情 | 久久久久久久尹人综合网亚洲 | 亚洲国产综合另类视频 | 韩国三级日本三级香港三级黄 | 国产精品欧美亚洲韩国日本99 | 男女男在线精品网站免费观看 | 青青热久麻豆精品视频在线观看 | av魔镜收集号 | 亚洲精品在线网址 | 精品视频在线播放 | 蜜桃视频在线观看官网 | 小货SAO边洗澡边CAO你动漫 | 青草草在线 | 久久机热免费视频 | 亚洲va国产日韩欧美精品色婷婷 |