手机版 | 登陆 | 注册 | 留言 | 设首页 | 加收藏
当前位置: 网站首页 > python教程 > 文章 当前位置: python教程 > 文章

python编程题及答案整数求和有关字典100道python编程题代码

时间:2022-06-24    点击: 次    来源:网络    作者:佚名 - 小 + 大

python编程题及答案整数求和有关字典100道python编程题代码


下载地址

https://share.weiyun.com/oKXAf8Zh


资料目录

Python编程基础教学视频 51CTO学院(60集)
python编程基础教学视频 乾颐盾系列
Python编程基础 张健 张良均 人民邮电出版社.pdf
Phthon编程金典.pdf
Python 编程指南.pdf
《Python 编程基础》 教学大纲.pdf
《Python编程入门指南(上下册)》 明日科技.pdf
《小小的Python编程故事》毛雪涛,丁毓峰编著.pdf
Python编程初学者指南.pdf
Python编程入门经典.pdf
树莓派Python编程入门与实战  第2版.pdf
Python编程实战__运用设计模式、并发和程序库创建高质量程序.pdf
《Python编程基础》复习资料.pdf
Python编程基础与应用-题库大全.doc
Python编程基础张健 , 张良均课后习题及答案.pdf
Python程序设计基础及实践(慕课版)郭炜习题答案.pdf
《Python程序设计基础与应用》习题答案.pdf
《Python快速编程入门》——课后题答案.doc
Python程序设计基础习题答案与分析.doc
python基础试题(含答案).doc
Python考试题复习知识点试卷试题.doc
Python编程基础.pptx
《Python编程之美:最佳实践指南》by Kenneth Reitz.pdf
《Python编程基础与HTTP接口测试》阿奎 编著.pdf
Python编程  从入门到实践 by Eric Matthes.pdf
Python编程导论第2版_2018 翻译 陈光欣.pdf
Python编程快速上手—让繁琐工作自动化_[美] Al Sweigart 著.pdf
趣学python编程中文版.pdf


举例

创建爬虫
在创建爬虫之前,需要先创建一个存放爬虫模块的文件,该文件需要放置在 spiders 文件夹下。爬虫模块是用于从一个或多个网站中爬取数据的类,它需要继承 scrapy.Spider 类。下面通过一个爬虫示例,实现爬取网页后,将网页的代码以 HTML 文件保存至项目文件夹下。示例代码如下:
01 import scrapy # 导入框架
02
03
04 class QuotesSpider(scrapy.Spider):
05 name = "quotes" # 定义爬虫名称
06
07 def start_requests(self):
08 # 设置爬取目标的地址
09 urls = [
10 'http://quotes.toscrape.com/page/1/',
11 'http://quotes.toscrape.com/page/2/',
12 ]
13 # 获取所有地址,有几个地址发送几次请求
14 for url in urls:
15 # 发送网络请求
16 yield scrapy.Request(url=url, callback=self.parse)
17
18 def parse(self, response):
19 # 获取页数
20 page = response.url.split("/")[-2]
21 # 根据页数设置文件名称
22 filename = 'quotes-%s.html' % page
23 # 以写入文件的模式打开文件。如果没有该文件,则创建该文件
24 with open(filename, 'wb') as f:
25 # 向文件中写入获取的 HTML 代码
26 f.write(response.body)
27 # 输出保存文件的名称
28 self.log('Saved file %s' % filename)
在运行 Scrapy 所创建的爬虫项目时,需要在命令行窗口中输入“scrapy crawl quotes”命令,其中“quotes”是自己定义的爬虫名称。由于笔者使用了第三方开发工具 PyCharm,所以需要在底部的 Terminal 窗口中输入运行爬虫的命令行,运行完成以后,将显示如图 16.17 所示的信息。
图 16.17 显示启动爬虫后的信息
说明:除在命令行窗口中输入命令“scrapy crawl quotes”启动爬虫以外,Scrapy 还提供了可以在程序中启动爬虫的 API,也就是 CrawlerProcess 类。首先在 CrawlerProcess初始化时传入项目的 settings 信息,然后在 crawl()方法中传入爬虫的名称,最后通过start()方法启动爬虫。代码如下:
01 # 导入 CrawlerProcess 类
02 from scrapy.crawler import CrawlerProcess
03 # 导入获取项目设置信息
04 from scrapy.utils.project import get_project_settings
05
06
07 # 程序入口
08 if __name__=='__main__':
09 # 创建 CrawlerProcess 类对象并传入项目设置信息参数
10 process = CrawlerProcess(get_project_settings())
11 # 设置需要启动的爬虫名称
12 process.crawl('quotes')
13 # 启动爬虫
14 process.start()

上一篇:Python编程题答案大一python编程题输入三角形的三条边长输出周长

下一篇:没有了

推荐阅读
声明 | 联系我们 | 关于我们
备案ICP编号  |   QQ:2151239526  |  地址:北京市东城区  |  电话:16605168200  |