内容详情 您现在的位置是: 首页> Python

python操作指令

发布时间:2020-11-15 19:12 已围观:1649

摘要python操作指令

F1     打开 Python 帮助文档     Python文件窗口和Shell 均可用
Alt+/     自动补全前面曾经出现过的单词,如果之前有多个单词具有相同前缀,可以连续按下该快捷键,在多个单词中间循环选择     Python 文件窗口和 Shell 窗口均可用
Ctrl+Z     撤销一步操作     Python 文件窗口和 Shell 窗口均可用
Ctrl+Shift+Z     恢复上—次的撤销操作     Python 文件窗口和 Shell 窗口均可用
Ctrl+S     保存文件     Python 文件窗口和 Shell 窗口均可用

Alt+P     浏览历史命令(上一条)     仅 Python Shell 窗口可用
Alt+N     浏览历史命令(下一条)     仅 Python Shell 窗口可用
Ctrl+F6 重新启动 Python Shell     仅 Python Shell 窗口可用

Alt+3     注释代码块     仅 Python 文件窗口可用
Alt+4     取消代码块注释     仅 Python 文件窗口可用
Alt+g     转到某一行     仅 Python 文件窗口可用
Ctrl+]     缩进代码块     仅 Python 文件窗口可用
Ctrl+[     取消代码块缩进     仅 Python 文件窗口可用

=============================================================
python文件读写模式 r,r+,w,w+,a,a+ 简介

模式     可做操作    若文件不存在     是否覆盖
r     只能读         报错          -
r+     可读可写    报错          是
w     只能写         创建          是
w+      可读可写    创建           是
a       只能写      创建          否,追加写
a+     可读可写    创建          否,追加写

f = open("poem.txt","a+")#打开文件以便写入
print('沧海月明珠有泪',file=f)
print('蓝回日暖玉生烟',file=f)
f.close()

=============================================================
python中取余%

a=5
n=3
print(str(a)+"%"+str(n)+"的值为:", a % n)

r=a-n*(a//n)
print(r)

=============================================================
位运算(32位):

原码:符号位为 0 代表正数,符号位为 1 代表负数;
反码:符号位保持不变,对原码按位取反;
补码:正数的补码和原码完全相同,负数的补码是其反码 +1;

与&:二进制码都是1,取1
或|:有1位1
异或^:相同位0,不同位1
~取反:对补码取反
<<:对补码左移 (左边溢出的丢弃,右边以 0 来填充)
>>:对补码右移 (左边以符号位来填充,右侧溢出丢弃)

=============================================================
Scrapy 安装
pip install scrapy
官网下载对应python 版本的Twisted (www.lfd.uci.edu/~gohlke/pythonlibs/)
pip install Twisted-18.9.0-cp36-cp36m-win_amd64.whl

使用工具:scrapy、pip、 Xpath

=============================================================
爬虫
1.cmd cd 到project项目下执行新建项目 scrapy startproject NewSpider
2.爬取信息

 https://www.zhipin.com/c101280100/h_101280100
3.提取节点内容
response.xpath ('//div[@class="job-primary"]/div/h3/a/div/text()').extract()
4.cd NewSpider目录下,创建蜘蛛 Spider:scrapy genspider job_position "zhipin.com"
5.启动蜘蛛 scrapy crawl job_position

=============================================================

赞一个 (5)