python查看文件大小
① python 怎么判断文件的大小
importos
print('%dBytes'%(os.path.getsize(r'c:xxx.txt')))
② 请教如何使用python实现根据文件名获取文件大小和路径
怎么在Excel中运行python脚本?这个问题由来已久,很多pythoner都希望直接用python控制Excel,但是只能从外部调用,有没有一个VBA的东西可以直接在Excel中运行呢?答案是有,DataNitro就是这么一个东西,看看下面Excel中的界面,他就是了,可以直接点击‘run'来运行一个Python脚本。下面我们来看看它是如何安装与配置的。
先安装python2.7,其他版本不知道行不行,但是这个肯定行,然后配置环境变量,保证python在该环境中,打开开始菜单,找到计算机,然后右键单击它,选择【属性】
找到高级系统设置
找到环境变量,点击该按钮,打开环境变量设置窗口
找到Path系统变量,然后点击【编辑】
在这里,确保python的安装目录在,没有的话,添加进去
下面就可以安装该插件了,去官网下载一个;或者网络一下,各大下载网站都有
双击即可安装,安装过程就是一路点击’下一步,不过有一步需要注意
在这里,不要勾选python,如果通过这种方式安装python,你原先安装的python就无法使用了
最后安装完成,打开Excel就可以看到datanitro了
③ 用Python语言实现计算某个文件夹下所有文件的大小,并将结果果输出到屏幕上
importos
list=os.listdir(r"./文件夹名")
foriinlist:
print(os.path.getsize(i))
④ python中怎么查看文件大小
print(os.path.getsize("C:\Users\Administrator\Desktop\1234.txt")) 回去文件大小,以字节为单位
⑤ python 读取大文件数据怎么快速读取
python中读取数据的时候有几种方法,无非是read,readline,readlings和xreadlines几种方法,在几种方法中,read和xreadlines可以作为迭代器使用,从而在读取大数据的时候比较有效果.
在测试中,先创建一个大文件,大概1GB左右,使用的程序如下:
[python] view plainprint?
import os.path
import time
while os.path.getsize('messages') <1000000000:
f = open('messages','a')
f.write('this is a file/n')
f.close()
print 'file create complted'
在这里使用循环判断文件的大小,如果大小在1GB左右,那么结束创建文件。--需要花费好几分钟的时间。
测试代码如下:
[python] view plainprint?
#22s
start_time = time.time()
f = open('messages','r')
for i in f:
end_time = time.time()
print end_time - start_time
break
f.close()
#22s
start_time = time.time()
f = open('messages','r')
for i in f.xreadlines():
end_time = time.time()
print end_time - start_time
break
f.close()
start_time = time.time()
f = open('messages','r')
k= f.readlines()
f.close()
end_time = time.time()
print end_time - start_time
使用迭代器的时候,两者的时间是差不多的,内存消耗也不是很多,使用的时间大概在22秒作用
在使用完全读取文件的时候,使用的时间在40s,并且内存消耗相当严重,大概使用了1G的内存。。
其实,在使用跌倒器的时候,如果进行连续操作,进行print或者其他的操作,内存消耗还是不可避免的,但是内存在那个时候是可以释放的,从而使用迭代器可以节省内存,主要是可以释放。
而在使用直接读取所有数据的时候,数据会保留在内存中,是无法释放这个内存的,从而内存卡死也是有可能的。
在使用的时候,最好是直接使用for i in f的方式来使用,在读取的时候,f本身就是一个迭代器,其实也就是f.read方法
⑥ 用python 列出指定目录下所有的txt文件,并输出每个文件的创建日期和大小
《》网络网盘免费在线下载链接:
提取码:9cjq
操作更方便哦
⑦ python从txt文件中读取数字,并且判断其大小。
#!/usr/bin/python
#encoding:utf-8
importre
context="""
0.00000000E+001.99000000E-021.05000000E+000.00000000E+003.88519671E+02
4.20000000E-021.99000000E-021.00800000E+000.00000000E+004.23216155E+02
8.40000000E-021.99000000E-029.66000000E-010.00000000E+004.67920285E+02
1.26000000E-011.99000000E-029.24000000E-010.00000000E+004.89975818E+02
1.68000000E-011.99000000E-028.82000000E-010.00000000E+005.01845166E+02
2.10000000E-011.99000000E-028.40000000E-010.00000000E+005.10017363E+02
2.52000000E-011.99000000E-027.98000000E-010.00000000E+005.15927207E+02
2.94000000E-011.99000000E-027.56000000E-010.00000000E+005.18914324E+02
3.36000000E-011.99000000E-027.14000000E-010.00000000E+005.18683254E+02
"""
patt=re.compile(r"d.d+E[+-]d{2}")
array=[]
forlninfilter(None,context.splitlines()):
array.append(map(float,patt.findall(ln)))
debug=True
defdebugView(obj):
importpprint
ifdebug:
pprint.pprint(obj)
debugView(array)
你的数据来自文本文件,可以用 for ln in filter(None, open(datafile, 'rt'))
替代 for ln in filter(None, context.splitlines())
⑧ python 在不解压的情况下,怎么得知压缩包里面文件的大小呢
可以使用 tarfile 模块在不解压的情况下查看压缩包里文件的大小,代码如下:
#coding=utf8
importtarfile
importos
tar=tarfile.open('G:/test/abc.tar.gz','r:gz')
fortiintar:
ifti.isreg():
print(ti.name,ti.size)
⑨ Python中如何获取ftp服务器上的文件大小
这要看你下载用了哪个ftp库
搜到的代码
files = ftp.nlst()
for f in files:
print f
⑩ python 实时检测文件夹的大小,如果超过设定值,自动清空文件夹,如何
实时检测我觉得可能没必要了,周期性检测倒是不错,比如每隔30秒检查一次,除非你一秒钟就几十上百兆数据写入,那就得实时检测了。
实时监测的话,在while循环里不停的查看文件夹的变化
首写关于文件夹的大小,据我所知道的python标准库并没有提供关于文件夹大小的api或套件,你需要一个一个文件的去遍历获取文件的大小累加求和,获取文件大小可以使用os.stat(文件路径)。不过最好的方式,我觉得是通过调用系统命令获取文件夹的大小,这样就不用写递归方法,获取你要清空目录下的文件目录结构,当然目录结构简单的话,递归方法都不用写。不知道你的操作系统是什么,linux的话可以用
-sh /data/applog/
在python2.7中可以使用commands.getoutput执行上面的命令并获取到输出结果
第二就是关于清空文件夹的,你必须保证没有程序对你要清空的目录进行访问,你才能正常的清空,否则,对于在使用中的文件你会清空失败。清空文件夹你可以使用shutil库里的rmtree()方法,它不管你文件夹是否有文件或子文件夹,使用它就是一行代码的事情,如果使用os模块进行删除的话你要从最底层文件夹开始删除。最后你再重新新建这文件夹
上面只是思路,具体使用还得根据你的实际需要来的
如果你要进行周期性检测的话,可以使用标准库中的sched库来开发