十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
很多时候我们会面临大文件无法加载到内存,或者要传输大文件的问题。这时候就需要考虑将大文件分割为小文件进行处理了。
沙湾ssl适用于网站、小程序/APP、API接口等需要进行数据传输应用场景,ssl证书未来市场广阔!成为成都创新互联的ssl证书销售渠道,可以享受市场价格4-6折优惠!如果有意向欢迎电话联系或者加微信:028-86922220(备注:SSL证书合作)期待与您的合作!下面是一种用python分割与合并分件的实现。
import os FILE_DIR = os.path.dirname(os.path.abspath(__file__)) #======================================================== # 文件操作 #======================================================== def get_filelist1(dir, postfix): ''' 按照后缀返回文件名列表 INPUT -> 目录地址, 文件后缀 OUTPUT -> 文件名列表 ''' return [os.path.join(dir, f) for f in os.listdir(dir) if f.endswith(postfix)] def get_filelist2(dir, preffix): ''' 按照前缀返回文件名列表 INPUT -> 目录地址, 文件前缀 OUTPUT -> 文件名列表 ''' return [os.path.join(dir, f) for f in os.listdir(dir) if f.startswith(preffix)] def get_file_postfix(filename): ''' 获取文件名后缀 INPUT -> 文件名 OUTPUT -> 文件后缀 ''' file = os.path.splitext(filename) preffix, postfix = file return postfix def get_file_preffix(filename): ''' 获取文件名前缀 INPUT -> 文件名 OUTPUT -> 文件前缀 ''' file = os.path.splitext(filename) preffix, postfix = file return preffix def file_chunkspilt(path, filename, chunksize): ''' 文件按照数据块大小分割为多个子文件 INPUT -> 文件目录, 文件名, 每个数据块大小 ''' if chunksize > 0: filepath = path+'/'+filename partnum = 0 inputfile = open(filepath, 'rb') while True: chunk = inputfile.read(chunksize) if not chunk: break partnum += 1 newfilename = os.path.join(path, (filename+'_%04d' % partnum)) sub_file = open(newfilename, 'wb') sub_file.write(chunk) sub_file.close() inputfile.close() else: print('chunksize must bigger than 0!') def file_linespilt(path, filename, limit): ''' 文件按照行分割成多个子文件 INPUT -> 文件目录, 文件名, 行数 ''' if limit > 0: preffix = get_file_preffix(filename) postfix = get_file_postfix(filename) file_count = 0 l_list = [] with open(path+'/'+filename, 'rb') as f: for line in f: l_list.append(line) if len(l_list) < limit: continue subfile = preffix+"_"+str(file_count)+"."+postfix with open(FILE_DIR+'/'+subfile, 'wb') as file: for l in l_list[:-1]: file.write(l) file.write(l_list[-1].strip()) l_list=[] file_count += 1 else: print('limit must bigger than 0!') def file_combine(path, filename): ''' 子文件合并 INPUT -> 文件目录, 文件名 ''' filepath = path+'/'+filename partnum = 0 outputfile = open(filepath, 'wb') subfile_list = get_filelist2(FILE_DIR, filename+'_') for subfile in subfile_list: temp = open(subfile, 'rb') outputfile.write(temp.read()) temp.close() outputfile.close()