目标
最近实验室里成立了一个计算机兴趣小组
倡议大家多把自己解决问题的经验记录并分享
就像在CSDN写博客一样
虽然刚刚起步
但考虑到后面此类经验记录的资料会越来越多
所以一开始就要做好模板设计(如下所示)
方便后面建立电子数据库
从而使得其他人可以迅速地搜索到相关记录
据说“人生苦短,我用python”
所以决定用python从docx文档中提取文件头的信息
然后把信息更新到一个xls电子表格中,像下面这样(直接po结果好了)
而且点击文件路径可以直接打开对应的文件(含超链接)
代码实现
1. 采集docx里面文件头信息
# -*- coding:utf-8 -*- # 此程序可扫描Log中的docx文件并返回基本信息 import docx from docx import Document test_d = '../log/sublime搭建python的集成开发环境.docx' def docxInfo(addr): document = Document(addr) info = {'title':[], 'keywords':[], 'author':[], 'date':[], 'question':[]} lines = [0 for i in range(len(document.paragraphs))] k = 0 for paragraph in document.paragraphs: lines[k] = paragraph.text k = k+1 index = [0 for i in range(5)] k = 0 for line in lines: if line.startswith('标题'): index[0] = k if line.startswith('关键词'): index[1] = k if line.startswith('作者'): index[2] = k if line.startswith('日期'): index[3] = k if line.startswith('问题描述'): index[4] = k k = k+1 info['title'] = lines[index[0]+1] keywords = [] for line in lines[index[1]+1:index[2]]: keywords.append(line) info['keywords'] = keywords info['author'] = lines[index[2]+1] info['date'] = lines[index[3]+1] info['question'] = lines[index[4]+1] return info if __name__ == '__main__': print(docxInfo(test_d))
2. 遍历log文件夹,进行信息更新
# -*- coding:utf-8 -*- # 此程序可以批量扫描log中的文件,如果碰到docx文档, # 则调用readfile()提取文档信息,并将信息保存到digger # 日志列表.xls之中,方便后期快速检索 import os,datetime import time import xlrd from xlrd import xldate_as_tuple import xlwt from readfile import docxInfo from xlutils.copy import copy # 打开日志列表读取最近一条记录的更新日期 memo_d = '../log/digger日志列表.xls' memo = xlrd.open_workbook(memo_d) #读取excel sheet0 = memo.sheet_by_index(0) #读取第1张表 memo_date = sheet0.col_values(5) #读取第5列 memo_n = len(memo_date) #去掉标题 if memo_n>0: xlsx_date = memo_date[memo_n-1] #读取最后一条记录的日期, latest_date = sheet0.cell_value(memo_n-1,5) # 返回时间戳 # 新建一个xlsx memo_new = copy(memo) sheet1 = memo_new.get_sheet(0) # 重建超链接 hyperlinks = sheet0.col_values(6) # xlrd读取的也是text,造成超链接丢失 k = 1 n_hyperlink = len(hyperlinks) for k in range(n_hyperlink): link = 'HYPERLINK("%s";"%s")' %(hyperlinks[k],hyperlinks[k]) sheet1.write(k,6,xlwt.Formula(link)) k = k+1 # 判断文件后缀 def endWith(s,*endstring): array = map(s.endswith,endstring) if True in array: return True else: return False # 遍历log文件夹并进行查询 log_d = '../log' logFiles = os.listdir(log_d) for file in logFiles: if endWith(file,'.docx'): timestamp = os.path.getmtime(log_d+'/'+file) if timestamp>latest_date: info = docxInfo(log_d+'/'+file) sheet1.write(memo_n,0,info['title']) keywords_text = ','.join(info['keywords']) sheet1.write(memo_n,1,keywords_text) sheet1.write(memo_n,2,info['author']) sheet1.write(memo_n,3,info['date']) sheet1.write(memo_n,4,info['question']) #获取当前时间 time_now = time.time() #浮点值,精确到毫秒 sheet1.write(memo_n,5, time_now) link = 'HYPERLINK("%s";"%s")' %(file,file) sheet1.write(memo_n,6,xlwt.Formula(link)) memo_n = memo_n+1 os.remove(memo_d) memo_new.save(memo_d) print('memo was updated!')
其实还有一些操作电子表格更好的模块,比如panda、xlsxwriter、openpyxl等。不过上述代码已经基本能实现功能,而且科研狗毕竟没那么多时间写代码做调试,所以后面有空再update吧!
致谢
在此过程中大量借鉴了CSDN论坛中各位大神的各种经验!!!
以上这篇使用python批量读取word文档并整理关键信息到excel表格的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
暂无“使用python批量读取word文档并整理关键信息到excel表格的实例”评论...
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新动态
2024年11月26日
2024年11月26日
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]