简介
今天试着用ptyhon做了一个抓取网页内容,并生成word文档的功能,功能很简单,做一下记录以备以后用到。
生成word用到了第三方组件python-docx,所以先进行第三方组件的安装。由于windows下安装的python默认不带setuptools这个模块,所以要先安装setuptools这个模块。
安装
1、在python官网上找到 https://bootstrap.pypa.io/ez_setup.py ,把代码保存到本地并执行: python ez_setup.py
2、下载python-docx (https://pypi.python.org/pypi/python-docx/0.7.4),下载完成后解压并进入到 XXX\python-docx-0.7.4 安装python-docx : python setup.py install
这样python-docx就安装成功了,可以用它来操作word文档了,word文档的生成参考的这里https://python-docx.readthedocs.org/en/latest/index.html
html解析用到的是sgmllib里的SGMLParser url内容的获取用到的是urllib、urllib2
实现代码
# -*- coding: cp936 -*- from sgmllib import SGMLParser import os import sys import urllib import urllib2 from docx import Document from docx.shared import Inches import time ##获取要解析的url class GetUrl(SGMLParser): def __init__(self): SGMLParser.__init__(self) self.start=False self.urlArr=[] def start_div(self,attr): for name,value in attr: if value=="ChairmanCont Bureau":#页面js中的固定值 self.start=True def end_div(self): self.start=False def start_a(self,attr): if self.start: for name,value in attr: self.urlArr.append(value) def getUrlArr(self): return self.urlArr ##解析上面获取的url,获取有用数据 class getManInfo(SGMLParser): def __init__(self): SGMLParser.__init__(self) self.start=False self.p=False self.dl=False self.manInfo=[] self.subInfo=[] def start_div(self,attr): for name,value in attr: if value=="SpeakerInfo":#页面js中的固定值 self.start=True def end_div(self): self.start=False def start_p(self,attr): if self.dl: self.p=True def end_p(self): self.p=False def start_img(self,attr): if self.dl: for name,value in attr: self.subInfo.append(value) def handle_data(self,data): if self.p: self.subInfo.append(data.decode('utf-8')) def start_dl(self,attr): if self.start: self.dl=True def end_dl(self): self.manInfo.append(self.subInfo) self.subInfo=[] self.dl=False def getManInfo(self): return self.manInfo urlSource="http://www.XXX" sourceData=urllib2.urlopen(urlSource).read() startTime=time.clock() ##get urls getUrl=GetUrl() getUrl.feed(sourceData) urlArr=getUrl.getUrlArr() getUrl.close() print "get url use:" + str((time.clock() - startTime)) startTime=time.clock() ##get maninfos manInfos=getManInfo() for url in urlArr:#one url one person data=urllib2.urlopen(url).read() manInfos.feed(data) infos=manInfos.getManInfo() manInfos.close() print "get maninfos use:" + str((time.clock() - startTime)) startTime=time.clock() #word saveFile=os.getcwd()+"\\xxx.docx" doc=Document() ##word title doc.add_heading("HEAD".decode('gbk'),0) p=doc.add_paragraph("HEADCONTENT:".decode('gbk')) ##write info for infoArr in infos: i=0 for info in infoArr: if i==0:##img url arr1=info.split('.') suffix=arr1[len(arr1)-1] arr2=info.split('/') preffix=arr2[len(arr2)-2] imgFile=os.getcwd()+"\\imgs\\"+preffix+"."+suffix if not os.path.exists(os.getcwd()+"\\imgs"): os.mkdir(os.getcwd()+"\\imgs") imgData=urllib2.urlopen(info).read() try: f=open(imgFile,'wb') f.write(imgData) f.close() doc.add_picture(imgFile,width=Inches(1.25)) os.remove(imgFile) except Exception as err: print (err) elif i==1: doc.add_heading(info+":",level=1) else: doc.add_paragraph(info,style='ListBullet') i=i+1 doc.save(saveFile) print "word use:" + str((time.clock() - startTime))
总结
以上就是本文关于python解析html提取数据,并生成word文档实例解析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]