前言
本文主要给大家介绍了关于利用python 3.5检测路由器流量并写入txt的相关内容,分享出来供大家参考学习,下面话不多说了,来一起看看详细的介绍。
环境交代:win10+python3.6
代码非常简单,
- 模拟登陆,没有
- 网页标签过滤,没有
- 多线程,也没有
- 文本处理,只有涉及到字符串截取
- 本地文本写入,有
这么低级的代码是因为这个路由器页面非常垃圾,用不到~~~,不过这样也适合初学者观看,当然了,后续会尝试添加更多功能
首先我们对自己的需求要进行分析,新手嘛,先把复杂的东西简单化,模块化,整理出思路,再一步步的去实现,最后整合。
1、获得数据
- 网页编码,编码没有处理好会报错,涉及到一些函数
- 编码转换,read()方法获取到的非字符串类型,要预先进行处理
2、处理数据
- 方法有很多,正则,字符串截取,等等不一一介绍,适合的才是最好的,我觉得正则是很强大的,但是也是相当反人类的
3、保存数据
- 注意win下路径和linux下路径写法不同
- 写入的编码类型需要进行处理
重点讲一讲我遇到的坑
一般来讲右键查看页面编码,如图所示,因为在国外是非常奇怪的编码
当时我就蒙蔽了,这是什么鬼~
这个时候我们需要用到chardet库来判断编码类型,拿百度举例,自行百度python第三方库如何安装,这里不做阐述
import chardet import urllib.request html = urllib.request.urlopen('http://www.baidu.com/').read() print (chardet.detect(html))
得到的结果如下:
C:\python\python.exe D:/python/test/2.py {'encoding': 'utf-8', 'confidence': 0.99, 'language': ''} Process finished with exit code 0
1.取得字符串
import urllib.request import os from bs4 import BeautifulSoup import time def getHtml(url): html = urllib.request.urlopen(url).read() return html #获取字符串,因为我在国外,路由器low到爆,编码格式也蛋疼了我很久 html = getHtml("http://192.168.0.254/pub/fbx_info.txt") #将read()获取的是bytes编码转化成str html = html.decode("ISO-8859-1")
因为是欧洲网站,获取的却是一个 【ISO-8859-1】的网页编码。
由于这里我们用read()方法读取,获取到的是bytes类型,此时需要转换成str类型的,才可以进行下一步的处理,如果不处理就会有下列错误
TypeError: a bytes-like object is required, not 'str'
这里可以使用decode()方法处理一下
html = html.decode("ISO-8859-1")
使用type()方法检测下编码
print(type(html))
反馈
<class 'str'>
2.处理字符串
#操作字符串 html = html.split('WAN')[1].split('Ethernet')[0] time = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()) #因为使用记事本,在记事本中换行只认\r\n str = time+html+"\r\n"
这里我使用的是split()方法,使用方法呢,推荐大家学会查手册,这里也不详细再解释了。
我通过split()方法截取到了自己需要的字符串,然后用time()函数获取当前本地时间,然后用+连接符把当前本地时间和处理后的字符串连接起来,再在末尾接上换行符rn,因为懒到只用记事本,换行符这里只算一个小坑
3.写入txt
# 保存文件为txt,win环境路径 outfile = open("C:\\Users\\sw\\Desktop\\route.txt","a+",encoding="utf-8",newline='\n') outfile.write(str) outfile.close() print("文件已保存到本地")
关于open函数,每一个参数,此篇博文讲的非常清楚非常详细,感谢博主的整理,大家可以看看,建议收藏
https://www.jb51.net/article/58002.htm
要强调的有2个参数
encoding和newline,因为用的比较少,然后很多文章并不会提到
有人可能会说,哇,真的懒
没错,我就是懒,而且再说了,写了还没人家写的好,那我何必误人子弟。
下面贴上全部代码
import urllib.request import os from bs4 import BeautifulSoup import time def getHtml(url): html = urllib.request.urlopen(url).read() return html #获取字符串,因为我在国外,路由器low到爆,编码格式也蛋疼了我很久 html = getHtml("http://192.168.0.254/pub/fbx_info.txt") #将read()获取的是bytes编码转化成str html = html.decode("ISO-8859-1") #再次检测编码 #print(type(html)) #操作字符串 html = html.split('WAN')[1].split('Ethernet')[0] time = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()) #因为使用记事本,在记事本中换行只认\r\n str = time+html+"\r\n" # 保存文件为txt,win环境路径 #print(type(str)) outfile = open("C:\\Users\\sw\\Desktop\\route.txt","a+",encoding="utf-8",newline='\n') outfile.write(str) outfile.close() print("文件已保存到本地")
本来当初的想法是每秒获取一次流量,写入txt,再读txt,通过数据来绘图
但是有事暂时搁下了,只是win计划任务定时运行,勉强凑活用下日后再学习补充
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对的支持。
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]