一、前言
最近做web网站的测试,遇到很多需要批量造数据的功能;比如某个页面展示数据条数需要达到10000条进行测试,此时手动构造数据肯定是不可能的,此时只能通过python脚本进行自动构造数据;本次构造数据主要涉及到在某个表里面批量添加数据、在关联的几个表中同步批量添加数据、批量查询某个表中符合条件的数据、批量更新某个表中符合条件的数据等。
二、数据添加
即批量添加数据到某个表中。
insert_data.py
import pymysql import random import time from get_userinfo import get_userinfo from get_info import get_info from get_tags import get_tags from get_tuser_id import get_utag class DatabaseAccess(): def __init__(self): self.__db_host = "xxxxx" self.__db_port = 3307 self.__db_user = "root" self.__db_password = "123456" self.__db_database = "xxxxxx" # 连接数据库 def isConnectionOpen(self): self.__db = pymysql.connect( host=self.__db_host, port=self.__db_port, user=self.__db_user, password=self.__db_password, database=self.__db_database, charset='utf8' ) # 插入数据 def linesinsert(self,n,user_id,tags_id,created_at): self.isConnectionOpen() # 创建游标 global cursor conn = self.__db.cursor() try: sql1 = ''' INSERT INTO `codeforge_new`.`cf_user_tag`(`id`, `user_id`, `tag_id`, `created_at`, `updated_at`) VALUES ({}, {}, {}, '{}', '{}'); '''.format(n,user_id,tags_id,created_at,created_at) # 执行SQL conn.execute(sql1,) except Exception as e: print(e) finally: # 关闭游标 conn.close() self.__db.commit() self.__db.close() def get_data(self): # 生成对应数据 1000条 for i in range(0,1001): created_at = time.strftime('%Y-%m-%d %H:%M:%S',time.localtime()) # print(create_at) # 用户id tuserids = [] tuserid_list = get_utag() for tuserid in tuserid_list: tuserids.append(tuserid[0]) # print(tuserids) userid_list = get_userinfo() user_id = random.choice(userid_list)[0] if user_id not in tuserids: user_id=user_id # 标签id tagsid_list = get_tags() tags_id = random.choice(tagsid_list)[0] self.linesinsert(i,user_id,tags_id,created_at) if __name__ == "__main__": # 实例化对象 db=DatabaseAccess() db.get_data()
二、数据批量查询
select_data.py
import pymysql import pandas as pd import numpy as np def get_tags(): # 连接数据库,地址,端口,用户名,密码,数据库名称,数据格式 conn = pymysql.connect(host='xxx.xxx.xxx.xxx',port=3307,user='root',passwd='123456',db='xxxx',charset='utf8') cur = conn.cursor() # 表cf_users中获取所有用户id sql = 'select id from cf_tags where id between 204 and 298' # 将user_id列转成列表输出 df = pd.read_sql(sql,con=conn) # 先使用array()将DataFrame转换一下 df1 = np.array(df) # 再将转换后的数据用tolist()转成列表 df2 = df1.tolist() # cur.execute(sql) # data = cur.fetchone() # print(df) # print(df1) # print(df2) return df2 conn.close()
三、批量更新数据
select_data.py
import pymysql import pandas as pd import numpy as np def get_tags(): # 连接数据库,地址,端口,用户名,密码,数据库名称,数据格式 conn = pymysql.connect(host='xxx.xxx.xxx.xxx',port=3307,user='root',passwd='123456',db='xxxx',charset='utf8') cur = conn.cursor() # 表cf_users中获取所有用户id sql = 'select id from cf_tags where id between 204 and 298' # 将user_id列转成列表输出 df = pd.read_sql(sql,con=conn) # 先使用array()将DataFrame转换一下 df1 = np.array(df) # 再将转换后的数据用tolist()转成列表 df2 = df1.tolist() # cur.execute(sql) # data = cur.fetchone() # print(df) # print(df1) # print(df2) return df2 conn.close()
以上就是python 实现数据库中数据添加、查询与更新的示例代码的详细内容,更多关于python 数据库添加、查询与更新的资料请关注其它相关文章!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]