前言

说到幻影坦克,我就想起红色警戒里的……

幻影坦克(Mirage Tank),《红色警戒2》以及《尤里的复仇》中盟军的一款伪装坦克,盟军王牌坦克之一。是爱因斯坦在德国黑森林中研发的一种坦克。虽然它无法隐形,但它却可以利用先进的光线偏折原理可以伪装成树木(岩石或草丛)来隐藏自己。

在一些MOD中,幻影坦克可以选择变换的树木,这样便可以和背景的树木融合,而不会令人生疑。

额!这是从什么百科ctrl+v过来的吗。我跟你说个P~ UBG

不过话说回来,里面有一句说到和背景融合,这大概就是这种图片的原理所在了。

一些聊天软件或网站总是以白色背景和黑色背景(夜间模式)显示图片,你在默认的白色背景下看到一张图(图A),但是点击放大却变成另一张图(图B)。这是因为查看详情使用的背景是黑色背景。

之前在网上看到用PS制作幻影坦克效果图的方法,了解到几个图层混合模式的公式,也录制过PS动作来自动化操作。但总感觉不够效率,作为极客嘛,当然是要用代码来完成这些事情。

Python批量生成幻影坦克图片实例代码

一、准备图片

创建一个文件夹Import,将你要处理的所有图片都放到这个文件夹里

图片的命名方式:

  • 白色背景显示图A、黑色背景显示图B这种形式的,图B的文件名字是图A的名字加后缀_d
    例如,图A为1.png,图B则为1_d.png,与之配对成为一组即可
  • 表面是白色图片(图A),点击显示隐藏图片(图B)。这里并不需要你指定一张白色图片,不需要更改图片名字,程序找不到与之配对的后缀_d图片,会自动生成白色图片(图A)
  • 相反的,表面看是图片(图A),点击却消失成纯黑色(图B)。只需要在图片名字加后缀_black

二、Python+PIL代码实现过程

Ⅰ. 初始化

注:脚本文件与 Import文件夹在同一目录

运行,导入模块,定义变量,创建导出目录Export,并将工作目录切换到Import

# -*- coding: utf-8 -*-
# python 3.7.2
# 2019/04/21 by sryml.

import os
import math

from timeit import timeit
from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
from multiprocessing import cpu_count

#
import numba as nb
import numpy as np

from PIL import Image


# ---
IMPORT_FOLDER = 'Import'
EXPORT_FOLDER = 'Export'
IMAGE_FILES = []

#
ALIGN2_A = 0
ALIGN2_B = 1
ALIGN2_MAX = 'max'

NO_MODIFT = 0
STRETCH = 1
CONSTRAINT_RATIO = 2

# ---


if __name__ == '__main__':
 if not os.path.exists(EXPORT_FOLDER):
 os.makedirs(EXPORT_FOLDER)
 os.chdir(IMPORT_FOLDER)

Ⅱ. 将所有要处理的图片文件添加到列表

执行all_img2list()

获取当前目录(Import)所有文件,按名字升序排序。将后缀带_d的图B与图A配对一组,白图到原图,原图到黑图的图片也进行相关标记并存到一个列表。每个元组将生成一张幻影坦克图片

def all_img2list():
 global IMAGE_FILES
 IMAGE_FILES= []
 Imgs = os.listdir('./')
 Imgs.sort(key= lambda i: os.path.splitext(i)[0])

 for i in Imgs:
 name = os.path.splitext(i)
 imgB= name[0]+'_d' + name[1]

 if imgB in Imgs:
  Imgs.remove(imgB)
  img_group= (i,imgB)
 elif name[0][-6:].lower() == '_black':
  img_group= (i,'_black')
 else:
  img_group= (i,None)

 IMAGE_FILES.append(img_group)

Ⅲ. 自动化处理,多进程任务分配

执行AutoMTank()

不想让cpu满载运行,进程数量为cpu总核心减1,将列表里所有元组分成N等份集合的列表task_assign(N为进程数量)

def AutoMTank():
 cpu = cpu_count()-1
 pool = ProcessPoolExecutor(cpu) #max_workers=4
 L = IMAGE_FILES
 F = int(len(L)/cpu)
 task_assign = [L[n*F:] if (n+1)==cpu else L[n*F:(n+1)*F] for n in range(cpu)]
 results = list(pool.map(FlashMakeMTank, task_assign))

 pool.shutdown()

 print ('\n%d辆幻影坦克制作完成!' % len(IMAGE_FILES))

每个进程对接到的任务列表进行多线程处理:FlashMakeMTank

因为是图片算法处理,属于计算密集型,线程数量不需要太多。经过测试多线程还是有点效率提升的,线程数就设置为cpu核心数吧。

def FlashMakeMTank(task):
 pool = ThreadPoolExecutor(cpu_count())
 results = list(pool.map(MakeMTank, task))
 pool.shutdown()

Ⅳ. 盟军战车工厂

每个线程都将它接到的任务 - 图片组丢给我们的盟军战车工厂:MakeMTank 来生产幻影坦克

开头是打开图A和图B文件对象赋值给imgA和imgB,判断到那些想要白图到原图效果的图片,则在内存中生成一张纯白色的图片对象赋值给imgA。原图到黑图则生成纯黑色图片对象赋值给imgB

别以为这战车工厂看起来这么短,实际上算法都是通过调用函数获得返回结果,解释起来可有点费劲

def MakeMTank(i_group):
 ratios= [0,0]
 align= []
 if not i_group[1]:
 imgB= Image.open(i_group[0])
 imgA= Image.new('L',imgB.size,(255,))
 elif i_group[1]=='_black':
 imgA= Image.open(i_group[0])
 imgB= Image.new('L',imgA.size,(0,))
 else:
 imgA= Image.open(i_group[0])
 imgB= Image.open(i_group[1])
 ratios= [0.5,-0.5] #明度比值

 # ALIGN2_MAX(取最大的宽和最大的高) ALIGN2_A(缩放到图A) ALIGN2_B(缩放到图B) 
 # NO_MODIFT(不修改) STRETCH(拉伸) CONSTRAINT_RATIO(约束比例)
 align= [ALIGN2_B, CONSTRAINT_RATIO]

 A_Size,B_Size= imgA.size,imgB.size
 img_objs= [imgA,imgB]
 for n,img in enumerate(img_objs):
 if img.mode== 'RGBA':
  img= img.convert('RGB')
 img_array= np.array(img)
 if img.mode != 'L' and ( [(img_array[:,:,i]==img_array[:,:,2]).all() for i in range(2)]!= [True,True] ):
  img= Desaturate(img_array) #去色
 else:
  img= img.convert('L')

 if align and (A_Size!=B_Size):
  img= ImgAlign(n,img,A_Size,B_Size,align) #图像对齐

 if ratios[n]:
  img= Lightness(img,ratios[n]) #明度
 img_objs[n]= img

 imgA,imgB = img_objs

 imgA = Invert(imgA) #反相
 imgO = LinearDodge(imgA, imgB) #线性减淡(添加)
 imgR = Divide(imgO, imgB) #划分
 imgR_mask = AddMask(imgR, imgO) #添加透明蒙版

 name= os.path.splitext(i_group[0])[0]
 imgR_mask.save('../'+EXPORT_FOLDER+'/' + name+'.png')

图片对象打开完成之后呢,把它们放到一个列表里遍历它进行操作

首先判断到图片模式是否为RGBA,最后的A表示这张图片是带有透明通道的。而我们的幻影坦克原理就是利用的透明通道,怎能让它来胡搅蛮缠呢,速速将它转换为RGB模式

接着将图像对象转为数组,判断这张图片如果不是灰度模式并且还没有去色的情况下,那就要对它进行去色操作了。
去完色的再将它转为灰度模式。

有些人可能对灰度和去色有什么误解,灰度 ≠ 去色,这是重点。虽然它们的结果都是灰色的图片,但是算法不一样,呈现的图片对比度也不一样,直接转成灰度的坦克是没有灵魂的。RGB图片直接转灰度会丢失一些细节,所以要对它进行去色操作。下面的操作都是仿照PS的步骤来处理了

(1) 去色函数:Desaturate

公式:( max(r,g,b) + min(r,g,b) ) / 2

每个像素取其RGB颜色中最大与最小值的均数

这个函数接受一个数组参数

例如某个像素RGB值(233,50,23),计算得出 (233+23) / 2 = 128,这时候此像素点三个通道都是同一个值(128,128,128)
这个算法过程消耗的性能较多,像一张1000*1000的图片就得进行一百万次计算,因此我使用了numba.jit加速。

对图片数组进行操作,使用argsort()将所有像素的RGB值从小到大排序并返回一个索引数组。

uint8类型的值的范围在0~255,若计算出的值不在这范围则会抛出溢出错误,因此使用了int。

我创建了一个灰度图片数组data,将每一个对应像素的均值赋值给它,相当于去色后再转为灰度模式。

最后返回由数组转换成的图片对象

@nb.jit
def Desaturate(img_array):
 idx_array = img_array.argsort()
 width = img_array.shape[1]
 height = img_array.shape[0]
 data = np.zeros((height,width),dtype=np.uint8)
 for x in range(height):
 for y in range(width):
  idx= idx_array[x,y]
  color_min= img_array[x,y, idx[0]]
  color_max= img_array[x,y, idx[2]]
  data[x,y]= round( (int(color_min) + int(color_max)) / 2 )
 return Image.fromarray(data)

(2) 图像对齐:ImgAlign

对齐方式(列表类型两个值)

对齐目标 缩放图像 ALIGN2_MAX 取最大的宽和最大的高 NO_MODIFT 不修改(缩小或仅画布) ALIGN2_A 图A STRETCH 拉伸 ALIGN2_B 图B CONSTRAINT_RATIO 约束比例

例如我要把图A对齐到图B且按比例缩放:mode = [ALIGN2_B, CONSTRAINT_RATIO]

这个函数接受5个参数

①当前图片序号(0代表图A,1代表图B)

②当前图片对象

③ - ④图A和图B的尺寸

⑤对齐方式

def ImgAlign(idx,img,A_Size,B_Size,mode):
 size= img.size
 old_size= (A_Size,B_Size)

 if mode[0]== ALIGN2_MAX:
 total_size= max(A_Size[0], B_Size[0]), max(A_Size[1], B_Size[1])
 if size != total_size:
  if mode[1]== STRETCH:
  img= img.resize(total_size, Image.ANTIALIAS)
  else:
  new_img= Image.new('L',total_size, (255 if idx==0 else 0,))
  diff= (total_size[0]-size[0],total_size[1]-size[1])
  min_diff= min(diff[0],diff[1])
  if min_diff != 0 and mode[1]:
   idx= diff.index(min_diff)
   scale= total_size[idx] / size[idx]
   resize= [total_size[idx], round(size[1-idx]*scale)]
   if idx:
   resize.reverse()
   img= img.resize(resize, Image.ANTIALIAS)
  new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)])
  img= new_img
 elif idx != mode[0]:
 total_size= old_size[mode[0]]
 if mode[1]== STRETCH:
  img= img.resize(total_size, Image.ANTIALIAS)
 else:
  new_img= Image.new('L',total_size, (255 if idx==0 else 0,))
  diff= (total_size[0]-size[0],total_size[1]-size[1])
  min_diff= min(diff[0],diff[1])
  if (min_diff > 0 and mode[1]) or (min_diff < 0):
  idx= diff.index(min_diff)
  scale= total_size[idx] / size[idx]
  resize= [total_size[idx], round(size[1-idx]*scale)]
  if idx:
   resize.reverse()
  img= img.resize(resize, Image.ANTIALIAS)
  new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)])
  img= new_img

 return img

(3) 明度函数:Lightness

公式:255 * ratio + img * (1-ratio)

"htmlcode">

def Lightness(img,ratio):
 if ratio>0:
 return img.point(lambda i: int(i*(1-ratio) + 255*ratio))
 return img.point(lambda i: math.ceil(i*(1+ratio)))

实际上这是图层的不透明度混合公式,PS中,明度的实现就是在当前图层的上方创建一个白色或黑色图层,然后调整其透明度即可。所以,

明度调  100% 相当于白色图层的不透明度为100%,显示纯白

明度调 -100% 相当于黑色图层的不透明度为100%,显示纯黑。

看到这里,要暂停一下了。是不是感觉说了这么多都没有提到幻影坦克的详细原理,是的,只有当你理解了PS的不透明度混合公式,你才能理解后面的步骤。

(3-x) 重点!!推导幻影坦克的原理……

这里需要用到PS的几个图层混合模式

不透明度混合公式:Img输出 = Img上 * o + Img下 * (1 - o)

小字母o代表不透明度。想一想,把两张图片导入到PS,上面的图层命名为imgA,下面的图层为imgB。

当imgA的不透明度为100%(o=1)时,根据图层混合公式得到img输出=imgA,也就是完全显示上层图像。

当imgA的不透明度为0%(o=0)时,得到img输出=imgB,完全显示下层图像。

当不透明度为50%,自然就看到了A与B的混合图像。

但是我们要将这两张图给整进一张图里,然后在类似手机QQ这种只有白色背景和黑色背景的环境下,分别显示出imgA和imgB。听起来有点抽象,不要慌,我们来列方程。假设这张最终成果图为imgR

① ImgA = ImgR * o + 255 * (1 - o) 白色背景下 ② ImgB = ImgR * o +     0 * (1 - o) 黑色背景下(点击放大后)

这时候ImgR充当上图层(Img上)。它有一个固定不透明度o,或者说是它的图层蒙版(ImgO表示ImgR的蒙版),蒙版的像素值为0~255的单通道灰度色值。填充为黑色0相当于图层的不透明度为0%,填充为白色相当于图层不透明度为100%。那么这个固定不透明度 o 实际上就是 ⑨ o = ImgO / 255

而Img下就是聊天软件中的白色背景和黑色背景两种可能了。

现在来解一下方程,由②得:

ImgR = ImgB / o

将⑨ o = ImgO / 255 代入得

③ ImgR = ImgB / ImgO * 255

将③和⑨代入①得:

ImgA = (ImgB / ImgO * 255) * (ImgO / 255) + 255 * (1 - ImgO / 255)

ImgA = ImgB / ImgO * ImgO / 255 * 255 + 255 * (1 - ImgO / 255)


ImgA = ImgB + 2551 - 255(ImgO / 255)

ImgA = ImgB + 255 - ImgO


④ ImgO = (255 - ImgA) + ImgB

那么现在,ImgB是我们已知的要在黑色背景下显示的图像,只要拿到ImgO就可以得出成品图ImgR了。

(255 - ImgA) 这个是什么意思,就是PS中的反相操作啦。让我们回到代码操作

(4) 反相函数:Invert

公式:255 - Img

即对每个像素进行 255-像素值

def Invert(img):
 return img.point(lambda i: 255-i)

反ImgA = Invert(ImgA )

然后这个反相后的ImgA(反ImgA)与ImgB相加,即PS中的线性减淡模式

(5) 线性减淡(添加):LinearDodge

公式:Img上 + Img下

def LinearDodge(imgA, imgB):
 size = imgA.size
 imgO = Image.new('L',size,(0,))
 pxA= imgA.load()
 pxB= imgB.load()
 pxO= imgO.load()
 for x in range(size[0]):
 for y in range(size[1]):
  pxO[x,y] = (pxA[x,y]+pxB[x,y],)
 return imgO

至此得到 ImgO = LinearDodge(反ImgA, ImgB)

注:之前我们说过ImgA的所有像素值必须大于ImgB。如果小于或等于,那么反相后加自身(或加比自身大的值)就是255了。因为ImgO是成果图ImgR的透明蒙版,ImgO=255意味着不透明度为100%,就没有透明效果了。

接着看方程式子③ ImgR = ImgB / ImgO * 255,这便是PS的一种图层混合模式划分了

(6) 划分:Divide

公式:Img下 / Img上 * 255

几个注意的条件

①若混合色为黑色,基色非黑结果为白色、基色为黑结果为黑色(混合色是Img上,基色是Img下)

②若混合色为白色则结果为基色

③若混合色与基色相同则结果为白色

不妨可以在PS中一试便知真假

def Divide(imgO, imgB):
 size = imgB.size
 imgR = Image.new('L',size,(0,))
 pxB= imgB.load()
 pxO= imgO.load()
 pxR= imgR.load()
 for x in range(size[0]):
 for y in range(size[1]):
  o=pxO[x,y]
  b=pxB[x,y]
  if o==0:
  #如混合色为黑色,基色非黑结果为白色、基色为黑结果为黑色
  color= (b and 255 or 0,)
  elif o==255:
  #混合色为白色则结果为基色
  color=(b,)
  elif o==b:
  #混合色与基色相同则结果为白色
  color=(255,)
  else:
  color=(round((b/o)*255),)
  pxR[x,y] = color
 return imgR

调用划分函数ImgR = Divide(ImgO, ImgB),终于,我们得到了梦寐以求的成果图ImgR

但不要忘了它的不透明度,把ImgO添加为它的图层蒙版

(6) 最后:添加透明蒙版并保存

def AddMask(imgR,imgO):
 img = imgR.convert("RGBA")
 img.putalpha(imgO)
 return img

imgR_mask = AddMask(imgR, imgO)

name= os.path.splitext(i_group[0])[0]
imgR_mask.save('../'+EXPORT_FOLDER+'/' + name+'.png')

保存在导出文件夹。。。

个人感觉

这个脚本生成的幻影坦克与PS做的相比就犹如真假美猴王一般,说到美猴王,我就想起……

三、完整代码文件

MirageTank.py

# -*- coding: utf-8 -*-
# python 3.7.2
# 2019/04/21 by sryml.

import os
import math

from timeit import timeit
from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
from multiprocessing import cpu_count

#
import numba as nb
import numpy as np

from PIL import Image


# ---
IMPORT_FOLDER = 'Import'
EXPORT_FOLDER = 'Export'
IMAGE_FILES = []

#
ALIGN2_A = 0
ALIGN2_B = 1
ALIGN2_MAX = 'max'

NO_MODIFT = 0
STRETCH = 1
CONSTRAINT_RATIO = 2

# ---



### 图像对齐
def ImgAlign(idx,img,A_Size,B_Size,mode):
 size= img.size
 old_size= (A_Size,B_Size)

 if mode[0]== ALIGN2_MAX:
  total_size= max(A_Size[0], B_Size[0]), max(A_Size[1], B_Size[1])
  if size != total_size:
   if mode[1]== STRETCH:
    img= img.resize(total_size, Image.ANTIALIAS)
   else:
    new_img= Image.new('L',total_size, (255 if idx==0 else 0,))
    diff= (total_size[0]-size[0],total_size[1]-size[1])
    min_diff= min(diff[0],diff[1])
    if min_diff != 0 and mode[1]:
     idx= diff.index(min_diff)
     scale= total_size[idx] / size[idx]
     resize= [total_size[idx], round(size[1-idx]*scale)]
     if idx:
      resize.reverse()
     img= img.resize(resize, Image.ANTIALIAS)
    new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)])
    img= new_img
 elif idx != mode[0]:
  total_size= old_size[mode[0]]
  if mode[1]== STRETCH:
   img= img.resize(total_size, Image.ANTIALIAS)
  else:
   new_img= Image.new('L',total_size, (255 if idx==0 else 0,))
   diff= (total_size[0]-size[0],total_size[1]-size[1])
   min_diff= min(diff[0],diff[1])
   if (min_diff > 0 and mode[1]) or (min_diff < 0):
    idx= diff.index(min_diff)
    scale= total_size[idx] / size[idx]
    resize= [total_size[idx], round(size[1-idx]*scale)]
    if idx:
     resize.reverse()
    img= img.resize(resize, Image.ANTIALIAS)
   new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)])
   img= new_img
   
 return img


### 去色
@nb.jit
def Desaturate(img_array):
 idx_array = img_array.argsort()
 width = img_array.shape[1]
 height = img_array.shape[0]
 data = np.zeros((height,width),dtype=np.uint8)
 for x in range(height):
  for y in range(width):
   idx= idx_array[x,y]
   color_min= img_array[x,y, idx[0]]
   color_max= img_array[x,y, idx[2]]
   data[x,y]= round( (int(color_min) + int(color_max)) / 2 )
 return Image.fromarray(data)
    

### 明度
def Lightness(img,ratio):
 if ratio>0:
  return img.point(lambda i: int(i*(1-ratio) + 255*ratio))
 return img.point(lambda i: math.ceil(i*(1+ratio)))

 
### 反相
def Invert(img):
 return img.point(lambda i: 255-i)
 

### 线性减淡(添加)
def LinearDodge(imgA, imgB):
 size = imgA.size
 imgO = Image.new('L',size,(0,))
 pxA= imgA.load()
 pxB= imgB.load()
 pxO= imgO.load()
 for x in range(size[0]):
  for y in range(size[1]):
   pxO[x,y] = (pxA[x,y]+pxB[x,y],)
 return imgO

 
### 划分
def Divide(imgO, imgB):
 size = imgB.size
 imgR = Image.new('L',size,(0,))
 pxB= imgB.load()
 pxO= imgO.load()
 pxR= imgR.load()
 for x in range(size[0]):
  for y in range(size[1]):
   o=pxO[x,y]
   b=pxB[x,y]
   if o==0:
    #如混合色为黑色,基色非黑结果为白色、基色为黑结果为黑色
    color= (b and 255 or 0,)
   elif o==255:
    #混合色为白色则结果为基色
    color=(b,)
   elif o==b:
    #混合色与基色相同则结果为白色
    color=(255,)
   else:
    color=(round((b/o)*255),)
   pxR[x,y] = color
 return imgR

 
def AddMask(imgR,imgO):
 img = imgR.convert("RGBA")
 img.putalpha(imgO)
 return img


####
#### 将所有要处理的图片文件添加到列表
def all_img2list():
 global IMAGE_FILES
 IMAGE_FILES= []
 Imgs = os.listdir('./')
 Imgs.sort(key= lambda i: os.path.splitext(i)[0])
 
 for i in Imgs:
  name = os.path.splitext(i)
  imgB= name[0]+'_d' + name[1]
  
  if imgB in Imgs:
   Imgs.remove(imgB)
   img_group= (i,imgB)
  elif name[0][-6:].lower() == '_black':
   img_group= (i,'_black')
  else:
   img_group= (i,None)
   
  IMAGE_FILES.append(img_group)
 

def MakeMTank(i_group):
 ratios= [0,0]
 align= []
 if not i_group[1]:
  imgB= Image.open(i_group[0])
  imgA= Image.new('L',imgB.size,(255,))
 elif i_group[1]=='_black':
  imgA= Image.open(i_group[0])
  imgB= Image.new('L',imgA.size,(0,))
 else:
  imgA= Image.open(i_group[0])
  imgB= Image.open(i_group[1])
  ratios= [0.5,-0.5] #明度比值
  
  # ALIGN2_MAX(取最大的宽和最大的高) ALIGN2_A(缩放到图A) ALIGN2_B(缩放到图B) 
  # NO_MODIFT(不修改) STRETCH(拉伸) CONSTRAINT_RATIO(约束比例)
  align= [ALIGN2_B, CONSTRAINT_RATIO]
  
 A_Size,B_Size= imgA.size,imgB.size
 img_objs= [imgA,imgB]
 for n,img in enumerate(img_objs):
  if img.mode== 'RGBA':
   img= img.convert('RGB')
  img_array= np.array(img)
  if img.mode != 'L' and ( [(img_array[:,:,i]==img_array[:,:,2]).all() for i in range(2)]!= [True,True] ):
   img= Desaturate(img_array) #去色
  else:
   img= img.convert('L')
   
  if align and (A_Size!=B_Size):
   img= ImgAlign(n,img,A_Size,B_Size,align) #图像对齐
     
  if ratios[n]:
   img= Lightness(img,ratios[n]) #明度
  img_objs[n]= img
  
 imgA,imgB = img_objs
 
 imgA = Invert(imgA) #反相
 imgO = LinearDodge(imgA, imgB) #线性减淡(添加)
 imgR = Divide(imgO, imgB) #划分
 imgR_mask = AddMask(imgR, imgO) #添加透明蒙版

 name= os.path.splitext(i_group[0])[0]
 imgR_mask.save('../'+EXPORT_FOLDER+'/' + name+'.png')


 
def FlashMakeMTank(task):
 pool = ThreadPoolExecutor(cpu_count())
 results = list(pool.map(MakeMTank, task))
 pool.shutdown()
 
  
def AutoMTank():
 cpu = cpu_count()-1
 pool = ProcessPoolExecutor(cpu) #max_workers=4
 L = IMAGE_FILES
 F = int(len(L)/cpu)
 task_assign = [L[n*F:] if (n+1)==cpu else L[n*F:(n+1)*F] for n in range(cpu)]
 results = list(pool.map(FlashMakeMTank, task_assign))

 pool.shutdown()
  
 print ('\n%d辆幻影坦克制作完成!' % len(IMAGE_FILES))

  
 
# ---

def Fire():
 all_img2list()
 sec = timeit(lambda:AutoMTank(),number=1)
 print ('Time used: {} sec'.format(sec))
 s= input('\n按回车键退出...\n')


if __name__ == '__main__':
 if not os.path.exists(EXPORT_FOLDER):
  os.makedirs(EXPORT_FOLDER)
 os.chdir(IMPORT_FOLDER)
 
 while True:
  s= input('> 按F进入坦克:')
  if s.upper()== 'F':
   print ('少女祈祷中...')
   Fire() #开炮
   break
  elif not s:
   break

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。

标签:
python生成图片,python批量生成图片

免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
评论“Python批量生成幻影坦克图片实例代码”
暂无“Python批量生成幻影坦克图片实例代码”评论...

RTX 5090要首发 性能要翻倍!三星展示GDDR7显存

三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。

首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。

据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。