python进程

在走这段代码的时候报错了,记录一下我的调试过程,感觉有个思路来走就挺好的。

  • 1、报错与解决

文件名字:ClassifierTest.py

import torch
import torchvision
import torchvision.transforms as transforms
from torchTest import imgShow

transform = transforms.Compose([transforms.ToTensor(),
                                transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
trainset = torchvision.datasets.CIFAR10(root='Resources/CIFAR10',  # 存放路径 #!!/Resources/CIFAR10是绝对路径,C:ResourcesCIFAR10
                                    train=True, download=True,  # 是否下载训练集
                                    transform=transform)  # 图片转换
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)
testset = torchvision.datasets.CIFAR10(root='Resources/CIFAR10', train=False, download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

dataIter = iter(trainloader)
images, labels = dataIter.next()
imgShow.imshow(torchvision.utils.make_grid(images))
print(' '.join(classes[labels[j]] for j in range(4)))

报错

        This probably means that you are not using fork to start your
        child processes and you have forgotten to use the proper idiom
        in the main module:

            if __name__ == '__main__':
                freeze_support()
                ...

        The "freeze_support()" line can be omitted if the program
        is not going to be frozen to produce an executable.

关于这个报错,涉及线程问题,改num_workers=0,当然就么事没有,然而,作为一个优秀的程序员,能止步于此吗,不行的。

我百度了一下报错情况,找到这样的解决方案,是可行:

def main():
    transform = transforms.Compose([transforms.ToTensor(),
                                    transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
    trainset = torchvision.datasets.CIFAR10(root='Resources/CIFAR10',  # 存放路径,注:/Resources/CIFAR10是绝对路径,C:ResourcesCIFAR10
                                            train=True, download=True,  # 是否下载训练集
                                            transform=transform)  # 图片转换
    trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2)
    testset = torchvision.datasets.CIFAR10(root='Resources/CIFAR10', train=False, download=True, transform=transform)
    testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2)
    classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

    dataIter = iter(trainloader)
    images, labels = dataIter.next()
    imgShow.imshow(torchvision.utils.make_grid(images))
    print(' '.join(classes[labels[j]] for j in range(4)))

if __name__=='__main__': #不加这句就会报错
    main()
  • 2、为什么是main?

整段放在main里面,就安全了——为什么呢?

对于python编程我还是萌新,实在想不明白加个__name__=='__main__'判断有什么魅力。

关于__name__属性:

作为启动脚本,它模块的__name__都是__main__。

此句主要作用在于有时候import,不想运行引用模块中某些语句的时候,以启动模块的名字作为区别。

报错的位置在这里:

C:Users13723AppDataLocalProgramsPythonPython39Libmultiprocessingspawn.py

def _check_not_importing_main():
    if getattr(process.current_process(), '_inheriting', False):
        raise RuntimeError('''
        An attempt has been made to start a new process before the
        current process has finished its bootstrapping phase...''')

getattr(实例, 属性名字, 默认值)

如果有属性,取True,否则取默认值,没有默认值则取False。

_inheriting,查找当前程序的可继承性?没用过,笔者不知道呢。

看不懂(下文有解),只能从方法名字入手,它走这一段为了什么——

检查是不是源自__main__模块,即程序不让由执行脚本import的模块走这一段。

我跑ClassifierTest.py(进程pid1),它在走到

dataIter = iter(trainloader)

里面,由其他模块,再导入了一次ClassifierTest.py(此时是进程pid2)

而当增加判断 __name__==’__main__’,就避免模块陷入执行的死循环。

  • 3、为什么多一个进程?

3.1 现象

为什么会多一个进程,num_workers=2,此句是一个进程两个线程worker,还是两个进程worker呢?

 我很奇怪,为什么不是开线程,而是开进程这么个重量级东西。

虽然叫做process,但它应该只干一个事情——毕竟进程的重量级要大于线程。

 

3.2 线程与进程

这个时候就很纠结线程和进程的区别了,

(参考:https://www.zhihu.com/question/25532384

线程是cpu执行的时间段颗粒,

进程保存上下文,cpu切进进程里面读取上下文(寄存器、指令内容之类)。

这样看来,如果进程是仓库,线程就是仓库里面的机器人,等待CPU来灵魂激活。但是在一个仓库里面工作,必然比在多个仓库里面工作要省事。

所以为什么要开多进程呢?

一个莫名的灵感,让我查了一下fork(),

(参考:https://www.cnblogs.com/liyuan989/p/4279210.html

因为进程、线程是windows系统的概念,unix中只有进程的说法。

在windows当中,进程是资源管理的最小单位,而线程是程序执行的最小单位。

fork创建的一个子进程几乎但不完全与父进程相同。

子进程得到与父进程用户级虚拟地址空间相同的(但是独立的)一份拷贝,

包括文本、数据和bss段、堆以及用户栈等。

子进程还获得与父进程任何打开文件描述符相同的拷贝,

这就意味着子进程可以读写父进程中任何打开的文件,父进程和子进程区别在于它们有着不同的PID。

 fork 意为分支,分支与父进程几乎一样的子进程。子进程区别于父进程,两者有不同的pid,但二者的引用均指向相同的地址。

话虽如此,Python里面确实是包含threading,和process模块,那为什么选择process更好?

(参考:https://zhuanlan.zhihu.com/p/20953544)

一个进程,有一个全局锁GIL(Global Interpreter Lock),此设定是为了数据安全。

线程执行时,先获取GIL,执行代码直到sleep或挂起,释放GIL。

所以多线程执行,其实仅是宏观时间上处理多任务,微观时间上仍是顺序处理。

而每个进程有各自独立的GIL,互不干扰,多进程才能在真正意义上实现并行执行(多核CPU同时做多个任务,程序在微观时间上同时执行)。

3.3 Python中,worker是进程

为什么会再读一次ClassifierTest.py,从堆栈看,是这里:

(注,以下截图可能取自不同次调试,所以父pid会不同)

 走了 exec(code, run_globals) 导致再此导入 ClassifierTest.py 。

再往前走frame not available,也即IDE只能看到spawn_main函数。

(spawn应该就是孵化了,孵化进程的,还挺有蛇下蛋的感觉)

 更之前的调用情况没有了,可以猜是不是新进程直接调用spawn_main了,那就找spawn_main引用。

(可能pyCharm我还没get灵魂用法,spawn_main引用我是用notepad++查找全局的)

Python39Libmultiprocessingpopen_spawn_win32.py

前后呼应:

在查看堆栈的过程中,恰巧看到了_inheriting的赋值:

堆栈可以看到对_inheriting赋值,此时就很明了表示是否子进程,此处赋值True。

再者,inheriting是ing结尾,表示进行时状态;如果是表示继承性,应该叫inherited,如此看来这个编程就很细心,自己写程序的时候也得注意。

 3.4 num_workers=2 的结果

前文设置num_workers = 2,此时就是父进程带着两个子进程,

__name__==’__main__’ 的处理,阻止了子进程由于调用 ClassifierTest.py 而再生子子进程的子孙无穷尽也。

主线程12012 它有两个worker,分别是 15480 和 7036 。

(这个数值是系统分配的pid编号,区分进程的代号,每次启动程序都不同)

15480 和 7036 带着自己的Queue,dataloader.py完成了这个配置。

dataIter = iter(trainloader)
images, labels = dataIter.next()

当执行 next(),程序会读取象 dataIter 当中的 _data_queue ,这个数据由两个子进程各自传入。

data = self._data_queue.get(timeout=timeout)

 具体实现看这个类:

C:Users13723PycharmProjectspythonProjectvenvLibsite-packages orchutilsdatadataloader.py

class _MultiProcessingDataLoaderIter(_BaseDataLoaderIter):
pass
  • 4、结语

  由一个小小的报错,能“查漏补缺”知识漏洞就挺好的,锻炼思维也挺好的。共勉。

原文地址:https://www.cnblogs.com/carmen-019/p/15077749.html