大家好,我是温柔的玉米🌽~
在下半年选修了机器学习的关键课程Machine learning and deep learning,但由于Macbook Pro显卡不支持cuda,因此无法使用GPU来训练网络。教授推荐使用Google Colab作为训练神经网络的平台。在高强度的使用了Colab一段时间后,我把自己的个人感受和使用心得与大家分享,同时也给想要尝试的同学详细介绍Colab具体的上手方法。
一、Colab介绍
在第一次使用Colab时,最大的困难无疑是对整个平台的陌生而导致无从下手,因此我首先介绍与Colab相关的基础概念,以帮助大家更快地熟悉Colab平台。
Colab是什么?为什么要使用Colab?
Colab = Colaboratory(即合作实验室),是谷歌提供的一个在线工作平台,用户可以直接通过浏览器执行python代码并与他人分享合作。Colab的主要功能当然不止于此,它还为我们提供免费的GPU。熟悉深度学习的同学们都知道:CPU计算力高但核数量少,善于处理线性序列,而GPU计算力低但核数量多,善于处理并行计算。在深度学习中使用GPU进行计算的速度要远快于CPU,因此有高算力的GPU是深度学习的重要保证。由于不是所有GPU都支持深度计算(大部分的Macbook自带的显卡都不支持),同时显卡配置的高低也决定了计算力的大小,因此Colab最大的优势在于我们可以“借用”谷歌免费提供的GPU来进行深度学习。
综上:Colab = "python版"Google doc + 免费GPU
Colab的相关概念(Jupyter Notebook、代码执行程序、实例空间等)
Jupyter Notebook:在Colab中,python代码的执行是基于.ipynb文件,也就是Jupyter Notebook格式的python文件。这种笔记本文件与普通.py文件的区别是可以分块执行代码并立刻得到输出,同时也可以很方便地添加注释,这种互动式操作十分适合一些轻量的任务。
具体关于Jupyter Notebook的信息可以查看下面官网的链接:
Project Jupyterhttps://jupyter.org/
代码执行程序:代码执行程序就是Colab在云端的"服务器"。简单来说,我们先在笔记本写好需要运行的代码,连接到代码执行程序,然后Colab会在云端执行代码,最后把结果传回浏览器。
实例空间:连接到代码执行程序后,Colab需要为其分配实例空间(Instance),可以简单理解为运行笔记本而创建的"虚拟机",其中包含了执行ipynb文件时的默认配置、环境变量、自带的库等等。
二、Colab工作流程
介绍完了基本概念,下面我们来演示具体如何使用Colab
准备工作
首先我们需要创建一个谷歌账户,申请谷歌账户需要能接受短信的手机号码。作者在写这篇文章时亲自进行了一次测试,发现目前不能通过中国手机来创建账户,但是账号在创建后可以改绑中国手机。由于科学上网、如何申请谷歌账户不是本文的写作目的,因此这里就不作展开了,我个人猜测万能的某宝之类应该有解决办法。
Colab一般配合Google Drive使用(下文会提到这一点)。因此如有必要,我建议拓展谷歌云端硬盘的储存空间,个人认为性价比较高的是基本版或标准版。在购买完额外的空间后,头像外部会出现一个四色光环,就像作者一样。
新建notebook
有两种方法可以新建一个笔记本,第一种是在在云端硬盘中右键创建。
如果右键后没有发现有这一个选项,那是因为云端硬盘还没有安装Colab。这时在右击后选择“关联更多应用”,然后搜索colab并下载,之后就可以通过右键创建了。
第二种方法是直接在浏览器中输入https://colab.research.google.com,进入Colab的页面后点击新建笔记本即可。使用这种方法新建的笔记本时,会在云端硬盘的根目录自动创建一个叫Colab Notebook的文件夹,新创建的笔记本就保存在这个文件夹中。
载入笔记本
可以打开云端硬盘中的已经存在的笔记本,还可以从Github中导入笔记本。如果关联了Github账户,可以选择一个账户中的Project,如果其中有ipynb文件就可以在Colab中打开。注意:关联Github不是把Github中的项目文件夹加载到实例空间!
笔记本界面
标题:笔记本的名称
代码块:分块执行的代码
文件浏览:Colab为笔记本分配的实例空间
代码执行程序:用于执行笔记本程序的服务器
代码段:常用的代码段,比如装载云端硬盘
命令面板:常用的命令,比如查找/替换
终端:文件浏览下的终端(非常卡,不建议使用)
连接代码执行程序
点击连接按钮即可在5s左右的时间内连接到代码执行程序,此时可以看到消耗的RAM和磁盘
RAM:虚拟机运行内存,更大内存意味着更大的算力(之后会在Colab Pro中介绍)
磁盘:虚拟机文件的储存空间,要注意的是购买更多云端硬盘存储空间不能增加可用磁盘空间
在打开笔记本后,我们默认的文件路径是"/content",这个路径也是执行笔记本时的路径,同时我们一般把用到的各种文件也保存在这个路径下。在点击".."后即可返回查看根目录"/"(如下图),可以看到根目录中保存的是一些虚拟机的环境变量和预装的库等等。不要随意修改根目录中的内容,以避免运行出错,我们所有的操作都应在"/content"中进行。
执行代码
.ipynb文件通过的代码块来执行代码,同时支持通过"!<command>"的方式来执行UNIX终端命令(比如"!ls"可以查看当前目录下的文件)。Colab已经预装了大多数常见的深度学习库,比如pytorch,tensorflow等等,如果有需要额外安装的库可以通过"!pip3 install <package>"命令来安装。下面是一些常见的命令。
# 加载云端硬盘
from google.colab import drive
drive.mount('/content/drive')
# 查看分配到的GPU
gpu_info = !nvidia-smi
gpu_info = '\n'.join(gpu_info)
if gpu_info.find('failed') >= 0:
print('Not connected to a GPU')
else:
print(gpu_info)
# 安装python包
!pip3 install <package>
点击“播放”按钮执行代码块。代码块开始执行后,按钮就会进入转圈的状态,表示“正在执行”,外部的圆圈是实线。如果在有代码块执行的情况下继续点击其他代码块的“播放”按钮,则这些代码块进入“等待执行”的状态,按钮也就会进入转圈的状态,但外部的圆圈是虚线。在当前代码块结束后,会之前按照点击的顺序依次执行这些代码块。
设置笔记本的运行时类型
笔记本在打开时的默认硬件加速器是None,运行规格是标准。在深度学习中,我们希望使用GPU来进行深度计算,同时如果购买了pro,我们希望使用高内存模式。点击代码执行程序,然后点击“更改运行时类型即可”。由于免费的用户所能使用的GPU运行时有限,因此建议只在确实需要用到GPU时改变设置(模型搭建阶段或其他非训练阶段使用None模式即可)。
如果希望主动断开代码执行程序,则点击代码运行程序后选择“断开连接并删除运行时”即可。
管理会话Session
会话就是当前连接到代码执行程序的笔记本,通过点击“管理会话”即可查看当前的所有会话,点击“终止”即可断开代码执行程序。用户所能连接的会话数量是有限的,因此到达上限时再开启新会话需要主动断开之前的会话。
三、Colab重要特性
在这一部分,我希望强调一下Colab的一些重要特性和随之带来的相关影响
资源使用的限制
Google Colab为用户提供免费的GPU,因此资源使用必然会受到限制(即使是Colab Pro+用户也不例外),而这种限制无处不在。
有限的实例空间:实例空间的内存和磁盘都是有限制的,如果模型训练的过程中超过了内存或磁盘的限制,那么程序运行就会中断并报错。实例空间内的文件保存不是永久的,当代码执行程序被断开时,实例空间内的所有资源都会被释放(我们在"/content"目录下上传的文件也会全部消失)。
有限的连接时间:笔记本连接到代码执行程序的时长是有限制的,这体现在三个方面:如果关闭浏览器,代码执行程序会在短时间内断开而不是在后台继续执行(这个“短时间”大概在几分钟左右,如果只是切换一下wifi之类是不会有影响的);如果空闲状态过长(无互动操作或正在执行的代码块),则会立即断开连接;如果连接时长到达上限(免费用户最长连接12小时),也会立刻断开连接。
有限的GPU运行时:无论是免费用户还是colab pro用户,每天所能使用的GPU运行时间都是有限的。到达时间上限后,代码执行程序将被立刻断开且用户将被限制在当天继续使用任何形式的GPU(无论是否为高RAM形式)。在这种情况下我们只能等待第二天重置。
频繁的互动检测:当一段时间没有检测到活动时,Colab就会进行互动检测,如果长时间不点击人机身份验证,代码执行程序就会断开。此外,如果频繁地执行“断开-连接”代码执行程序,也会出现人机身份验证。
有限的会话数量:每个用户所能开启的会话数量都是有限的,免费用户只能开启1个会话,Pro用户则可以开启多个会话。不同的用户可以在一个笔记本上可以进行多个会话,但只能有一个代码块开始执行。如果某个代码块已经开始执行,另一个用户连接到笔记本的会话会显示“忙碌状态”,需要等待代码块执行完后才能执行其他的代码块。注意:掉线重连、切换网络、刷新页面等操作也会使笔记本进入“忙碌状态”。
如何合理使用资源?
- 将训练过后的模型日志和其他重要的文件保存到谷歌云盘,而不是本地的实例空间
- 运行的代码必须支持“断点续传”能力,简单来说就是必须定义类似checkpoint功能的函数;假设我们一共需要训练40个epochs,在第30个epoch掉线了之后模型能够从第30个epoch开始训练而不是从头再来
- 仅在模型训练时开启GPU模式,在构建模型或其他非必要情况下使用None模式
- 在网络稳定的情况下开始训练,每隔一段时间查看一下训练的情况
- 注册多个免费的谷歌账号交替使用
四、Colab项目组织
在正式进入实例演示之前,我最后想简单介绍一下在Colab上组织项目的方法
加载数据集
深度学习中,数据集一般由超大量的数据组成,如何在Colab上快速加载数据集?
- 将整个数据集从本地上传到实例空间
理论可行但实际不可取。经过作者实测,无论是上传压缩包还是文件夹,这种方法都是非常的慢,对于较大的数据集完全不具备可操作性。
- 将整个数据集上传到谷歌硬盘,挂载谷歌云盘的之后直接读取云盘内的数据集
理论可行但风险较大。根据谷歌的说明,Colab读取云盘的I/O次数也是有限制的,太琐碎的I/O会导致出现“配额限制”。如果数据集包含大量的子文件夹,也很容易出现挂载错误。
为什么云端硬盘操作有时会因配额问题而失败?https://research.google.com/colaboratory/faq.html#drive-quota
- 将数据集以压缩包形式上传到谷歌云盘,然后解压到Colab实例空间
实测可行。挂载云盘不消耗时间,解压所需的时间远远小于上传数据集的时间
此外,由于实例空间会定期释放,因此模型训练完成后的日志也应该存放在谷歌云盘上。综上所述,谷歌云盘是使用Colab必不可少的一环,由于免费的云盘只有15个G,因此个人建议至少拓展到基本版。
运行Github项目
Colab的基本运行单位是Jupyter Notebook,如何在一个notebook上运行一个复杂的Github项目呢?
首先创建多个笔记本来对应多个py模块是肯定不行的,因为不同的笔记本会对应不同实例空间,而同一个项目的不同模块应放在同一个实例空间中。为解决这个问题,可以考虑以下几种方法。
- 克隆git仓库到实例空间或云盘,通过脚本的方式直接执行项目的主程序
# 克隆仓库到/content/my-repo目录下
!git clone https://github.com/my-github-username/my-git-repo.git
%cd my-git-repo
!./train.py --logdir /my/log/path --data_root /my/data/root --resume
- 克隆git仓库到实例空间或云盘,把主程序中的代码用函数封装,然后在notebook中调用这些函数
from train import my_training_method
my_training_method(arg1, arg2, ...)
由于笔记本默认的路径是"/content",因此可能需要修改系统路径后才能直接导入
import sys
sys.path.append('/content/my-git-repo') # 把git仓库的目录添加到系统目录
- 克隆git仓库到实例空间或云盘,把原来的主程序模块直接复制到笔记本中
类似于第二种方法,需要将git仓库路径添加到系统路径,否则会找不到导入的模块
如何处理简单项目?
如果只有几个轻量的模块,也不打算使用git进行版本管理,则直接上传到实例空间即可
五、实例演示
下面以我在这个学期完成的项目为例,向大家完整展示Colab的使用过程。PS:真不是推销自己的项目,而是我手上只有这一个项目(~ ̄▽ ̄)~
云盘链接:https://drive.google.com/drive/folders/1-4z_Y38jMmIZNe5sNzbF1Le1Kv_ugFcd?usp=sharing
点击以后就可以在谷歌云盘的“与我共享”看到这个文件夹"zhihu_colab",将这个文件夹的快捷方式添加到自己的云盘即可(右键文件夹“将快捷方式添加到云盘”,选择“我的云端硬盘”)
文件夹"zhihu_colab"中包含了数据集"ROD-synROD.tar"和代码"mldl_project"(以及这部分我写的notebook)
首先加载自己的谷歌云盘
from google.colab import drive
drive.mount('/content/drive')
加载成功以后(可以点一下刷新按钮)就可以看到云盘在实例空间中出现了
谷歌云盘默认的加载路径是"/content/drive/MyDrive"
在当前目录下("/content")创建一个叫datasets的文件夹,并将"zhihu_colab"中的数据集解压到这个文件夹
!mkdir /content/datasets
!tar -xvf "/content/drive/MyDrive/zhihu_colab/ROD-synROD.tar" -C "/content/datasets"
查看一下自己分到的GPU是什么,具体的信息很长,只要看中间显卡部分就行了。
gpu_info = !nvidia-smi
gpu_info = '\n'.join(gpu_info)
if gpu_info.find('failed') >= 0:
print('Not connected to a GPU')
else:
print(gpu_info)
哇哦,我们作为高贵的Pro用户果然分到了最好的P100🤣。去网上一查这个显卡买7000多欧,折合人民币好几万。
查看一下帮助文档(主程序是train.py)
!python3 /content/drive/MyDrive/zhihu_colab/mldl_project/code/train_eval.py -h
最后就是训练模型了(大家不需要理解这个项目在干什么,只是给大家做个示范)
!python3 /content/drive/MyDrive/zhihu_colab/mldl_project/code/train_eval.py \
--data_root /content/datasets/ROD-synROD \
--logdir /content/drive/MyDrive/ \
--resume \
| tee /content/drive/MyDrive/synRODtoROD.txt -a
--data_root 用于指定数据集的根目录
--logdir 用于指定保持模型日志(checkpoint + tensorboard)的路径,注意一定要保存到云盘里
--resume 表示如果有checkpoint就加载checkpoint
| 是表示流式输入输出(前一个命令的输出作为后一个命令的输入)
tee 命令用于将输出保存到文件同时也输出到屏幕,-a表示add模式(如果文件已存在会添加而不是覆盖)
可以看到训练一个epoch大概是17分钟左右(显示训练进度是因为代码里用了tqdm模块),如果是高RAM模式的话大概只要一半的时间左右。
这就是在Colab上模型训练的所有过程了,总的来说还是非常的简单的,不需要进行任何额外的配置。
六、评测Colab pro / Colab pro+
因为担心项目完不成,我买了好几个Colab Pro和Colab Pro+的账号,在经过了一周的高强度使用后,和大家分享一下使用感受以及聊聊这两种会员是否值得。
由于谷歌只给出了不同会员的大致功能区别而没有给出详细的区别,我先把我个人测试的结果放在下方供大家参考(三种配置下的标准RAM没有区别,都是12GB)。
RAM-磁盘
高RAM
磁盘
后台运行
免费
❌
66GB?
❌
Pro
25GB
166GB
❌
Pro+
52GB
225GB
✅
坏了,把所有账号都升级成PRO以后,现在反而不知道免费版的磁盘大小是多少了🤣
GPU模式下会话数量
标准RAM
高RAM
后台运行
免费
1
❌
❌
Pro
2
1
❌
Pro+
3
3
2(无论是否高RAM)
高RAM会话的计算速度大致是标准RAM会话的两倍
使用Pro/Pro+的个人感受
免费版没有高RAM,且需要频繁地互动否则会掉线,我用了一会儿就升Pro了,因此个人的体验不是很多
Pro增加了一个高RAM会话和标准会话,与免费版相当于算力翻了4倍,效率有了飞跃式提升,而且最大连接时长到了24小时,最大闲置时长也增加了不少。
Pro+进一步增了两个高RAM会话和1个标准会话,与免费版相比算力翻了9倍,与Pro比也翻了2.5倍,此外还多了后台运行功能。但是我有三点需要说明,首先后功能开启时只能运行两个笔记本,其次我在后台运行时并没有持续24小时(我只用过2次后台,因此这一点待测试,也可能只是我网络不好的原因),最后就是25GB的高RAM和52GB的高RAM没有太大的区别(10分钟的epoch能快个1-2分钟)。
我们把不同套餐的价格也贴出来。
可以看到Pro+比起Pro贵了4倍但是算力却只提升了2.5倍左右,也就是说如果不怕麻烦,也不依赖后台功能的话多买几个Pro性价比是高于Pro+的。如果不想在多个账号间来回切换或者比较喜欢能够在关闭浏览器情况下后台运行的话,Pro+也可以考虑。
最后说几个支付相关的细节,首先付款的话只要在谷歌账户绑定银行卡就行,留学生肯定有外国银行卡比如MasterCard等等就不说了,如果是中国卡的话必须要有Visa才能支付。其次就是如果买了Pro之后再买Pro+,中间的差价会退给你,不用担心重复购买的问题。
综上,我个人认为性价比较高的组合是:每月2欧的谷歌云盘 + 每月9欧的ColabPro。
七、补充内容
如何让代码有“断点续传”的能力?
虽然这个话题超出了本文的范围,但是由于在Colab训练模型时代码必须要有可恢复性(resumption),因此这里也简单提一下。我把教授写的两个分别实现保存和加载checkpoint的函数贴在下方,给大家作参考。
def save_checkpoint(path: Text,
epoch: int,
modules: Union[nn.Module, Sequence[nn.Module]],
optimizers: Union[opt.Optimizer, Sequence[opt.Optimizer]],
safe_replacement: bool = True):
"""
Save a checkpoint of the current state of the training, so it can be resumed.
This checkpointing function assumes that there are no learning rate schedulers or gradient scalers for automatic
mixed precision.
:param path:
Path for your checkpoint file
:param epoch:
Current (completed) epoch
:param modules:
nn.Module containing the model or a list of nn.Module objects
:param optimizers:
Optimizer or list of optimizers
:param safe_replacement:
Keep old checkpoint until the new one has been completed
:return:
"""
# This function can be called both as
# save_checkpoint('/my/checkpoint/path.pth', my_epoch, my_module, my_opt)
# or
# save_checkpoint('/my/checkpoint/path.pth', my_epoch, [my_module1, my_module2], [my_opt1, my_opt2])
if isinstance(modules, nn.Module):
modules = [modules]
if isinstance(optimizers, opt.Optimizer):
optimizers = [optimizers]
# Data dictionary to be saved
data = {
'epoch': epoch,
# Current time (UNIX timestamp)
'time': time.time(),
# State dict for all the modules
'modules': [m.state_dict() for m in modules],
# State dict for all the optimizers
'optimizers': [o.state_dict() for o in optimizers]
}
# Safe replacement of old checkpoint
temp_file = None
if os.path.exists(path) and safe_replacement:
# There's an old checkpoint. Rename it!
temp_file = path + '.old'
os.rename(path, temp_file)
# Save the new checkpoint
with open(path, 'wb') as fp:
torch.save(data, fp)
# Flush and sync the FS
fp.flush()
os.fsync(fp.fileno())
# Remove the old checkpoint
if temp_file is not None:
os.unlink(path + '.old')
def load_checkpoint(path: Text,
default_epoch: int,
modules: Union[nn.Module, Sequence[nn.Module]],
optimizers: Union[opt.Optimizer, Sequence[opt.Optimizer]],
verbose: bool = True):
"""
Try to load a checkpoint to resume the training.
:param path:
Path for your checkpoint file
:param default_epoch:
Initial value for "epoch" (in case there are not snapshots)
:param modules:
nn.Module containing the model or a list of nn.Module objects. They are assumed to stay on the same device
:param optimizers:
Optimizer or list of optimizers
:param verbose:
Verbose mode
:return:
Next epoch
"""
if isinstance(modules, nn.Module):
modules = [modules]
if isinstance(optimizers, opt.Optimizer):
optimizers = [optimizers]
# If there's a checkpoint
if os.path.exists(path):
# Load data
data = torch.load(path, map_location=next(modules[0].parameters()).device)
# Inform the user that we are loading the checkpoint
if verbose:
print(f"Loaded checkpoint saved at {datetime.fromtimestamp(data['time']).strftime('%Y-%m-%d %H:%M:%S')}. "
f"Resuming from epoch {data['epoch']}")
# Load state for all the modules
for i, m in enumerate(modules):
modules[i].load_state_dict(data['modules'][i])
# Load state for all the optimizers
for i, o in enumerate(optimizers):
optimizers[i].load_state_dict(data['optimizers'][i])
# Next epoch
return data['epoch'] + 1
else:
return default_epoch
在主程序train.py正式开始训练前,添加下面的语句:
if args.resume: # args.resume是命令行输入的参数,用于指示要不要加载上次训练的结果
first_epoch = load_checkpoint(checkpoint_path, first_epoch, net_list, optims_list)
在每个epoch训练结束后,保存checkpoint:
# Save checkpoint
save_checkpoint(checkpoint_path, epoch, net_list, optims_list)
net_list是需要保存的网络列表,optims_list是需要保存的优化器列表(这里没有记录scheduler的列表,如果你的代码里用到了scheduler那也要保存scheduler的列表)
不幸分配到了Tesla T4怎么办?
开启了Pro/Pro+会员,大概率会分到最好的显卡P100,如果不幸分到了Tesla T4且马上要进行大量的训练,那只能选择反复地刷显卡。具体方法为断开运行时然后再连接,反复直到刷出P100为止。玄学方案是先切到标准RAM刷几次,刷出P100后切回高RAM。
这个过程可能很无聊,但确是必须的,因为Tesla T4和P100的训练速度差了1倍多,多花三十分钟刷一个P100出来可能会节省之后的十几个小时(实际上要不了三十分钟,一般五六分钟就刷出来了)。
结语:一不留神写了一万多字了!希望这个超详细的Colab教程能对大家有所帮助,大家要是发现了什么新的技巧欢迎在评论区留言~
版权归原作者 温柔的玉米 所有, 如有侵权,请联系我们删除。