add video (#732)

pull/726/head^2
binmakeswell 2022-04-12 13:41:56 +08:00 committed by GitHub
parent a5c3f072f6
commit 600e769a42
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
2 changed files with 40 additions and 16 deletions

View File

@ -25,6 +25,7 @@
## 目录
<ul>
<li><a href="#为何选择-Colossal-AI">为何选择 Colossal-AI</a> </li>
<li><a href="#特点">特点</a> </li>
<li>
<a href="#展示样例">展示样例</a>
@ -55,6 +56,17 @@
<li><a href="#引用我们">引用我们</a></li>
</ul>
## 为何选择 Colossal-AI
<div align="center">
<a href="https://youtu.be/KnXSfjqkKN0">
<img src="https://raw.githubusercontent.com/hpcaitech/public_assets/main/colossalai/img/JamesDemmel_Colossal-AI.png" width="600" />
</a>
James Demmel 教授 (加州大学伯克利分校): Colossal-AI 让分布式训练高效、易用、可扩展。
</div>
<p align="right">(<a href="#top">返回顶端</a>)</p>
## 特点
Colossal-AI 为您提供了一系列并行训练组件。我们的目标是让您的分布式 AI 模型训练像普通的单 GPU 模型一样简单。我们提供的友好工具可以让您在几行代码内快速开始分布式训练。
@ -111,7 +123,7 @@ Colossal-AI为您提供了一系列并行训练组件。我们的目标是让您
```bash
pip install colossalai
```
该命令将会安装CUDA extension如果你已安装CUDA, NVCC和torch。
该命令将会安装 CUDA extension, 如果你已安装 CUDA, NVCC 和 torch。
如果你不想安装 CUDA extension, 可在命令中添加`--global-option="--no_cuda_ext"`, 例如:
```bash

View File

@ -25,6 +25,7 @@
## Table of Contents
<ul>
<li><a href="#Why-Colossal-AI">Why Colossal-AI</a> </li>
<li><a href="#Features">Features</a> </li>
<li>
<a href="#Demo">Demo</a>
@ -55,6 +56,17 @@
<li><a href="#Cite-Us">Cite Us</a></li>
</ul>
## Why Colossal-AI
<div align="center">
<a href="https://youtu.be/KnXSfjqkKN0">
<img src="https://raw.githubusercontent.com/hpcaitech/public_assets/main/colossalai/img/JamesDemmel_Colossal-AI.png" width="600" />
</a>
Prof. James Demmel (UC Berkeley): Colossal-AI makes distributed training efficient, easy and scalable.
</div>
<p align="right">(<a href="#top">back to top</a>)</p>
## Features
Colossal-AI provides a collection of parallel training components for you. We aim to support you to write your