[Docs] Add model readme template

This commit is contained in:
Xinrui Chen
2025-07-22 11:00:55 +08:00
parent f9e0a71447
commit 0bba89b148
7 changed files with 417 additions and 361 deletions

View File

@@ -1,198 +0,0 @@
# Config配置说明
## 配置项顺序
configs统一在run_xxx.yaml中排序按照修改频率的顺序和一般的模型训练流程顺序数据集->模型->训练、评估、推理),具体顺序如下
- 非模块参数seed、run_mode、output_dir、load_checkpoint、resume_training、auto_trans_ckpt、use_graceful_exit
- 环境参数context
- AICCremote_save_url
- 运行参数runner_config、runner_wrapper
- 并行设置use_parallel、parallel、parallel_config
- MOEmoe_config
- 重计算recompute_config
- 算子调优auto_tune
- 性能工具profile
- Trainertrainer
- 数据集train_dataset、train_dataset_task、eval_dataset、eval_dataset_task
- 模型model
- 学习率lr_schedule、layer_scale、layer_decay、lr_scale、lr_scale_factor
- 优化器optimizer
- 回调函数callbacks
- 评估函数metric
- Processorprocessor
## 详细配置说明
- seed: 随机种子,可以参考[mindspore.set_seed](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/mindspore/mindspore.set_seed.html)
- run_mode: 运行模式,可选"train"、"finetune"、"eval"或"predict"
- output_dir: './output' 保存checkpoint、strategy的路径
- load_checkpoint: 加载权重的模型名或权重路径,若进行全参微调/推理支持传入完整权重路径或离线切分完成的权重文件夹对于Lora微调/推理在支持上述传入方式以外还支持同时传入Base、Lora权重传入格式为`load_checkpoint=path/to/dir/`其中dir路径下包含`{BASE_MODEL}.ckpt``{LORA_MODEL}.ckpt`
- auto_trans_ckpt: 是否开启自动在线权重切分或转换
- resume_training: 加载方式为True时会加载训练过程信息如优化器、epochs数等
- use_graceful_exit是否开启优雅退出功能开启时需要配置相应的callback函数
- context: 环境配置,可以参考: [mindspore.set_context](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/mindspore/mindspore.set_context.html)
- mode: 0代表Graph Mode 1代表Pynative Mode
- device_target: 设备类型Ascend、CPU或GPU默认为Ascend
- max_call_depth: 函数调用的最大深度
- max_device_memory: 设置设备可用的最大内存。运行多机任务时需要适当减小,为设备间通信留出更多内存空间。
- save_graphs: 是否保存图
- device_id: 默认设备id
- remote_save_url: 使用AICC训练作业时的目标桶的回传文件夹路径
- runner_config: 运行配置
- epochs: 迭代次数
- batch_size: 数据批次大小当前在使用yaml初始化训练时会覆盖数据集配置中的batch_size后面会删除改配置
- sink_mode: 是否开启数据下沉模式
- sink_size: 每次下沉数据大小,-1代表全量下沉
- gradient_accumulation_steps: 梯度累积步数表示训练经过多少step后对模型权重进行一次优化更新未设置时默认值为1不开启梯度累积可参考[特性文档](../docs/feature_cards/Training_Algorithms.md)
- runner_wrapper: wrapper配置
- type: wrapper类
- scale_sense: 梯度缩放配置
- type: 梯度缩放类
- use_clip_grad: 是否开启梯度裁剪
- loss_scale_value: 缩放系数
- use_parallel: 是否开启并行
- parallel: 自动并行配置,可以参考:[mindspore.set_auto_parallel_context](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/mindspore/mindspore.set_auto_parallel_context.html)
- parallel_mode: 并行模式0-dataset数据并行, 1-semi半自动并行, 2-auto自动并行, 3-hybrid手工实现并行。
- gradients_mean: 是否在梯度AllReduce后执行平均算子。通常半自动并行模式下为False数据并行模式下为True
- enable_alltoall: 允许在通信期间生成AllToAll通信算子的开关。通常仅在MOE场景下打开默认False
- full_batch: 在auto_parallel模式下加载整个batch数据集时为True。半自动并行模式通常设置为True数据并行模式必须设置为False否则会报错
- search_mode: 策略搜索模式有三种分别是recursive_programmingdynamic_programming和sharding_propagation。仅在全自动并行模式下生效其他模式不生效实验性接口谨慎使用
- enable_parallel_optimizer: 数据并行训练时对权重更新计算进行分片。优化器并行开关在数据并行训练时默认会将模型权重参数切分成device_num份半自动并行时默认将模型权重参数切份data_parallel份
- strategy_ckpt_save_file: 保存并行切分策略的路径。
- strategy_ckpt_config: 策略文件相关配置项
- only_trainable_params: 仅保存/加载可训练参数的策略信息默认为True当网络中存在冻结的参数但又需要切分时例如微调场景下将其设为False
- parallel_optimizer_config: 用于开启优化器并行后的行为配置。仅在enable_parallel_optimizer=True的时候生效。
- gradient_accumulation_shard: 设置累加梯度变量是否在数据并行维度上进行切分。
- parallel_optimizer_threshold: 设置参数切分的阈值。
- optimizer_weight_shard_size: 设置指定优化器权重切分通信域的大小。多机训练dp数较大时可以适当设置为一个较小的值需要能整除dp值
- parallel_config: 并行策略配置,可以参考`mindformers.modules.transformer.TransformerOpParallelConfig`,并行配置涉及**算子级并行**,可参考[文档](https://www.mindspore.cn/tutorials/experts/zh-CN/r2.3.0rc2/parallel/operator_parallel.html)。
- data_parallel: 数据并行,自动并行双递归策略搜索算法下无需配置
- model_parallel: 模型并行,自动并行双递归策略搜索算法下无需配置
- context_parallel: 序列并行在序列维度进行切分每台设备只负责1/context_parallel的Q和KV进行自注意力值计算不再需要单个设备来保存整个序列使注意力矩阵与序列长度由平方关系变成线性关系有效降低每台计算设备显存压力context_parallel代表序列并行数此处为1表示不开启此处为2表示2卡并行。
- mem_coeff: 自动并行双递归策略搜索算法下需配置,控制策略生成更倾向于数据并行或者模型并行,数值越大,模型并行数越大。配置值范围为[0.125, 1024], 配置值为0.125时生成纯数据并行策略配置值为2014时生成纯模型并行策略
- pipeline_stage: 流水线并行
> 需要满足实际运行的卡数 device_num = data_parallel × model_parallel × context_parallel × pipeline_stage。自动并行下无此约束但要保证stage内的卡数`stage_device_num`是2的幂
- use_seq_parallel: 是否开启序列并行开启后将Transformer层中的LayerNorm以及Dropout的输入按序列维度进行切分使各设备只需处理部分的LayerNorm和Dropout减少模型显存占用。注意当context_parallel开启后该参数不生效。
- micro_batch_num: 流水线并行的微批次大小。pipeline_satge大于1时开启流水并行时使用此处需满足micro_batch_num >= pipeline_satge
- gradient_aggregation_group: 梯度通信算子融合组的大小
- micro_batch_interleave_num: batch_size的拆分份数多副本并行开关通常在模型并行时使用用于优化model_parallel时产生的通信损耗纯流水并行时不建议使用。可以参考[mindspore.nn.MicroBatchInterleaved](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/nn/mindspore.nn.MicroBatchInterleaved.html)
- moe_config: 混合专家配置当前大部分仓上模型不支持实验性接口谨慎使用。可以参考mindformers.modules.transformer.moe.MoEConfig
- expert_num: 专家数量
- capacity_factor: 专家能力因子
- aux_loss_factor: loss贡献因子
- num_experts_chosen: 每个token选择专家数目
- balance_via_topk_bias: 使能aux_loss_free负载均衡算法
- topk_bias_update_rateaux_loss_free负载均衡算法bias更新步长
- comp_comm_parallel: 是否开启ffn的计算通信并行。默认值False。
- comp_comm_parallel_degree: ffn计算通信的分割数。数字越大重叠越多但会消耗更多内存。此参数仅在comp_com_parallel启用时有效。
- use_gating_sigmoid: MoE中gating的结果使用sigmoid函数
- use_gmm: MoE专家计算是否使用GroupedMatmul。
- use_fused_ops_permute: 是否使用permuteunpermute融合算子进行性能加速仅在use_gmm=True时生效。
- enable_deredundency: 是否开启去冗余通信要求专家并行数是每个节点中npu卡数量的整数倍当use_gmm为True时生效。
- npu_nums_per_device: 每个节点中npu卡的数量当enable_deredundency=True时生效。
- enable_gmm_safe_tokens: 保证每个专家至少分配1个tokens避免极度负载不均衡情况下GroupedMatmul计算失败。当use_gmm=True时建议开启。
- recompute_config重计算配置可以参考mindformers.modules.transformer.TransformerRecomputeConfig
- recompute: 是否开启重计算
- select_recompute: 是否开启选择重计算只针对attention层的算子进行重计算
- parallel_optimizer_comm_recompute: 由优化器并行引入的AllGather通信是否重计算
- mp_comm_recompute: 由模型并行引入的通信操作是否重计算
- recompute_slice_activation: 是否把保留在内存中的Cell输出切片
- auto_tune: 是否开启自动数据加速,可以参考[mindspore.dataset.config.set_enable_autotune](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/dataset/mindspore.dataset.config.set_enable_autotune.html)
- filepath_prefix: 优化后的全局配置的保存路径+文件前缀
- autotune_per_step: 设置自动数据加速的配置调整step间隔可以参考[mindspore.dataset.config.set_autotune_interval](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/dataset/mindspore.dataset.config.set_autotune_interval.html)
- profile: 是否开启性能分析工具,可以参考[mindspore.Profiler](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/mindspore/mindspore.Profiler.html)
- profile_start_step: 性能分析开始的step
- profile_stop_step: 性能分析结束的step
- profile_communication: 是否在多设备训练中收集通信性能数据
- profile_memory: 是否收集Tensor内存数据
- init_start_profile: 是否在Profiler初始化的时候开启数据采集。开启后profile_start_step将不生效。如果需要收集多设备通信数据则必须开启。
- trainer: 训练流程配置
- type: 训练流程类
- model_name: 训练模型名
- do_eval: 是否开启边训练边评估
- eval_step_interval: 评估step间隔, 默认为100表示每100个step间隔执行一次评估配置为大于0的数表示每隔所配置的step数后执行一次评估配置为小于0的数则表示禁用step评估
- eval_epoch_interval: 评估epoch间隔, 默认为-1表示禁用epoch结束时的评估配置为大于0的数表示每隔所配置的epoch数后执行一次评估配置为小于0的数则表示禁用epoch评估注意数据下沉模式下epoch所包含的step数将从数据集大小变为sink size的大小不建议在数据下沉模式下使用本项配置
- train_dataset: 训练数据集配置,可以参考[mindspore.dataset.GeneratorDataset](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/dataset/mindspore.dataset.GeneratorDataset.html)
- seed: 随机种子
- batch_size: 批次大小当前在使用yaml初始化训练时该参数会被runner_config中的batch_size覆盖
- data_loader: 数据加载配置,可以参考[mindspore.dataset.ImageFolderDataset](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/dataset/mindspore.dataset.ImageFolderDataset.html)
- type: 数据加载类
- dataset_dir: 数据集的根目录或数据集文件的路径
- num_parallel_workers: 读取数据的工作线程数
- shuffle: 是否混洗数据集
- transforms: 数据增强操作
- tokenizer: 训练数据预处理使用的分词器
- type: 分词器类
- vocab_file: 词表文件路径
- max_length: 分词器输出的最大长度
- mixup_op: 图像随机混合,可以参考[mindspore.dataset.vision.MixUp](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/dataset_vision/mindspore.dataset.vision.MixUp.html)
- input_columns: 输入数据列
- output_columns: 输出数据列
- column_order: 输出数据顺序
- num_parallel_workers: 读取数据的工作进程数/线程数
- python_multiprocessing: 启用Python多进程模式加速运算
- drop_remainder: 当最后一个批处理数据包含的数据条目小于batch_size时是否将该批处理丢弃
- repeat: 重复此数据集count次
- numa_enable: 设置NUMA的默认状态为启动状态
- prefetch_size: 设置管道中线程的队列容量
- eval_dataset: 评估数据集配置具体配置说明可参考train_dataset
- model: 模型配置
- arch: 模型类配置
- type: 模型类
- model_config: 模型参数配置
- type: 模型参数配置类
- checkpoint_name_or_path: 评估时不指定权重,模型默认加载的权重名
*\# 以下配置针对大规模语言模型推理*
- top_k: 从概率最大的top_k个tokens中采样
- top_p: 从概率最大且概率累计不超过top_p的tokens中采样
- do_sample: 使能top_k或top_p采样为False时top_k和top_p均重置为1
- use_past: 使能增量推理为True时为增量推理否则为自回归推理当前开启后会使用Paged Attention进行计算使用时请参考[模型支持列表](https://gitee.com/mindspore/mindformers/tree/master/docs#text-generator)
- max_decode_length: 文本生成最大长度(输入长度统计在内)
- max_length: 文本生成最大长度输入长度统计在内效果等同于max_decode_length同时存在时以max_length为准
- max_new_tokens: 文本新生成的最大长度输入长度不统计在内与max_length同时设置时以max_new_tokens为准
- min_length: 文本生成最小长度(输入长度统计在内)
- min_new_tokens: 文本新生成最小长度输入长度不统计在内与min_length同时设置时以min_new_tokens为准
- repetition_penalty: 重复文本惩罚系数该值不小于1等于1时不惩罚
- block_size: 使用Paged Attention推理时需设置每块block的大小
- num_blocks: 使用Paged Attention推理时需设置blocks的总数。当前配置需要保证batch_size*seq_length<=block_size*num_blocks否则运行过程中会提示PA的内存池不足
- return_dict_in_generate: 以字典形式返回generate输出结果默认为False
- output_scores: 字典返回输出时是否包含每次前向生成时的进入softmax前的分数结果默认为False
- output_logits: 字典返回输出时是否包含每次前向生成时模型输出的logits默认为False
- fused_rms_norm: 模型微调时是否使用融合算子默认为True
- lr_schedule: 学习率配置
- type: 学习率类
- layer_scale: 是否开启层衰减
- layer_decay: 层衰减系数
- optimizer: 优化器配置
- type: 优化器类
- weight_decay: 权重衰减值
- lr_scale: 是否开启学习率缩放
- lr_scale_factor: 学习率缩放系数
- callbacks: 回调函数配置
- type: 回调函数类
- type: MFLossMonitor: loss打印
- type: SummaryMonitor: 收集summary数据可以参考[mindspore.SummaryCollector](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/mindspore/mindspore.SummaryCollector.html)
- type: CheckpointMonitor: checkpoint保存可以参考[mindspore.save_checkpoint](https://www.mindspore.cn/docs/zh-CN/r2.3.0/api_python/mindspore/mindspore.save_checkpoint.html)
- prefix: 权重文件前缀
- directory: 保存权重的目录
- save_checkpoint_seconds: 设定多少s保存一次ckpt
- save_checkpoint_steps: 每多少个step保存一次checkpoint
- keep_checkpoint_max: 设定保存ckpt的最大数量超过则会删除最旧的权重以保证数量不变
- keep_checkpoint_per_n_minutes: 设定多少minutes保存一次ckpt
- integrated_save: 是否聚合保存。True时表示聚合所有卡权重这时每张卡权重均一致False时表示每张卡各自保存自己的权重当半自动并行模式训练大模型时通常需要设置为False以保证权重保存时不会因为内存问题而失败
- save_network_params新增: 是否额外保存瘦身后的权重。默认为False。
- save_trainable_params新增: 是否额外保存可训练的参数权重即微调部分参数的权重。默认为False。
- async_save: 是否异步执行保存checkpoint文件
- type: OnRequestExit: 开启优雅退出功能需要设置,可以参考[mindspore.train.OnRequestExit](https://www.mindspore.cn/docs/zh-CN/r2.4.0/api_python/train/mindspore.train.OnRequestExit.html)
- metric: 评估指标配置
- type: 评估指标类
- processor: 推理时的数据处理
- return_tensors: 返回张量类型
- type: 数据处理类
- image_processor: 图像处理配置
- type: 图像处理类
- tokenizer: 文本生成所使用的分词器配置
- type: 分词器类
- vocab_file词表文件路径默认会自动下载至默认路径下。

260
configs/README_TEMPLATE.md Normal file
View File

@@ -0,0 +1,260 @@
<!--模型README模板-->
# [模型名称]
## 模型描述
[简要描述模型的发布者、优势、功能和用途。添加引用信息。]
## 支持规格
| 模型名称 | 规格 | 支持任务 | 模型架构 | 支持设备 | 模型级别 |
|:----:|:--:|:---------:|:------------:|:-------------------------------------------------:|:-------------------------------------------------:|
| XX | xB | 预训练/微调/推理 | Mcore/Legacy | Atlas 800T A2/Atlas 800I A2/Atlas 900 A3 SuperPoD | Released/Validated/Preliminary/Untested/Community |
说明:
- 模型架构:`Mcore` 表示 1.6.0 发布的新模型架构,`Legacy` 表示原有模型架构。详见[架构说明](https://www.mindspore.cn/mindformers/docs/zh-CN/master/introduction/overview.html)。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。每个级别的介绍详见[模型级别介绍](https://gitee.com/mindspore/mindformers/blob/master/README_CN.md#模型级别介绍)。
[标题里Mcore首字母大写正文里出现使用小写]
## 版本配套
[模型名称] 当前推荐使用和首次支持的版本配套如下。当前推荐使用的版本一般是最新的经过验证的版本。如无特殊说明,首次支持的版本到推荐使用的版本之间的版本均可以使用。
| | MindSpore Transformers | MindSpore | CANN | HDK |
|:---------:|:----------------------:|:---------:|:----:|:---:|
| 当前推荐使用的版本 | xx | xx | xx | xx |
| 首次支持的版本 | xx | xx | xx | xx |
## 使用样例
MindSpore Transformers 支持使用 [模型名称] 进行预训练、微调和推理。各任务的整体使用流程如下:
| 任务 | 前期准备 | 使用流程 |
|:---:|:------------------------|:---------------------------|
| 预训练 | 环境安装 -> 预训练数据集下载 | 数据预处理 -> 修改任务配置 -> 启动预训练任务 |
| 微调 | 环境安装 -> 模型下载 -> 微调数据集下载 | 数据预处理 -> 修改任务配置 -> 启动微调任务 |
| 推理 | 环境安装 -> 模型下载 | 修改任务配置 -> 启动推理任务 |
### 前期准备
#### 环境安装
按照上述版本配套,参考[环境安装指南](https://www.mindspore.cn/mindformers/docs/zh-CN/master/installation.html)安装运行环境。
#### 模型下载
用户可以从Modelers、Hugging Face、ModelScope等开源社区下载所需的模型文件包括模型权重、Tokenizer、配置等重头预训练不需加载权重。链接如下
| 模型名称 | 下载链接 | 说明 |
|:----------:|:-------------------------------------------------|:---|
| XXX-xB | [Modelers]() / [Hugging Face]() / [ModelScope]() | |
| XXX-xB | [Modelers]() / [Hugging Face]() / [ModelScope]() | |
| XXX-xB-AxB | [Modelers]() / [Hugging Face]() / [ModelScope]() | |
#### 数据集下载
MindSpore Transformers 以下面的数据集为例提供了 [模型名称] 的预训练和微调流程的使用案例,实际训练时可参考[数据集](https://www.mindspore.cn/mindformers/docs/zh-CN/master/feature/dataset.html)章节制作数据集。请在执行任务前提前下载所需数据集。链接如下:
| 任务 | 数据集名称 | 下载链接 | 说明 |
|:---:|:------------:|:-------------|:---|
| 预训练 | WikiText-103 | [Download]() | |
| 微调 | Alpaca | [Download]() | |
### 预训练样例
[对预训练任务增加必要说明,包括使用场景、使用约束和限制]
#### 1. 数据预处理
[根据实际情况,清楚写出数据预处理的步骤和命令。]
#### 2. 修改任务配置
[给出修改的yaml文件名和链接按修改含义分点归类写出修改的配置项和含义对配置项进行必要说明]
不同规格和序列长度的并行配置可参考[并行配置建议](#并行配置建议)。
#### 3. 启动预训练任务
[给出启动预训练任务的命令,注意命令中需要包含必要的参数和配置文件路径。然后说明如何查看日志和结果。最后说明关于预训练的通用使用方法和相关特性介绍请参考官网预训练文档。]
```bash
bash scripts/msrun_launcher.sh "run_mindformer.py \
--config configs/{model_name}/pretrain_{model_name}.yaml \
--auto_trans_ckpt False \
--use_parallel True \
--parallel_config.data_parallel 1 \
--parallel_config.model_parallel 8 \
--run_mode train"
```
### 微调样例
[对微调任务增加必要说明,包括使用场景、使用约束和限制]
#### 1. 数据预处理
[根据实际情况,清楚写出数据预处理的步骤和命令。]
#### 2. 修改任务配置
[给出修改的yaml文件名和链接按修改含义分点归类写出修改的配置项和含义对配置项进行必要说明]
不同规格和序列长度的并行配置可参考[并行配置建议](#并行配置建议)。
#### 3. 启动微调任务
[给出启动微调任务的命令,注意命令中需要包含必要的参数和配置文件路径。然后说明如何查看日志和结果。最后说明关于微调的通用使用方法和相关特性介绍请参考官网微调文档。]
```bash
bash scripts/msrun_launcher.sh "run_mindformer.py \
--config configs/{model_name}/pretrain_{model_name}.yaml \
--pretrained_model_dir /path/to/pretrained_model
--auto_trans_ckpt True \
--use_parallel True \
--parallel_config.data_parallel 1 \
--parallel_config.model_parallel 8 \
--run_mode finetune"
```
### 推理样例
[对推理任务增加必要说明,包括使用场景、使用约束和限制]
#### 1. 修改任务配置
[给出修改的yaml文件名和链接按修改含义分点归类写出修改的配置项和含义对配置项进行必要说明]
不同规格的并行配置可参考[并行配置建议](#并行配置建议)。
#### 2. 启动推理任务
[给出启动推理任务的命令,注意命令中需要包含必要的参数和配置文件路径。然后说明如何查看日志和结果。最后说明关于推理的通用使用方法和相关特性介绍请参考官网推理文档。]
```shell
bash scripts/msrun_launcher.sh "run_mindformer.py \
--config configs/{model_name}/pretrain_{model_name}.yaml \
--run_mode predict \
--use_parallel True \
--pretrained_model_dir /path/to/pretrained_model \
--parallel_config.data_parallel 1 \
--parallel_config.model_parallel 8 \
--predict_data '帮助我制定一份去上海的旅游攻略'" 2
```
## 附录
### 模型文件说明
[模型名称]的模型文件包括以下内容:
```text
📦mindformers
├── 📂mindformers
│ ├── 📄xx.py
│ └── 📂xx # [目录说明]
│ ├── 📄xx.py # [文件说明]
│ └── 📄xx.py # [文件说明]
├── 📂xx
│ └── 📄xx.yaml
└── 📄xx.xx
```
[符号建议:📦 根目录 / 📂 文件夹 / 📄 文件,用 ├── 和 └── 表示层级分支]
### 并行配置建议
以下配置为训练或推理场景下,不同模型规格的推荐配置。其中部分配置为经过验证的最佳配置,部分配置为可以运行的配置。用户可根据实际情况选择合适的配置。
> 注意max_device_memory 在 Atlas 800T A2 上一般设置≤60GB在 Atlas 800I A2 上一般设置≤30GB。
- 训练:
<table>
<tr>
<th>模型</th>
<th>规格</th>
<th>设备</th>
<th>卡数</th>
<th>序列长度</th>
<th>并行配置</th>
<th>重计算配置</th>
<th>内存配置</th>
<th>模型级别</th>
</tr>
<tr>
<td>XX</td>
<td>xxB</td>
<td>1 × Atlas 800T A2 (8P)</td>
<td>8</td>
<td>4096</td>
<td>
<pre><code class="language-yaml">parallel_config:
data_parallel: &dp 2
model_parallel: 2
pipeline_stage: 2
micro_batch_num: 1
vocab_emb_dp: True
use_seq_parallel: False
gradient_aggregation_group: 1</code></pre>
</td>
<td>
<pre><code class="language-yaml">recompute_config:
recompute: True
select_recompute: False
parallel_optimizer_comm_recompute: True
mp_comm_recompute: True
recompute_slice_activation: True</code></pre>
</td>
<td>
<pre><code class="language-yaml">context:
...
max_device_memory: "58GB"</code></pre>
</td>
<td> Validated </td>
</tr>
</table>
- 推理:
<table>
<tr>
<th>模型</th>
<th>规格</th>
<th>设备</th>
<th>卡数</th>
<th>序列长度</th>
<th>并行配置</th>
<th>内存配置</th>
<th>模型级别</th>
</tr>
<tr>
<td>XX</td>
<td>xxB</td>
<td>1 × Atlas 800T A2 (8P)</td>
<td>8</td>
<td>4096</td>
<td>
<pre><code class="language-yaml">parallel_config:
data_parallel: &dp 1
model_parallel: 8</code></pre>
</td>
<td>
<pre><code class="language-yaml">context:
...
max_device_memory: "58GB"</code></pre>
</td>
<td> Validated </td>
</tr>
</table>
### FAQ
Q1[以用户的角度提出问题,注意问题要便于用户理解,有适当背景说明]
A1[给出解答或解决方法解决方法需要准确、清晰便于用户理解和操作。无法直接解决的问题可以给出相关链接或issue联系方式。]
更多FAQ请查看[官网FAQ](https://www.mindspore.cn/mindformers/docs/zh-CN/master/faq/model_related.html)

View File

@@ -15,7 +15,7 @@ GLM-4.5 系列模型是专为智能代理设计的基础模型基于GLM4采
说明:
- 模型架构:`Mcore` 表示新模型架构。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。每个级别的介绍详见[模型级别介绍](https://gitee.com/mindspore/mindformers/blob/master/README_CN.md#模型级别介绍)。
## 版本配套
@@ -255,16 +255,6 @@ glm4_moe的模型文件包括以下内容
</tr>
</table>
### 模型级别介绍
#### 推理
- `Released`(发布级):通过测试团队验收,评测精度与标杆满足对齐标准;
- `Validated`(验证级):通过开发团队自验证,评测精度与标杆满足对齐标准;
- `Preliminary`(初步级):通过开发者初步自验证,功能完整可试用,推理输出符合逻辑但精度未严格验证;
- `Untested`(未测试级):功能可用但未经系统测试,精度未验证,支持用户自定义开发使能;
- `Community`(社区级):社区贡献的 MindSpore 原生模型,由社区开发维护。
### FAQ
Q1如果修改了配置中的参数使用`run_mindformer.py`拉起任务时,还需要重新传参吗?

View File

@@ -30,8 +30,8 @@ Qwen3 是 Qwen 系列最新一代的大型语言模型。基于广泛的训练
说明:
- 模型架构:`Mcore` 表示 1.6.0 发布的新模型架构,`Legacy` 表示原有模型架构。详见[架构说明](https://www.mindspore.cn/mindformers/docs/zh-CN/dev/introduction/overview.html)。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。每个级别的介绍详见[模型级别介绍](#模型级别介绍)。
- 模型架构:`Mcore` 表示 1.6.0 发布的新模型架构,`Legacy` 表示原有模型架构。详见[架构说明](https://www.mindspore.cn/mindformers/docs/zh-CN/master/introduction/overview.html)。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。每个级别的介绍详见[模型级别介绍](https://gitee.com/mindspore/mindformers/blob/master/README_CN.md#模型级别介绍)。
## 版本配套
@@ -527,24 +527,6 @@ Qwen3的模型文件包括以下内容
</tr>
</table>
### 模型级别介绍
#### 训练
- `Released`发布级通过测试团队验收确定性条件下loss 与 grad norm 精度与标杆拟合度满足标准;
- `Validated`验证级通过开发团队自验证确定性条件下loss 与 grad norm 精度与标杆拟合度满足标准;
- `Preliminary`(初步级):通过开发者初步自验证,功能完整可试用,训练正常收敛但精度未严格验证;
- `Untested`(未测试级):功能可用但未经系统测试,精度和收敛性未验证,支持用户自定义开发使能;
- `Community`(社区级):社区贡献的 MindSpore 原生模型,由社区开发维护。
#### 推理
- `Released`(发布级):通过测试团队验收,评测精度与标杆满足对齐标准;
- `Validated`(验证级):通过开发团队自验证,评测精度与标杆满足对齐标准;
- `Preliminary`(初步级):通过开发者初步自验证,功能完整可试用,推理输出符合逻辑但精度未严格验证;
- `Untested`(未测试级):功能可用但未经系统测试,精度未验证,支持用户自定义开发使能;
- `Community`(社区级):社区贡献的 MindSpore 原生模型,由社区开发维护。
### FAQ
Q1我有两台Atlas 800T A2服务器如何进行Qwen3的预训练拉起任务的指令是什么

View File

@@ -1,4 +1,4 @@
# Qwen3_MOE
# Qwen3-MoE
## 模型描述
@@ -25,8 +25,8 @@ Qwen3 是 Qwen 系列最新一代的大型语言模型。基于广泛的训练
说明:
- 模型架构:`Mcore` 表示 1.6.0 发布的新模型架构,`Legacy` 表示原有模型架构。详见[架构说明](https://www.mindspore.cn/mindformers/docs/zh-CN/dev/introduction/overview.html)。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。每个级别的介绍详见[模型级别介绍](#模型级别介绍)。
- 模型架构:`Mcore` 表示 1.6.0 发布的新模型架构,`Legacy` 表示原有模型架构。详见[架构说明](https://www.mindspore.cn/mindformers/docs/zh-CN/master/introduction/overview.html)。
- 模型级别训练和推理各分为5个级别分别代表该模型遵循不同的标准上线。每个级别的介绍详见[模型级别介绍](https://gitee.com/mindspore/mindformers/blob/master/README_CN.md#模型级别介绍)。
## 版本配套
@@ -222,7 +222,7 @@ bash scripts/msrun_launcher.sh "run_mindformer.py \
### 模型文件说明
Qwen3_moe的模型文件包括以下内容:
Qwen3-MoE的模型文件包括以下内容:
```text
📦mindformers
@@ -295,24 +295,6 @@ Qwen3_moe的模型文件包括以下内容
</tr>
</table>
### 模型级别介绍
#### 训练
- `Released`发布级通过测试团队验收确定性条件下loss 与 grad norm 精度与标杆拟合度满足标准;
- `Validated`验证级通过开发团队自验证确定性条件下loss 与 grad norm 精度与标杆拟合度满足标准;
- `Preliminary`(初步级):通过开发者初步自验证,功能完整可试用,训练正常收敛但精度未严格验证;
- `Untested`(未测试级):功能可用但未经系统测试,精度和收敛性未验证,支持用户自定义开发使能;
- `Community`(社区级):社区贡献的 MindSpore 原生模型,由社区开发维护。
#### 推理
- `Released`(发布级):通过测试团队验收,评测精度与标杆满足对齐标准;
- `Validated`(验证级):通过开发团队自验证,评测精度与标杆满足对齐标准;
- `Preliminary`(初步级):通过开发者初步自验证,功能完整可试用,推理输出符合逻辑但精度未严格验证;
- `Untested`(未测试级):功能可用但未经系统测试,精度未验证,支持用户自定义开发使能;
- `Community`(社区级):社区贡献的 MindSpore 原生模型,由社区开发维护。
### FAQ
Q1如果修改了配置中的参数使用`run_mindformer.py`拉起任务时,还需要重新传参吗?