LLama Factory 实操记录(一)

2023-12-20

1. api端口参数说明: src/api


-h, --help            显示帮助信息并退出
--model_name_or_path MODEL_NAME_OR_PATH
                      模型权重的路径或标识符,来自 huggingface.co/models 或 modelscope.cn/models。 (默认: None)
--adapter_name_or_path ADAPTER_NAME_OR_PATH
                      适配器权重的路径或标识符,来自 huggingface.co/models。 (默认: None)
--cache_dir CACHE_DIR
                      存储从 huggingface.co 或 modelscope.cn 下载的预训练模型的位置。 (默认: None)
--use_fast_tokenizer [USE_FAST_TOKENIZER]
                      是否使用基于 tokenizers 库支持的快速分词器。 (默认: True)
--no_use_fast_tokenizer
                      是否使用基于 tokenizers 库支持的快速分词器。 (默认: False)
--split_special_tokens [SPLIT_SPECIAL_TOKENS]
                      是否在标记化过程中拆分特殊标记。 (默认: False)
--model_revision MODEL_REVISION
                      要使用的特定模型版本(可以是分支名称、标签名称或提交 ID)。 (默认: main)
--quantization_bit QUANTIZATION_BIT
                      量化模型所需的位数。 (默认: None)
--quantization_type {fp4,nf4}
                      在 int4 训练中使用的量化数据类型。 (默认: nf4)
--double_quantization [DOUBLE_QUANTIZATION]
                      是否在 int4 训练中使用双重量化。 (默认: True)
--no_double_quantization
                      是否在 int4 训练中使用双重量化。 (默认: False)
--rope_scaling {linear,dynamic}
                      采用缩放的旋转位置嵌入。 (默认: None)
--flash_attn [FLASH_ATTN]
                      启用 FlashAttention-2 以加速训练。 (默认: False)
--shift_attn [SHIFT_ATTN]
                      启用由 LongLoRA 提出的 Shift Short Attention(S^2-Attn)。 (默认: False)
--hf_hub_token HF_HUB_TOKEN
                      用于登录 Hugging Face Hub 的身份验证令牌。 (默认: None)
--ms_hub_token MS_HUB_TOKEN
                      用于登录 ModelScope Hub 的身份验证令牌。 (默认: None)
--template TEMPLATE   用于构建训练和推断提示的模板。 (默认: None)
--dataset DATASET     要使用的提供的数据集名称。使用逗号分隔多个数据集。 (默认: None)
--dataset_dir DATASET_DIR
                      包含数据集的文件夹路径。 (默认: data)
--split SPLIT         用于训练和评估的数据集拆分。 (默认: train)
--cutoff_len CUTOFF_LEN
                      标记化后模型输入的最大长度。 (默认: 1024)
--reserved_label_len RESERVED_LABEL_LEN
                      标记化后为标签保留的最大长度。 (默认: 1)
--train_on_prompt [TRAIN_ON_PROMPT]
                      是否在提示上禁用掩码。 (默认: False)
--streaming [STREAMING]
                      启用数据集流式处理。 (默认: False)
--buffer_size BUFFER_SIZE
                      在数据集流式处理中用于随机抽样的缓冲区大小。 (默认: 16384)
--mix_strategy {concat,interleave_under,interleave_over}
                      数据集混合策略(连接/交错)(欠采样/过采样)。 (默认: concat)
--interleave_probs INTERLEAVE_PROBS
                      从数据集中抽样数据的概率。使用逗号分隔多个数据集。 (默认: None)
--overwrite_cache [OVERWRITE_CACHE]
                      覆盖缓存的训练和评估集。 (默认: False)
--preprocessing_num_workers PREPROCESSING_NUM_WORKERS
                      用于预处理的进程数。 (默认: None)
--max_samples MAX_SAMPLES
                      用于调试目的,截断每个数据集的示例数。 (默认: None)
--eval_num_beams EVAL_NUM_BEAMS
                      

 用于评估的束搜索数。该参数将传递给 `model.generate`。 (默认: None)
--ignore_pad_token_for_loss [IGNORE_PAD_TOKEN_FOR_LOSS]
                      是否在损失计算中忽略与填充标签相对应的标记。 (默认: True)
--no_ignore_pad_token_for_loss
                      是否在损失计算中忽略与填充标签相对应的标记。 (默认: False)
--val_size VAL_SIZE   开发集的大小,应为整数或范围为 `[0,1)` 的浮点数。 (默认: 0)
--sft_packing [SFT_PACKING]
                      在监督微调阶段对问题和答案进行打包。 (默认: False)
--cache_path CACHE_PATH
                      保存或加载预处理数据集的路径。 (默认: None)
--export_dir EXPORT_DIR
                      保存导出模型的目录路径。 (默认: None)
--export_size EXPORT_SIZE
                      导出模型的文件分片大小(以 GB 为单位)。 (默认: 1)
--export_quantization_bit EXPORT_QUANTIZATION_BIT
                      用于量化导出模型的位数。 (默认: None)
--export_quantization_dataset EXPORT_QUANTIZATION_DATASET
                      用于量化导出模型的数据集路径或数据集名称。 (默认: None)
--export_quantization_nsamples EXPORT_QUANTIZATION_NSAMPLES
                      用于量化的样本数。 (默认: 128)
--export_quantization_maxlen EXPORT_QUANTIZATION_MAXLEN
                      用于量化的模型输入的最大长度。 (默认: 1024)
--dpo_beta DPO_BETA   DPO 损失的 beta 参数。 (默认: 0.1)
--dpo_loss {sigmoid,hinge}
                      要使用的 DPO 损失类型。 (默认: sigmoid)
--dpo_ftx DPO_FTX     DPO 训练中的监督微调损失系数。 (默认: 0)
--ppo_buffer_size PPO_BUFFER_SIZE
                      在 PPO 优化步骤中创建经验缓冲区的小批次数。 (默认: 1)
--ppo_epochs PPO_EPOCHS
                      在 PPO 优化步骤中执行的周期数。 (默认: 4)
--ppo_logger PPO_LOGGER
                      在 PPO 训练中记录日志,使用 "wandb" 或 "tensorboard"。 (默认: None)
--ppo_score_norm [PPO_SCORE_NORM]
                      在 PPO 训练中使用分数归一化。 (默认: False)
--ppo_target PPO_TARGET
                      用于自适应 KL 控制的目标 KL 值,在 PPO 训练中。 (默认: 6.0)
--ppo_whiten_rewards [PPO_WHITEN_REWARDS]
                      在 PPO 训练中计算优势之前是否漂白奖励。 (默认: False)
--ref_model REF_MODEL
                      用于 PPO 或 DPO 训练的参考模型路径。 (默认: None)
--ref_model_adapters REF_MODEL_ADAPTERS
                      参考模型的适配器路径。 (默认: None)
--ref_model_quantization_bit REF_MODEL_QUANTIZATION_BIT
                      用于量化参考模型的位数。 (默认: None)
--reward_model REWARD_MODEL
                      用于 PPO 训练的奖励模型路径。 (默认: None)
--reward_model_adapters REWARD_MODEL_ADAPTERS
                      奖励模型的适配器路径。 (默认: None)
--reward_model_quantization_bit REWARD_MODEL_QUANTIZATION_BIT
                      用于量化奖励模型的位数。 (默认: None)
--reward_model_type {lora,full,api}
                      在 PPO 训练中使用的奖励模型类型。LoRA 模型仅支持 LoRA 训练。 (默认: lora)
--additional_target ADDITIONAL_TARGET
                      除 LoRA 层之外要设置为可训练并保存在最终检查点中的模块的名称。 (默认: None)
--lora_alpha LORA_ALPHA
                      LoRA 微调的比例因子(默认为 lora_rank * 2)。 (默认: None)
--lora_dropout LORA_DROPOUT
                      LoRA 微调的 dropout 率。 (默认: 0.1)
--lora_rank LORA_RANK
                      LoRA 微调的内在维度。 (默认: 8)
--lora_target LORA_TARGET
                      要应用 LoRA 的目标模块的名称。使用逗号分隔多个模块。 (默认: None)
--create_new_adapter [CREATE_NEW_ADAPTER]
                      是否创建具有随机初始化权重的新适配器。 (默认: False)
--name_module_trainable NAME_MODULE_TRAINABLE
                      部分参数(冻结)微调的可训练模块的名称。使用逗号分隔多个模块。 (默认: mlp)
--num_layer_trainable NUM_LAYER_TRAINABLE
                      部分参数(冻结)微调的可训练层数。 (默认: 3)
--stage {pt,sft,rm,ppo,dpo}
                      训练中将执行哪个阶段。 (默认: sft)
--finetuning_type {lora,freeze,full}
                      使用哪种微调方法。 (默认: lora)
--upcast_layernorm [UPCAST_LAYERNORM]
                      是否在 fp32 中上升 layernorm 权重。 (默认: False)
--plot_loss [PLOT_LOSS]
                      是否在微调后绘制训练损失。 (默认: False)
--do_sample [DO_SAMPLE]
                      是否使用抽样,否则使用贪婪解码。 (默认: True)
--no_do_sample        是否使用抽样,否则使用贪婪解码。 (默认: False)
--temperature TEMPERATURE
                      用于调整下一个标记概率的值。 (默认: 0.95)
--top_p TOP_P         保留的最概然令牌集,其概率加起来达到 top_p 或更高。 (默认: 0.7)


  --top_k TOP_K         保留的最高概率词汇令牌数量,用于 top-k 过滤。 (默认: 50)
  --num_beams NUM_BEAMS
                        用于波束搜索的波束数量。1 表示不进行波束搜索。 (默认: 1)
  --max_length MAX_LENGTH
                        生成令牌的最大长度。可以被 max_new_tokens 覆盖。 (默认: 512)
  --max_new_tokens MAX_NEW_TOKENS
                        生成的令牌的最大数量,忽略提示中的令牌数量。 (默认: 512)
  --repetition_penalty REPETITION_PENALTY
                        重复惩罚的参数。1.0 表示无惩罚。 (默认: 1.0)
  --length_penalty LENGTH_PENALTY
                        用于基于波束的生成的长度的指数惩罚。 (默认: 1.0)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

LLama Factory 实操记录(一) 的相关文章

随机推荐

  • 测试开发 | 创业与人工智能的密切关系

    随着科技的迅猛发展 人工智能 AI 已经逐渐渗透到各个领域 为创业者带来了前所未有的机遇与挑战 在这个数字化转型的时代 创业与人工智能的密切关系日益凸显 成为推动创新和持续发展的关键因素 1 人工智能为创业提供新的商业模式 人工智能技术的不
  • 在spring boot项目引入mybatis plus后的的案例实践

    前景提要 1 项目背景 一个spring boot mybatis的项目 分页一直是PageHelper 2 为什么要引入mybatis plus 1 简化单表的crud 2 对mybatis plus进行简单的设计 以满足现有系统的规范
  • 龙芯loongarch64服务器编译安装paddlepaddle

    前言 PaddlePaddle Parallel Distributed Deep Learning 中文名飞桨 是百度公司推出的开源 易学习 易使用的分布式深度学习平台 现阶段各行各业均追求国产化 软件行业也一样 所有需要在龙芯服务器上编
  • Python+Pytest接口自动化之测试函数、测试类/测试方法的封装

    前言 在python pytest 接口自动化系列中 我们之前的文章基本都没有将代码进行封装 但实际编写自动化测试脚本中 我们都需要将测试代码进行封装 才能被测试框架识别执行 例如单个接口的请求代码如下 import requests he
  • Amazon Toolkit — CodeWhisperer 使用

    tFragment gt 官网 https aws amazon com cn codewhisperer trk cndc detail 最近学习了亚马逊云科技的 代码工具 感慨颇多 下面是安装 和使用的分享 CodeWhisperer
  • android 13.0 USB连接模式默认设为MTP

    1 概述 在13 0android系统产品开发中 在通过otg连接设备的时候 会弹出usb连接模式这时候会让客户选择当前连接电脑是 哪种模式 在项目开发中 需要以mtp模式 就是可以在电脑查看设备的内部存储的样式来设置otg连接电脑的模式
  • 数据工作者最爱的AI功能,你知道吗~

    在工作中难以避免的一项任务就是各种数据总结和汇报 怎么分析总结 以何种形式汇报 都是具有一定的难点 所以我要推荐的就是具有AI图表解析功能的可视化工具 Easyv数字孪生低代码可视化平台 可实现对数据的可视化展示 通过丰富的图表组件 清晰展
  • CentOS7.9安装Mysql5.7-m14

    简介 本文介绍了Linux CentOS系统下Mysql5 7 m14的下载和安装方法 环境 CentOS Linux release 7 9 2009 Core mysql Ver 14 14 Distrib 5 7 4 m14 for
  • EasyV+UE创造数字孪生可视化新篇章!

    众所周知 UE是UNREAL ENGINE 虚幻引擎 的简写 由Epic开发 是世界知名授权最广的游戏引擎之一 EasyV是一款数据可视化应用平台 用户通过EasyV可以更高效的实现数据可视化项目搭建 产品内有丰富的模版 海量的组件 简单的
  • 智能辅助技术的未来前景:创新与便利的引领者

    在数字化时代 智能辅助技术正迅速崛起 成为改善生活 提升工作效率的关键因素 这些技术通过结合人工智能 机器学习和物联网等前沿技术 为用户提供更加智能 便捷的体验 未来 智能辅助技术有望在多个领域引领创新 改变人们的生活方式 1 智能助理的个
  • 使用 Amazon Fault Injection Service 演示多区域和多可用区应用程序弹性

    文章作者 Jeff Amazon Fault Injection Service FIS 可帮助您将混沌工程大规模付诸实践 今天 我们推出了新的 场景 这些场景可以让您演示在亚马逊云科技可用区完全断电 或从一个亚马逊云科技区域到另一个亚马逊
  • 测试开发 | 物流与供应链中的智能优化

    随着全球化的深入和商业环境的复杂化 物流与供应链管理面临着前所未有的挑战 然而 随着人工智能 AI 和物联网 IoT 等技术的不断发展 智能优化正成为推动物流与供应链行业变革的关键力量 以下是智能优化在物流与供应链领域的一些关键应用 1 实
  • 测试开发 |AI驱动的健康监测与管理:数字化时代的医疗创新

    随着人工智能 AI 技术的飞速发展 其在健康监测与管理领域的应用正日益成为医疗领域的重要变革力量 AI不仅提供了更精准 高效的医学诊断手段 还为个体化的健康管理提供了全新的可能性 以下是AI驱动的健康监测与管理在数字化时代的一些关键应用 1
  • 测试开发 | 游戏开发中的人工智能创新:探索数字娱乐的未来

    随着科技的不断进步 人工智能 AI 在游戏开发领域展现出巨大的潜力 为游戏行业带来了前所未有的创新 以下是游戏开发中人工智能创新的一些关键方面 1 智能敌对角色和游戏对抗性 传统游戏中的敌对角色往往遵循固定的模式和策略 容易被玩家预测 通过
  • 跟着野火学FreeRTOS:第一段(任务定义,切换以及临界段)

    在裸机系统中 系统的主体就是 C P U CPU CP U 按照预先设定的程序逻辑在 m a i n
  • git命令github拉取推送代码超时报错

    背景 使用魔法科学上网之后 github的页面可以正常访问 但是拉取代码和推送代码还是一直报错 报错信息内容 Failed to connect to github com port 443 Timed out 其实本质是因为代理设置的不正
  • LLama Factory 安装部署实操记录(二)

    1 项目地址 GitHub hiyouga LLaMA Factory Easy to use LLM fine tuning framework LLaMA BLOOM Mistral Baichuan Qwen ChatGLM Easy
  • 从学到考,一图带你读懂开发者技能成长秘籍

    亚马逊云科技开发者社区 为开发者们提供全球的开发技术资源 这里有技术文档 开发案例 技术专栏 培训视频 活动与竞赛等 帮助中国开发者对接世界最前沿技术 观点 和项目 并将中国优秀开发者或技术推荐给全球云社区 如果你还没有关注 收藏 看到这里
  • C++ 字符串比较------strcmp函数和strncmp函数

    strcmp 函数原型 int strcmp const char str1 const char str2 功能 strcmp函数会按照字典顺序逐个比较两个字符串的字符 直到遇到不同的字符或者遇到字符串结束符 0 返回值 该函数返回值如下
  • LLama Factory 实操记录(一)

    1 api端口参数说明 src api h help 显示帮助信息并退出 model name or path MODEL NAME OR PATH 模型权重的路径或标识符 来自 huggingface co models 或 models