Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 Docker 来运行 HuggingFace 海量模型
本篇文章将分享如何通过 Docker 来在本地快速运行 Hugging Face 上的有趣模型 用比原项目更少的代码 和更短的时间成本将模型跑起来 如果你熟悉 Python 那么绝大多数的模型项目 都可以用 10 分钟左右的时间 完成本地的
为了不折腾而去折腾的那些事
Docker
Pytorch
python
Hugging Face
Hugging Face开源库accelerate详解
官网 https huggingface co docs accelerate package reference accelerator Accelerate使用步骤 初始化accelerate对象accelerator Accelera
accelerate
Hugging Face
DDP
分布式训练
详解Hugging Face Transformers的TrainingArguments
前言 TrainingArguments是Hugging Face Transformers库中用于训练模型时需要用到的一组参数 用于控制训练的流程和效果 使用示例 from transformers import Trainer Trai
人工智能
Hugging Face
Transformers
Training
Argument
微调Hugging Face中图像分类模型
前言 本文主要针对Hugging Face平台中的图像分类模型 在自己数据集上进行微调 预训练模型为Google的vit base patch16 224模型 模型简介页面 代码运行于kaggle平台上 使用平台免费GPU 型号P100 笔
计算机视觉
深度学习
Transformer
微调模型
Hugging Face
hugging face 官方文档——datasets、optimizer
文章目录 一 Load dataset 1 1 Hugging Face Hub 1 2 本地和远程文件 1 2 1 CSV 1 2 2 JSON 1 2 3 text 1 2 4 Parquet 1 2 5 内存数据 python字典和D
Hugging Face
python
【计算机视觉
文章目录 一 前言 二 可以获得什么 三 入门实践 3 1 帮助文档 3 2 安装 3 3 模型的组成 3 4 BERT模型的使用 3 4 1 导入模型 3 4 2 使用模型 3 4 2 1 tokenizer 3 5 model 3 6
深度学习笔记
计算机视觉
自然语言处理
Hugging Face
深度学习