Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
为什么评估集会耗尽 pytorch 拥抱中的内存?
我使用的是相当大的 GPU 大约 80 GB 训练纪元运行良好 但由于某种原因在评估时 训练集和验证集或多或少具有相同的长度 我内存不足并收到此错误 File home transformers trainer pt utils py li
Pytorch
NLP
huggingfacetransformers
pretrainedmodel
使用新标签微调模型的分类器层
我想使用仅包含 1 个模型之前未见过的附加标签的新数据集来微调已经微调的 BertForSequenceClassification 模型 这样 我想向模型当前能够正确分类的标签集添加 1 个新标签 此外 我不希望随机初始化分类器权重 我想
Pytorch
huggingfacetransformers
AutoTokenizer.from_pretrained 无法加载本地保存的预训练分词器 (PyTorch)
我是 PyTorch 的新手 最近我一直在尝试使用 Transformers 我正在使用 HuggingFace 提供的预训练分词器 我成功下载并运行它们 但如果我尝试保存它们并再次加载 则会发生一些错误 如果我使用AutoTokenize
BERT 分词器和模型下载
我是初学者 我正在和伯特一起工作 但出于公司网络的安全考虑 下面的代码并没有直接接收bert模型 tokenizer BertTokenizer from pretrained bert base multilingual cased do
python
GitHub
Pytorch
huggingfacetransformers
bertlanguagemodel
基于 BERT 的 NER 模型在反序列化时给出不一致的预测
我正在尝试在 Colab 云 GPU 上使用 HuggingFace 变压器库训练 NER 模型 对其进行 pickle 并将模型加载到我自己的 CPU 上以进行预测 Code 模型如下 from transformers import B
python
Pytorch
bertlanguagemodel
huggingfacetransformers
在 Mac OS 上从 Transformer 类导入管道函数时,Jupyter 内核崩溃
我无法导入 Transformer 类的管道函数 因为我的 jupyter 内核一直死机 尝试使用 Transformer 4 15 0 和 4 16 2 有人遇到过这个问题吗 我尝试将类导入到新笔记本中 如图所示 它不断杀死内核 这对我来
python
jupyternotebook
JupyterLab
huggingfacetransformers
Huggingface 保存标记器
我正在尝试将标记生成器保存在 Huggingface 中 以便稍后可以从不需要访问互联网的容器中加载它 BASE MODEL distilbert base multilingual cased tokenizer AutoTokenize
huggingfacetransformers
huggingfacetokenizers
如何从 pytorch 模块获取子模块序列?
对于火炬module https pytorch org docs master generated torch nn Module html 我想我可以用 named children named modules等来获取子模块的列表 但是
Pytorch
huggingfacetransformers
Huggingface 分类与预测作斗争
我正在微调 longformer 然后使用进行预测TextClassificationPipeline and model inputs 方法 我不确定为什么会得到不同的结果 import pandas as pd import datas
python
NLP
Classification
huggingfacetransformers
如何从预训练模型加载保存的分词器
我使用 Huggingface 转换器在 Pytorch 中微调了预训练的 BERT 模型 所有训练 验证都是在云中的 GPU 上完成的 训练结束时 我保存模型和分词器 如下所示 best model save pretrained sav
machinelearning
Pytorch
huggingfacetransformers
如何更改 Huggingface 变压器默认缓存目录
默认缓存目录磁盘容量不足 我需要更改默认缓存目录的配置 您可以在每次加载模型时指定缓存目录 from pretrained https huggingface co transformers main classes model html
huggingfacetransformers
BERT 中 NER 的正确格式化数据应该是什么样子?
我正在使用 Huggingface 的transformers库并希望使用 BERT 执行 NER 我试图找到一个明确的示例 说明如何使用 BERT 正确格式化 NER 的数据 从我发现的论文和评论中 我并不完全清楚 假设我们有以下句子和标
python
NLP
format
bertlanguagemodel
huggingfacetransformers
“正在使用bos_token,但尚未设置”是什么意思?
当我运行 demo py 时 from transformers import AutoTokenizer AutoModel tokenizer AutoTokenizer from pretrained distilbert base
multilingual
huggingfacetransformers
huggingfacetokenizers
distilbert
该模型没有从输入中返回损失 - LabSE 错误
我想使用小队数据集微调 LabSE 以进行问答 我收到这个错误 ValueError The model did not return a loss from the inputs only the following keys last
NLP
Pytorch
huggingfacetransformers
bertlanguagemodel
具有多个 bert 输入的 SMOTE
我正在使用 Keras 和 Bert HuggingFace 构建多类文本分类模型 但我有一个非常不平衡的数据集 我使用了 Sklearn 中的 SMOTE 来为欠平衡类生成额外的样本 我总共有 45 个 当我使用 Bert Tokeniz
python
Keras
scikitlearn
huggingfacetransformers
SMOTE
Huggingface 的“resume_from_checkpoint”有效吗?
我目前将我的教练设置为 training args TrainingArguments output dir f results model checkpoint evaluation strategy epoch learning rat
Pytorch
huggingfacetransformers
Huggingface
如何使用 Huggingface Trainer 微调 gpt-j
我正在尝试使用 Huggingface 训练器微调 gpt j 但惨败 我遵循了引用 bert 的示例 但是当然 gpt j 模型并不完全类似于 bert 模型 该错误表明模型没有产生损失 这很好 但我不知道如何让它产生损失或如何改变训练者
python
machinelearning
Pytorch
huggingfacetransformers
Huggingface
令牌索引序列长度比使用拥抱面部情感分类器的该模型指定的最大序列长度 (651 > 512) 长
我试图借助拥抱面部情绪分析预训练模型来获取评论的情绪 它返回错误 例如Token indices sequence length is longer than the specified maximum sequence length fo
如何微调 HuggingFace BERT 模型进行文本分类 [关闭]
Closed 此问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 有没有逐步解释关于如何微调 HuggingFace BERT文本分类模型 微调方法 有多种方法可以针对目
machinelearning
huggingfacetransformers
transferlearning
用于 BERT 微调的优化器和调度器
我正在尝试使用 BERT 微调模型 使用transformers库 我对优化器和调度程序有点不确定 首先 我明白我应该使用transformers AdamW而不是 Pytorch 的版本 另外 我们应该按照论文中的建议使用预热调度程序 因
NLP
Pytorch
huggingfacetransformers
«
1
2
3
»