Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
ValueError:TextEncodeInput 必须是 Union[TextInputSequence,Tuple[InputSequence,InputSequence]] - 标记 BERT / Distilbert 错误
def split data path df pd read csv path return train test split df test size 0 1 random state 100 train test split data
在非单一维度 1 处,张量 a (2) 的大小必须与张量 b (39) 的大小匹配
这是我第一次从事文本分类工作 我正在使用 CamemBert 进行二进制文本分类 使用 fast bert 库 该库主要受到 fastai 的启发 当我运行下面的代码时 from fast bert data cls import Bert
NLP
Pytorch
bertlanguagemodel
huggingfacetransformers
fastai
Huggingface Bert TPU 微调适用于 Colab,但不适用于 GCP
我正在尝试在 TPU 上微调 Huggingface Transformers BERT 模型 它在 Colab 中工作 但当我切换到 GCP 上的付费 TPU 时失败 Jupyter笔记本代码如下 1 model transformers
如何在keras中使用Bert作为长文本分类中的段落编码器来实现网络?
我正在做一个长文本分类任务 文档中有超过 10000 个单词 我计划使用 Bert 作为段落编码器 然后将段落的嵌入逐步输入 BiLSTM 网络如下 输入 batch size max paragraph len max tokens pe
python
Keras
NLP
bertlanguagemodel
BERT 问答中长文本的滑动窗口
我读过解释滑动窗口如何工作的帖子 但我找不到有关其实际实现方式的任何信息 据我了解 如果输入太长 可以使用滑动窗口来处理文本 如果我错了 请纠正我 说我有一条短信 2017 年 6 月 Kaggle 宣布注册用户突破 100 万 给定一些s
max_length、填充和截断参数在 HuggingFace 的 BertTokenizerFast.from_pretrained('bert-base-uncased') 中如何工作?
我正在处理文本分类问题 我想使用 BERT 模型作为基础 然后使用密集层 我想知道这 3 个参数是如何工作的 例如 如果我有 3 个句子 My name is slim shade and I am an aspiring AI Engin
python
deeplearning
Pytorch
bertlanguagemodel
huggingfacetokenizers
“您必须指定 input_ids 或 input_embeds”,但我确实指定了 input_ids
我训练了一个基于 BERT 的编码器解码器模型 EncoderDecoderModel named ed model使用 HuggingFace 的变压器模块 我用的是BertTokenizer命名为input tokenizer 我用以下
bertlanguagemodel
huggingfacetransformers
PipelineException:在输入中找不到 mask_token ([MASK])
我收到此错误 PipelineException 在输入中找不到 mask token MASK 当我运行这条线时 fill mask 汽车 我在 Colab 上运行它 我的代码 from transformers import BertT
python
NLP
Pytorch
bertlanguagemodel
huggingfacetransformers
为什么 Bert Transformer 使用 [CLS] 令牌进行分类而不是对所有令牌进行平均?
我正在对 bert 架构进行实验 发现大多数微调任务都将最终的隐藏层作为文本表示 然后将其传递给其他模型以进行进一步的下游任务 Bert 的最后一层如下所示 我们获取每个句子的 CLS 标记 图片来源 https jalammar gith
tensorflow
machinelearning
Keras
deeplearning
bertlanguagemodel
BERT 分词器和模型下载
我是初学者 我正在和伯特一起工作 但出于公司网络的安全考虑 下面的代码并没有直接接收bert模型 tokenizer BertTokenizer from pretrained bert base multilingual cased do
python
GitHub
Pytorch
huggingfacetransformers
bertlanguagemodel
基于 BERT 的 NER 模型在反序列化时给出不一致的预测
我正在尝试在 Colab 云 GPU 上使用 HuggingFace 变压器库训练 NER 模型 对其进行 pickle 并将模型加载到我自己的 CPU 上以进行预测 Code 模型如下 from transformers import B
python
Pytorch
bertlanguagemodel
huggingfacetransformers
如何使用 BERT 找到与向量最接近的单词
我正在尝试使用 BERT 获取给定单词嵌入的文本表示 或最接近的单词 基本上我试图获得与 gensim 类似的功能 gt gt gt your word vector array 0 00449447 0 00310097 0 024217
NLP
wordembedding
bertlanguagemodel
无法在 keras 中的 BERT 之上添加 CRF 层以进行 NER
我在训练 NER 的 BERT CRF 模型时遇到了一个未知问题 我使用 keras contrib 作为 CRF 模型 这是导入的库 pip install transformers pip install git https www g
python
Keras
bertlanguagemodel
namedentityrecognition
CRF
BERT 输出解释
BERT编码器输出的关键是default encoder outputs pooled output and sequence output 据我所知 encoder outputs是每个编码器的输出 pooled output是全局上下文
python
tensorflow
deeplearning
NLP
bertlanguagemodel
如何将 Bert 嵌入提供给 LSTM
我正在研究用于文本分类问题的 Bert MLP 模型 本质上 我试图用基本的 LSTM 模型替换 MLP 模型 是否可以创建带有嵌入的 LSTM 或者 最好创建一个带有嵌入层的 LSTM 更具体地说 我很难尝试创建嵌入矩阵 因此我可以使用
Keras
LSTM
keraslayer
mlp
bertlanguagemodel
UnparsedFlagAccessError:在解析标志之前尝试访问标志 --preserve_unused_tokens。伯特
我想使用 Bert 语言模型来训练多类文本分类任务 之前我使用 LSTM 进行训练 没有任何错误 但 Bert 给了我这个错误 我收到以下错误 我真的不知道如何解决它 有人可以帮助我吗 不幸的是 keras 库中使用 BERT 的文档很少
python
NLP
bertlanguagemodel
用于语义相似性的 BERT 嵌入
我之前发布过这个question https stackoverflow com questions 60767089 bert get sentence level embedding after fine tuning 我想获得与此类似
python
tensorflow
Keras
bertlanguagemodel
BERT 中 NER 的正确格式化数据应该是什么样子?
我正在使用 Huggingface 的transformers库并希望使用 BERT 执行 NER 我试图找到一个明确的示例 说明如何使用 BERT 正确格式化 NER 的数据 从我发现的论文和评论中 我并不完全清楚 假设我们有以下句子和标
python
NLP
format
bertlanguagemodel
huggingfacetransformers
该模型没有从输入中返回损失 - LabSE 错误
我想使用小队数据集微调 LabSE 以进行问答 我收到这个错误 ValueError The model did not return a loss from the inputs only the following keys last
NLP
Pytorch
huggingfacetransformers
bertlanguagemodel
CUDA 错误:调用 cublasCreate(handle) 时出现 CUBLAS_STATUS_ALLOC_FAILED
当我在 Google Colab 中运行 PyTorch 深度学习模型时 出现以下错误 usr local lib python3 6 dist packages torch nn functional py in linear input
python
Pytorch
NLP
CUDA
bertlanguagemodel
1
2
»