Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
对于只有 10000 个单词的字典来说,真正需要什么嵌入层 output_dim?
我正在训练一个 RNN 其单词特征集非常少 大约 10 000 个 我计划在添加 RNN 之前从嵌入层开始 但我不清楚真正需要什么维度 我知道我可以尝试不同的值 32 64 等 但我宁愿先有一些直觉 例如 如果我使用 32 维嵌入向量 则每
tensorflow
Keras
deeplearning
wordembedding
将预训练的手套词嵌入与 scikit-learn 结合使用
我已经使用 keras 来使用预先训练的词嵌入 但我不太确定如何在 scikit learn 模型上执行此操作 我也需要在 sklearn 中执行此操作 因为我正在使用vecstack集成 keras 序列模型和 sklearn 模型 这就
python
Keras
scikitlearn
wordembedding
GloVe
无效参数:indices[0,0] = -4 不在 [0, 40405) 中
我有一个模型可以处理一些数据 我在数据集中添加了一些标记化的单词数据 为简洁起见有些被截断 vocab size len tokenizer word index 1 comment texts df comment text values
Keras
wordembedding
Implementation
是否可以使用 Google BERT 来计算两个文本文档之间的相似度?
是否可以使用 Google BERT 来计算两个文本文档之间的相似度 据我了解 BERT 的输入应该是有限大小的句子 一些作品使用 BERT 来计算句子的相似度 例如 https github com AndriyMulyar semant
python
Text
scikitlearn
NLP
wordembedding
如何将fasttext模型保存为vec格式?
我使用以下方法训练了我的无监督模型fasttext train unsupervised python 中的函数 我想将其保存为 vec 文件 因为我将使用该文件pretrainedVectors参数输入fasttext train sup
python
wordembedding
fasttext
如何使用张量流服务使张量流集线器嵌入可服务?
我正在尝试使用来自tensorflow hub的嵌入模块作为可服务 我是张量流新手 目前 我正在使用通用句子编码器 https tfhub dev google universal sentence encoder 1嵌入作为将句子转换为嵌
tensorflow
tensorflowserving
wordembedding
初始化词汇表外 (OOV) 标记
我正在为 NLP 任务构建 TensorFlow 模型 并且使用预训练的 Glove 300d 词向量 嵌入数据集 显然 有些标记无法解析为嵌入 因为它们没有包含在词向量嵌入模型的训练数据集中 例如罕见的名字 我可以用 0 向量替换这些标记
tensorflow
Embedding
wordembedding
CBOW 与Skip-gram:为什么要颠倒上下文和目标词?
In this https www tensorflow org versions r0 9 tutorials word2vec index html vector representations of words页面上 据说 skip
NLP
tensorflow
deeplearning
Word2Vec
wordembedding
Tensorflow:“GraphDef 不能大于 2GB。”分配变量后保存模型时出错
我想用一个预训练的模型来热启动另一个有一点差异的模型 简而言之 我创建一个新模型 并使用预训练的模型权重分配具有相同名称的变量 但是 在保存模型时 出现错误 Traceback most recent call last File tf t
python
tensorflow
deeplearning
wordembedding
在 Tensorboard 投影仪中可视化 Gensim Word2vec 嵌入
我只看到了几个提出这个问题的问题 但没有一个有答案 所以我想我不妨尝试一下 我一直在使用 gensim 的 word2vec 模型来创建一些向量 我将它们导出为文本 并尝试将其导入到嵌入投影仪的张量流实时模型中 一个问题 没用 它告诉我张量
python
tensorflow
gensim
tensorboard
wordembedding
Keras 嵌入层在函数式 API 中具有可变长度
我有以下适用于可变长度输入的顺序模型 m Sequential m add Embedding len chars 4 name embedding m add Bidirectional LSTM 16 unit forget bias
tensorflow
Keras
wordembedding
如何使用 BERT 找到与向量最接近的单词
我正在尝试使用 BERT 获取给定单词嵌入的文本表示 或最接近的单词 基本上我试图获得与 gensim 类似的功能 gt gt gt your word vector array 0 00449447 0 00310097 0 024217
NLP
wordembedding
bertlanguagemodel
词汇量和嵌入维度之间的首选比例是多少?
例如使用时gensim word2vec或用于训练嵌入向量的类似方法我想知道什么是好的比率 或者嵌入维度与词汇量之间是否有首选比率 随着更多数据的出现 这种情况会如何变化 由于我仍在讨论这个主题 因此在训练嵌入向量时如何选择合适的窗口大小
machinelearning
Keras
NLTK
wordembedding
nltktrainer
嵌入层 Keras 的可变长度输入
我有一个可变大小的文本语料库 我正在尝试使用 keras 中的嵌入层将文本输入 LSTM 模型 我的代码看起来像这样 import numpy as np from keras layers import Embedding Input L
python
Keras
LSTM
Embedding
wordembedding
使用 word2vec 的二元组向量表示
我想使用 word2vec 工具构建文档的词嵌入 我知道如何找到与单个单词 一元组 相对应的向量嵌入 现在 我想找到二元组的向量 是否可以使用 word2vec 构建二元词嵌入 如果是 怎么办 以下代码片段将为您提供二元组的向量表示 请注意
NLP
Word2Vec
wordembedding
Keras Embedding 层中的 mask_zero 如何工作?
我想mask zero True当输入值为 0 时将输出 0 因此后续层可以跳过计算或其他操作 如何mask zero works 例子 data in np array 1 2 0 0 data in shape gt gt gt 1 4
python
machinelearning
Keras
wordembedding
BERT 文档嵌入
我正在尝试使用 BERT 进行文档嵌入 我使用的代码是两个来源的组合 我用 and BERT 词嵌入教程 https mccormickml com 2019 05 14 BERT word embeddings tutorial 下面是代
python3x
Embedding
wordembedding
bertlanguagemodel
举例说明:keras 中嵌入层的工作原理
我不明白Keras的Embedding层 虽然有很多文章解释了 但我还是很困惑 例如 下面的代码来自imdb情感分析 top words 5000 max review length 500 embedding vecor length 3
python
machinelearning
Keras
neuralnetwork
wordembedding
Gensim 3.8.0 至 Gensim 4.0.0
我使用 Gensim 3 8 0 训练了 Word2Vec 模型 后来我尝试在GCP上使用Gensim 4 0 o来使用预训练模型 我使用了以下代码 model KeyedVectors load word2vec format wv pa
python
NLP
gensim
Word2Vec
wordembedding
Keras 1d 卷积层如何处理词嵌入 - 文本分类问题? (过滤器、内核大小和所有超参数)
我目前正在使用 Keras 开发一个文本分类工具 它可以工作 它工作得很好 我的验证准确度高达 98 7 但我无法理解 1D 卷积层到底如何处理文本数据 我应该使用什么超参数 我有以下句子 输入数据 句子中的最大字数 951 如果少于 添加
python
tensorflow
Keras
convneuralnetwork
wordembedding
1
2
»