Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
NLTK 中的无监督 HMM 训练
我只是想进行非常简单的无监督 HMM 训练nltk http www nltk org 考虑 import nltk trainer nltk tag hmm HiddenMarkovModelTrainer from nltk corpu
NLP
NLTK
hiddenmarkovmodels
Node2vec 的工作原理
我一直在读关于node2vec https cs stanford edu jure pubs node2vec kdd16 pdf嵌入算法 我有点困惑它是如何工作的 作为参考 node2vec 由 p 和 q 参数化 并通过模拟来自节点的
machinelearning
NLP
graphtheory
实时跟踪每分钟/小时/天的前 100 个 Twitter 单词
我最近遇到这样一个面试问题 Given a continuous twitter feed design an algorithm to return the 100 most frequent words used at this min
Algorithm
NLP
用于估计(一元)困惑度的 NLTK 包
我正在尝试计算我所拥有的数据的困惑度 我正在使用的代码是 import sys sys path append usr local anaconda lib python2 7 site packages nltk from nltk co
python27
NLP
NLTK
NGram
languagemodel
如何确保用户只提交英文文本
我正在构建一个涉及自然语言处理的项目 由于nlp模块目前只处理英文文本 所以我必须确保用户提交的内容 不长 只有几个单词 是英文的 是否有既定的方法来实现这一目标 首选 Python 或 Javascript 方式 如果内容足够长我会推荐一
javascript
python
NLP
如何训练斯坦福 NLP 情感分析工具
地狱大家 我正在使用斯坦福核心 NLP 包 我的目标是对推文直播进行情感分析 按原样使用情感分析工具对文本 态度 的分析非常差 许多积极因素被标记为中性 许多消极因素被评为积极 我已经在文本文件中获取了超过一百万条推文 但我不知道如何实际获
Java
NLP
stanfordnlp
sentimentanalysis
从文本文件中提取与输入单词最相似的前 N 个单词
我有一个文本文件 其中包含我使用 BeautifulSoup 提取的网页内容 我需要根据给定的单词从文本文件中找到 N 个相似的单词 流程如下 从中提取文本的网站 https en wikipedia org wiki Football h
python
deeplearning
NLP
spacy
gensim
语音识别中如何处理同音词?
对于那些不熟悉什么是同音字 https en wikipedia org wiki Homophone是的 我提供以下示例 我们的 是 嗨和高 到 太 二 在使用时语音API https developer apple com docume
ios
swift
string
NLP
SpeechRecognition
将 python NLTK 解析树保存到图像文件[重复]
这个问题在这里已经有答案了 这可能会复制这个 stackoverflowquestion https stackoverflow com questions 23429117 saving nltk drawn parse tree to
python
Parsing
Tree
NLP
NLTK
否定句子的算法
我想知道是否有人熟悉算法句子否定的任何尝试 例如 给定一个句子 这本书很好 请提供任意数量的意思相反的替代句子 例如 这本书不好 甚至 这本书不好 显然 以高精度实现这一点可能超出了当前 NLP 的范围 但我确信在这个主题上已经有了一些工作
NLP
textprocessing
linguistics
negation
如何提取数字(以及比较形容词或范围)
我正在用 Python 开发两个 NLP 项目 它们都有类似的任务提取数值和比较运算符来自句子 如下所示 greater than 10 weight not more than 200lbs height in 5 7 feets fas
python
regex
NLP
NLTK
spacy
将单引号替换为双引号并排除某些元素
我想用双引号替换字符串中的所有单引号 但出现的情况除外 例如 n t ll m 等 input the stackoverflow don t said hey what output the stackoverflow don t sai
python
regex
replace
NLP
生成易于记忆的随机标识符
与所有开发人员一样 我们在日常工作中不断处理某种标识符 大多数时候 它与错误或支持票有关 我们的软件在检测到错误后 会创建一个包 该包的名称由时间戳和版本号格式化 这是创建合理唯一标识符以避免混淆包的一种廉价方法 例子 错误报告 20101
Random
NLP
mnemonics
Spacy 中的自定义句子分割
I want spaCy使用我提供的句子分割边界而不是它自己的处理 例如 get sentences Bob meets Alice SentBoundary They play together gt Bob meets Alice Th
python
NLP
spacy
Blenderbot 微调
我一直在尝试微调 HuggingFace 的对话模型 Blendebot 我已经尝试过官方拥抱脸网站上给出的传统方法 该方法要求我们使用 trainer train 方法来完成此操作 我使用 compile 方法尝试了它 我尝试过使用 Py
python
tensorflow
NLP
Pytorch
huggingfacetransformers
target_vocab_size 在方法 tfds.features.text.SubwordTextEncoder.build_from_corpus 中到底意味着什么?
根据这个链接 https www tensorflow org datasets api docs python tfds features text SubwordTextEncoder build from corpus target
python
tensorflow
NLP
使用我自己的训练示例训练 spaCy 现有的 POS 标记器
我正在尝试在我自己的词典上训练现有的词性标注器 而不是从头开始 我不想创建一个 空模型 在spaCy的文档中 它说 加载您想要统计的模型 下一步是 使用add label方法将标签映射添加到标记器 但是 当我尝试加载英文小模型并添加标签图时
machinelearning
NLP
spacy
postagger
这个 NLP 问题层次结构描述中的最大池化是什么类型
我正在尝试实现这个描述以及我所做的 我生成了形状的 uni gram bi gram tri gram 15 512 使用填充 然后对于每个单词 我连接三个特征向量 3 512 然后我向他们申请 Globalmaxpooling1D 我不知
NLP
deeplearning
Keras
pooling
BERT - 池化输出与序列输出的第一个向量不同
我在 Tensorflow 中使用 BERT 有一个细节我不太明白 根据文档 https tfhub dev google bert uncased L 12 H 768 A 12 1 https tfhub dev google bert
tensorflow
Keras
deeplearning
NLP
词干函数错误:词干需要一个位置参数
这里的stem函数显示错误 指出stem需要循环中的一个位置参数 如所讨论的 from nltk stem import PorterStemmer as ps text my name is pythonly and looking fo
python
python3x
NLP
NLTK
porterstemmer
«
1
2
3
4
5
6
...44
»