Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何在 nltk 中使用 hunpos 标记文本文件?
有人可以帮我解决在 nltk 中标记语料库的 hunpos 语法吗 我要导入什么hunpos HunPosTagger module http nltk googlecode com svn trunk doc api nltk tag h
python
NLTK
corpus
postagger
如何提取数字(以及比较形容词或范围)
我正在用 Python 开发两个 NLP 项目 它们都有类似的任务提取数值和比较运算符来自句子 如下所示 greater than 10 weight not more than 200lbs height in 5 7 feets fas
python
regex
NLP
NLTK
spacy
在 Databricks 中的 pyspark 数据帧上下载 punkt 时出现 NLTK 查找错误
我试图通过对 Databricks 中的 pyspark 数据框应用余弦相似度来查找文本列 标题 标题 的相似性 我的函数称为 cosine sim udf 为了能够使用它 我必须进行第一次 udf 转换 将函数应用于 df 后出现查找错误
machinelearning
PySpark
NLTK
Databricks
如何从 nltk 分类器获得精度和召回率?
import nltk from nltk corpus import movie reviews from nltk tokenize import word tokenize documents list movie reviews w
python
python27
NLTK
词干函数错误:词干需要一个位置参数
这里的stem函数显示错误 指出stem需要循环中的一个位置参数 如所讨论的 from nltk stem import PorterStemmer as ps text my name is pythonly and looking fo
python
python3x
NLP
NLTK
porterstemmer
下载NLTK数据时出现PermissionError
我使用 Anaconda 的 Python 3 6 3 发行版 它安装了 NLTK 但没有安装我项目所需的 NLTK DATA 问题是 当我尝试安装时 nltk download I get PermissionError Errno 13
python
shell
Anaconda
NLTK
python 中单词的动名词形式
我想获得字符串的动名词形式 我还没有找到调用库来获取动名词的直接方法 我应用了以 ing 结尾的单词的规则 但是因为异常导致我收到了一些错误 然后 我检查 cmu 单词以确保生成的动名词单词正确 代码如下 import cmudict im
python
NLP
NLTK
porterstemmer
如何调整 NLTK 句子标记器
我正在使用 NLTK 来分析一些经典文本 但我在按句子标记文本时遇到了麻烦 例如 这是我从以下内容中得到的片段莫比迪克 http www gutenberg org cache epub 2701 pg2701 txt import nlt
python
NLP
NLTK
使用 nltk 分割句子,同时保留引号
我正在使用 nltk 将文本拆分为句子单元 但是 我需要将包含引号的句子提取为一个单元 现在 每个句子 即使它在引用中 也会被提取为一个单独的部分 这是我尝试将其提取为单个单元的示例 This is a sentence This is a
python
regex
python27
NLTK
IOB 准确度和精密度之间的差异
我正在使用命名实体识别和分块器对 NLTK 进行一些工作 我使用重新训练了分类器nltk chunk named entity py为此 我采取了以下措施 ChunkParse score IOB Accuracy 96 5 Precisi
python
NLP
NLTK
precision
namedentityrecognition
使用 nltk 进行分块
如何从给定模式的句子中获取所有块 示例 NP
python
NLP
NLTK
chunking
非英语单词的词形还原?
我想应用词形还原来减少单词的屈折形式 我知道对于英语 WordNet 提供了这样的功能 但我也对对荷兰语 法语 西班牙语和意大利语单词应用词形还原感兴趣 有没有可靠且可靠的方法来解决这个问题 谢谢你 Try pattern来自 CLIPS
python
NLTK
informationretrieval
informationextraction
lemmatization
如何查找列表中句子列表中每个单词的引理和频率计数?
我想使用 WordNet Lemmatizer 找出引理 并且还需要计算每个词频 我收到以下错误 轨迹如下 类型错误 不可散列的类型 列表 注 语料 库可在nltk包装本身 到目前为止我已经尝试过如下 import nltk re impo
python
python3x
NLTK
tokenize
WordNet
按多个单词的主题标签拆分术语
我正在尝试拆分包含多个单词的主题标签的术语 例如 I am great 或 awesome dayofmylife 那么我正在寻找的输出是 I am great awesome day of my life 我所能实现的就是 gt gt g
python
regex
NLTK
NLTK CoreNLPDependencyParser:无法建立连接
我正在尝试通过 NLTK 使用斯坦福解析器 按照示例here http www nltk org api nltk parse html nltk parse corenlp CoreNLPDependencyParser 20tutori
python
NLP
NLTK
stanfordnlp
NLTK 感知器标记器的标记集是什么?
NLTK 感知器标记器的标记集是什么 预训练模型使用的语料是什么 我尝试从NLTK网站上找到官方信息 但他们没有那个 From https github com nltk nltk pull 1143 https github com nl
NLTK
如何在Python中使用保存模型进行预测
我正在 python 中进行文本分类 我想在生产环境中使用它来对新文档进行预测 我正在使用 TfidfVectorizer 来构建 bagofWord 我在做 X train vectorizer fit transform clean d
python27
scikitlearn
NLTK
Prediction
使用 nltk 中的meteor_score模块评估模型时如何实现meteor分数?
我目前有 2 个文件 reference txt 和 model txt 这两个文本文件包含原始字幕和训练后生成的字幕 我可以简单地执行以下操作来获取流星分数 score nltk translate meteor score meteor
python
NLP
NLTK
Metrics
Python 3 和 NLTK 与 WordNet 2.1 - 这可能吗?
我将 Python 3 和 NLTK 3 0 0 与 WordNet 3 0 结合使用 我想用该数据 semval2007 https github com alvations pywsd tree master pywsd data se
python
NLP
NLTK
WordNet
使用 tkinter 在 jupyter 笔记本内部进行 nltk 绘制
我正在尝试绘制图表 inline of nltk代替jupyter notebook 但出现错误 TclError no display name and no DISPLAY environment variable 我尝试过设置 DIS
python
Docker
Tkinter
NLTK
jupyternotebook
1
2
3
4
5
6
...13
»