Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Spacy 自定义句子分割
我使用 Spacy 进行自定义句子分割 并且我需要参数化 custom delimeter word 来进行句子吐痰 但我没有找到如何作为参数传递 这里是函数 Manual or Custom Based def mycustom boun
python3x
spacy
如何使用 SpaCy 中的管道组件修改 spacy.tokens.doc.Doc 令牌
我正在使用 SpaCy 预处理一些数据 但是 我对如何修改内容感到困惑spacy tokens doc Doc class 例如 这里 npc spacy load pt def pre process text doc gt str ne
python3x
spacy
Spacy -- ImportError:preshed.maps 未导出预期的 C 函数 map_clear
我正在尝试导入spacy徒然 gt gt gt import spacy Traceback most recent call last File
python3x
import
conda
spacy
使用 Spacy 计算多个文档相似度的有效方法
我有大约 10k 文档 主要是 1 2 个句子 并且希望为每个文档找到 60k 文档集合中的 10 个最相似的文档 因此 我想使用spacy库 由于文档数量庞大 这需要高效 因此我的第一个想法是计算 60k 文档中的每一个以及 10k 文档
python
NLP
spacy
similarity
sentencesimilarity
如何在Spacy中为OOV术语指定词向量?
我有一个预训练的 word2vec 模型 我将其加载到spacy对新单词进行矢量化 给定我执行的新文本nlp hi vector获取单词 hi 的向量 最终 需要对一个新单词进行向量化 该新单词不存在于我的预训练模型的词汇表中 在这种情况下
python
Word2Vec
spacy
使用 spacy 从数据框中提取实体
I read contents from excel file using pandas import pandas as pd df pd read excel FAM template Update 1911274 JS xlsx df
python
pandas
spacy
如何编写 POS 正则表达式的 spacy 匹配器
Spacy 有两个我想结合的功能 词性 销售点 和基于规则的匹配 我怎样才能将它们巧妙地结合起来 例如 假设输入是一个句子 我想验证它是否满足某些 POS 排序条件 例如动词在名词之后 类似于名词 动词正则表达式 结果应该是 true 或
NLP
spacy
为什么 spaCy 不像斯坦福 CoreNLP 那样在标记化过程中保留单词内连字符?
SpaCy版本 2 0 11 Python版本 3 6 5 操作系统 Ubuntu 16 04 我的句子样本 Marketing Representative won t die in car accident or Out of box
python3x
NLP
spacy
Spacy:尝试设置冲突的文档:令牌只能是一个实体的一部分,因此请确保您设置的实体不重叠
我尝试使用 spacy 从文本中提取所需的自定义实体 import spacy from spacy lookup import Entity data 0 count 1 unique count unique def processTe
python
NLP
spacy
找不到模型“en_core_web_md”。它似乎不是快捷方式链接、Python 包或数据目录的有效路径
我已经安装了 spacy 并下载了 en core web sm pip 安装 spacy python m spacy 下载 en core web sm 也尝试过 pip3安装https github com explosion spa
python
python3x
Text
NLP
spacy
python中的子句提取/长句分割
我目前正在开展一个涉及句子向量的项目 来自 RoBERTa 预训练模型 当句子很长时 这些向量的质量较低 并且我的语料库包含许多带有子句的长句子 我一直在寻找子句提取 长句分割的方法 但令我惊讶的是 没有一个主要的 NLP 软件包 例如 s
python
NLP
stanfordnlp
spacy
bertlanguagemodel
如何使用 spacy/nltk 生成二元/三元组
输入文本始终是菜名列表 其中有 1 3 个形容词和一个名词 Inputs thai iced tea spicy fried chicken sweet chili pork thai chicken curry outputs thai
python
NLP
NLTK
NGram
spacy
是否可以将 spacy 与已标记化的输入一起使用?
我有一个已经被标记为单词的句子 我想获取句子中每个单词的词性标签 当我检查 SpaCy 中的文档时 我意识到它是从原始句子开始的 我不想这样做 因为在这种情况下 空间可能最终会得到不同的标记化 因此 我想知道是否可以将 spaCy 与单词列
python
NLP
spacy
是否可以更改 Spacy 分词器的分词规则?
默认情况下 德语 spacy 分词器不会按斜杠 下划线或星号进行拆分 这正是我所需要的 因此 der die 会生成单个标记 然而 它确实在括号上拆分 因此 dies und das 被拆分为 5 个标记 有没有一种 简单 方法告诉默认标记
python
regex
Token
tokenize
spacy
如何从 Spacy NER 模型获得每个实体的预测概率?
我用过这个官方示例代码使用我自己的训练样本从头开始训练 NER 模型 当我在新文本上使用此模型进行预测时 我想获得每个实体的预测概率 test the saved model print Loading from output dir nl
python
deeplearning
NLP
spacy
namedentityrecognition
在管道处理期间可以从 spaCy 文档中删除令牌吗?
我正在使用 spaCy 一个很棒的 Python NLP 库 来处理许多非常大的文档 但是 我的语料库中有一些我想在文档处理管道中消除的常见单词 有没有办法从管道组件内的文档中删除令牌 spaCy 的标记化是非破坏性的 因此它始终代表原始输
python
NLP
spacy
如何获取 Spacy 中的所有名词短语
我是新来的Spacy我想从句子中提取 所有 名词短语 我想知道我该怎么做 我有以下代码 import spacy nlp spacy load en file open E test txt r doc nlp file read for
python
NLP
spacy
是否可以在内存中保留空间以减少加载时间? [关闭]
Closed 这个问题需要细节或清晰度 目前不接受答案 我想使用 spacy 作为 NLP 来提供在线服务 每次用户发出请求时 我都会调用脚本 my script py 开头为 from spacy en import English nl
python
NLP
spacy
D3交互式可视化Python自然语言工具包命名实体识别
命名实体识别 NER 可能是信息提取的第一步 旨在将文本中的命名实体定位和分类为预定义的类别 例如人名 组织 位置 时间表达 数量 货币价值 百分比 等 NER 在自然语言处理 NLP 的许多领域都有使用 它可以帮助回答许多现实世界的问题
数据科学
python
自然语言处理
spacy
命名实体识别
使用 spacy 进行自然语言处理(一)
介绍 自然语言处理 NLP 是人工智能方向一个非常重要的研究领域 自然语言处理在很多智能应用中扮演着非常重要的角色 xff0c 例如 xff1a automated chat bots article summarizers multi l
spacy
进行自然语言处理
«
1
2
3
4
5
6
»