Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
r中如何将列表转换为语料库?
In this question我问如何分割一个巨大的数据框来创建一个语料库 感谢答案 我能够从数据帧创建一个列表 我的问题仍然是从我创建的列表中获取语料库为了进行一些文本挖掘并根据搜索词对数据进行聚类 为了解决这个问题 我只是将 tm 包
r
list
corpus
如何仅选择语料库术语的子集以在 tm 中创建 TermDocumentMatrix
我有一个巨大的语料库 我只对我预先知道的少数术语的出现感兴趣 有没有办法使用以下方法从语料库创建术语文档矩阵tm包 其中只使用和包含我预先指定的术语 我知道我可以对语料库的结果 TermDocumentMatrix 进行子集化 但由于内存大
r
tm
corpus
termdocumentmatrix
NLP:构建(小型)语料库,或者“哪里可以获得大量不太专业的英语文本文件?”
有人建议在哪里可以找到用于小型语料库的日常英语文本档案或集合吗 我一直在使用古腾堡项目书籍作为工作原型 并希望融入更多现代语言 A最近的回答这里间接指出了一个伟大的Usenet 电影评论档案 这是我没想到的 而且非常好 对于这个特定的程序
NLP
linguistics
corpus
R tm removeWords函数不删除单词
我试图从我构建的语料库中删除一些单词 但它似乎不起作用 我首先遍历所有内容并创建一个数据框 按频率顺序列出我的单词 我使用此列表来识别我不感兴趣的单词 然后尝试创建一个删除单词的新列表 但是 这些词仍然保留在我的数据集中 我想知道我做错了什
r
Text
textmining
tm
corpus
«
1
2