我想使用 pyspark 从 Hadoop 文件系统读取 DOCX/PDF 文件,目前我正在使用 pandas API。但在 pandas 中我们有一些限制,我们只能读取 CSV、JSON、XLSX 和 HDF5。它不支持任何其他格式。
目前我的代码是:
import pandas as pd
from pyspark import SparkContext, SparkConf
from hdfs import InsecureClient
conf = SparkConf().setAppName("Random")
sc = SparkContext(conf = conf)
client_hdfs = InsecureClient('http://192.00.00.30:50070')
with client_hdfs.read('/user/user.name/sample.csv', encoding = 'utf-8') as reader:
df = pd.read_csv(reader,index_col=0)
print df
我可以使用上面的代码读取 CSV,还有其他 API 可以解决 DOC/PDF 的这个问题吗?
None
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)