我正在对推文进行内容分析。我使用 tweepy 返回与某些术语匹配的推文,然后将 N 条推文写入 CSv 文件进行分析。创建文件和获取数据不是问题,但我想减少数据收集时间。目前我正在迭代文件中的术语列表。一旦达到 N(例如 500 条推文),它将移至下一个过滤项。
我想将所有术语(少于 400 个)输入到一个变量中,并匹配所有结果。这也有效。我无法得到的是来自 Twitter 的关于状态中匹配的术语的返回值。
class CustomStreamListener(tweepy.StreamListener):
def __init__(self, output_file, api=None):
super(CustomStreamListener, self).__init__()
self.num_tweets = 0
self.output_file = output_file
def on_status(self, status):
cleaned = status.text.replace('\'','').replace('&','').replace('>','').replace(',','').replace("\n",'')
self.num_tweets = self.num_tweets + 1
if self.num_tweets < 500:
self.output_file.write(topicName + ',' + status.user.location.encode("UTF-8") + ',' + cleaned.encode("UTF-8") + "\n")
print ("capturing tweet number " + str(self.num_tweets) + " for search term: " + topicName)
return True
else:
return False
sys.exit("terminating")
def on_error(self, status_code):
print >> sys.stderr, 'Encountered error with status code:', status_code
return True # Don't kill the stream
def on_timeout(self):
print >> sys.stderr, 'Timeout...'
return True #Don't kill the stream
with open('termList.txt', 'r') as f:
topics = [line.strip() for line in f]
for topicName in topics:
stamp = datetime.datetime.now().strftime(topicName + '-%Y-%m-%d-%H%M%S')
with open(stamp + '.csv', 'w+') as topicFile:
sapi = tweepy.streaming.Stream(auth, CustomStreamListener(topicFile))
sapi.filter(track=[topicName])
具体来说我的问题是这样的。如果 track 变量有多个条目,如何获得匹配的内容?我还要声明我对 python 和 tweepy 比较陌生。
预先感谢您的任何建议和帮助!