- 2025年06月03日
- 星期二

我有一个1600000推文的训练数据集.我该如何训练这类巨大的数据. 我尝试过使用nltk.NaiveBayesClassifier.如果我跑步,训练需要5天以上. def extract_features(tweet): tweet_words = set(tweet) features = {} for word in featureList: fea

我正在访问一个非常大的Pandas数据帧作为全局变量.通过 joblib并行访问此变量. 例如. df = db.query(select id, a_lot_of_data from table)def process(id): temp_df = df.loc[id] temp_df.apply(another_function)Parallel(n_jobs=8)