THUCTC

提供者:李华勇

地址:http://thuctc.thunlp.org/

简介

THUCTC(THU Chinese Text Classification)是由清华大学自然语言处理实验室推出的中文文本分类工具包,能够自动高效地实现用户自定义的文本分类语料的训练、评测、分类功能。

文本分类通常包括特征选取、特征降维、分类模型学习三个步骤。

如何选取合适的文本特征并进行降维,是中文文本分类的挑战性问题。我组根据多年在中文文本分类的研究经验,在THUCTC中选取二字串bigram作为特征单元,特征降维方法为Chi-square,权重计算方法为tfidf,分类模型使用的是LibSVM或LibLinear。

THUCTC对于开放领域的长文本具有良好的普适性,不依赖于任何中文分词工具的性能,具有准确率高、测试速度快的优点。

使用方法

我们提供了两种方式运行工具包:

  1. 使用java开发工具,例如eclipse,将包括lib\THUCTC_java_v1.jar在内的lib文件夹下的包导入自己的工程中,仿照Demo.java程序调用函数即可。

  2. 使用根目录下的THUCTC_java_v1_run.jar运行工具包。

    使用命令 java -jar THUCTC_java_v1_run.jar + 程序参数

运行参数

  • [-c CATEGORY_LIST_FILE_PATH] 从文件中读入类别信息。该文件中每行包含且仅包含一个类别名称。
  • [-train TRAIN_PATH] 进行训练,并设置训练语料文件夹路径。该文件夹下每个子文件夹的名称都对应一个类别名称,内含属于该类别的训练语料。若不设置,则不进行训练。
  • [-test EVAL_PATH] 进行评测,并设置评测语料文件夹路径。该文件夹下每个子文件夹的名称都对应一个类别名称,内含属于该类别的评测语料。若不设置,则不进行评测。也可以使用-eval。
  • [-classify FILE_PATH] 对一个文件进行分类。
  • [-n topN] 设置返回候选分类数,按得分大小排序。默认为1,即只返回最可能的分类。
  • [-svm libsvm or liblinear] 选择使用libsvm还是liblinear进行训练和测试,默认使用liblinear。
  • [-l LOAD_MODEL_PATH] 设置读取模型路径。
  • [-s SAVE_MODEL_PATH] 设置保存模型路径。
  • [-f FEATURE_SIZE] 设置保留特征数目,默认为5000。
  • [-d1 RATIO] 设置训练集占总文件数比例,默认为0.8。
  • [-d2 RATIO] 设置测试集占总文件数比例,默认为0.2。
  • [-e ENCODING] 设置训练及测试文件编码,默认为UTF-8。
  • [-filter SUFFIX] 设置文件后缀过滤。例如设置“-filter .txt”,则训练和测试时仅考虑文件名后缀为.txt的文件。

    样例程序

    我们随工具包提供了一个调用THUCTC的样例代码Demo.java,其中实现了三种功能:
  1. 对文本进行训练并测试(runTrainAndTest);
  2. 读取已经训练好的模型,对文件进行分类(runLoadModelAndUse);
  3. 按照自己的想法添加训练文件,训练模型(AddFilesManuallyAndTrain);

相关论文

  • Jingyang Li, Maosong Sun. Scalable Term Selection for Text Categorization. Proc. of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), Prague, Czech Republic, 2007, pp. 774-782.

  • Jingyang Li, Maosong Sun, Xian Zhang. A Comparison and Semi-Quantitative Analysis of Words and Character-Bigrams as Features in Chinese Text Categorization. Proc. of the 2006 Joint Conference of the International Committee on Computational Linguistics and the Association for Computational Linguistics (COLING-ACL 2006), Sydney, Australia, 2006, pp. 545-552.