表格分类模块使用教程¶
一、概述¶
表格分类模块是计算机视觉系统中的关键组成部分,负责对输入的表格图像进行分类,该模块的性能直接影响到整个表格识别过程的准确性和效率。表格分类模块通常会接收表格图像作为输入,然后通过深度学习算法,根据图像的特性和内容,将其分类到预定义的类别中,例如有线表和无线表。表格分类模块的分类结果将作为输出,供表格识别相关产线使用。
二、支持模型列表¶
推理耗时仅包含模型推理耗时,不包含前后处理耗时。
| 模型 | 模型下载链接 | Top1 Acc(%) | GPU推理耗时(ms) [常规模式 / 高性能模式]  | 
CPU推理耗时(ms) [常规模式 / 高性能模式]  | 
模型存储大小(MB) | 
|---|---|---|---|---|---|
| PP-LCNet_x1_0_table_cls | 推理模型/训练模型 | 94.2 | 2.62 / 0.60 | 3.17 / 1.14 | 6.6 | 
测试环境说明:
- 性能测试环境
          
- 测试数据集:自建的内部评测数据集。
 - 硬件配置:
                  
- GPU:NVIDIA Tesla T4
 - CPU:Intel Xeon Gold 6271C @ 2.60GHz
 
 - 软件环境:
                  
- Ubuntu 20.04 / CUDA 11.8 / cuDNN 8.9 / TensorRT 8.6.1.6
 - paddlepaddle 3.0.0 / paddleocr 3.0.3
 
 
 - 推理模式说明
 
| 模式 | GPU配置 | CPU配置 | 加速技术组合 | 
|---|---|---|---|
| 常规模式 | FP32精度 / 无TRT加速 | FP32精度 / 8线程 | PaddleInference | 
| 高性能模式 | 选择先验精度类型和加速策略的最优组合 | FP32精度 / 8线程 | 选择先验最优后端(Paddle/OpenVINO/TRT等) | 
三、快速开始¶
❗ 在快速开始前,请先安装 PaddleOCR 的 wheel 包,详细请参考 安装教程。
使用一行命令即可快速体验:
paddleocr table_classification -i https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/table_recognition.jpg
注:PaddleOCR 官方模型默认从 HuggingFace 获取,如运行环境访问 HuggingFace 不便,可通过环境变量修改模型源为 BOS:PADDLE_PDX_MODEL_SOURCE="BOS",未来将支持更多主流模型源;
您也可以将表格分类的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。
from paddleocr import TableClassification
model = TableClassification(model_name="PP-LCNet_x1_0_table_cls")
output = model.predict("table_recognition.jpg", batch_size=1)
for res in output:
    res.print(json_format=False)
    res.save_to_json("./output/res.json")
运行后,得到的结果为:
{'res': {'input_path': 'table_recognition.jpg', 'page_index': None, 'class_ids': array([0, 1], dtype=int32), 'scores': array([0.84421, 0.15579], dtype=float32), 'label_names': ['wired_table', 'wireless_table']}}
运行结果参数含义如下:
- input_path:表示输入图片的路径
- page_index:如果输入是PDF文件,则表示当前是PDF的第几页,否则为 None
- class_ids:表示预测结果的类别id
- scores:表示预测结果的置信度
- label_names:表示预测结果的类别名
可视化图像如下:

相关方法、参数等说明如下:
TableClassification实例化表格分类模型(此处以PP-LCNet_x1_0_table_cls为例),具体说明如下:
| 参数 | 参数说明 | 参数类型 | 默认值 | 
|---|---|---|---|
model_name | 
模型名称。如果设置为None,则使用PP-LCNet_x1_0_table_cls。 | 
str|None | 
None | 
model_dir | 
模型存储路径。 | str|None | 
None | 
device | 
用于推理的设备。 例如: "cpu"、"gpu"、"npu"、"gpu:0"、"gpu:0,1"。如指定多个设备,将进行并行推理。 默认情况下,优先使用 GPU 0;若不可用则使用 CPU。  | 
str|None | 
None | 
enable_hpi | 
是否启用高性能推理。 | bool | 
False | 
use_tensorrt | 
是否启用 Paddle Inference 的 TensorRT 子图引擎。如果模型不支持通过 TensorRT 加速,即使设置了此标志,也不会使用加速。 对于 CUDA 11.8 版本的飞桨,兼容的 TensorRT 版本为 8.x(x>=6),建议安装 TensorRT 8.6.1.6。  | 
bool | 
False | 
precision | 
当使用 Paddle Inference 的 TensorRT 子图引擎时设置的计算精度。 可选项: "fp32"、"fp16"。 | 
str | 
"fp32" | 
enable_mkldnn | 
是否启用 MKL-DNN 加速推理。如果 MKL-DNN 不可用或模型不支持通过 MKL-DNN 加速,即使设置了此标志,也不会使用加速。 | 
bool | 
True | 
mkldnn_cache_capacity | 
MKL-DNN 缓存容量。 | int | 
10 | 
cpu_threads | 
在 CPU 上推理时使用的线程数量。 | int | 
10 | 
- 调用表格分类模型的 
predict()方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了predict_iter()方法。两者在参数接受和结果返回方面是完全一致的,区别在于predict_iter()返回的是一个generator,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。predict()方法参数有input和batch_size,具体说明如下: 
| 参数 | 参数说明 | 参数类型 | 默认值 | 
|---|---|---|---|
input | 
待预测数据,支持多种输入类型,必填。
  | 
Python Var|str|list | 
|
batch_size | 
批大小,可设置为任意正整数。 | int | 
1 | 
- 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为
json文件的操作: 
| 方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 | 
|---|---|---|---|---|---|
print() | 
打印结果到终端 | format_json | 
bool | 
是否对输出内容进行使用 JSON 缩进格式化 | 
True | 
indent | 
int | 
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 | 
4 | ||
ensure_ascii | 
bool | 
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 | 
False | 
||
save_to_json() | 
将结果保存为json格式的文件 | save_path | 
str | 
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 | 
indent | 
int | 
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 | 
4 | ||
ensure_ascii | 
bool | 
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 | 
False | 
- 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
 
| 属性 | 属性说明 | 
|---|---|
json | 
获取预测的json格式的结果 | 
img | 
获取可视化图像 | 
四、二次开发¶
由于 PaddleOCR 并不直接提供表格分类模块的训练,因此,如果需要训练表格分类模型,可以参考 PaddleX 表格分类模块二次开发部分进行训练。训练后的模型可以无缝集成到 PaddleOCR 的 API 中进行推理。