光学字符识别(OCR)将文本图像(扫描件、智能手机照片、PDF)转换为机器可读的字符串,并越来越多地转换为 结构化数据。现代 OCR 是一个清理图像、查找文本、读取文本并导出丰富元数据的管道, 以便下游系统可以搜索、索引或提取字段。两个广泛使用的输出标准是 hOCR,一种用于文本和布局的 HTML 微格式,以及 ALTO XML,一种面向图书馆/档案馆的模式;两者都保留位置、阅读顺序和其他布局提示,并受 流行引擎(如 Tesseract)支持。
预处理。 OCR 质量始于图像清理:灰度转换、去噪、 阈值处理(二值化)和偏斜校正。经典的 OpenCV 教程涵盖了全局、 自适应 和 Otsu 阈值处理——适用于光照不均匀或双峰直方图的文档。当页面内的光照发生变化时 (例如手机快照),自适应方法通常优于单个全局阈值;Otsu 通过分析直方图自动选择阈值。倾斜校正同样重要:基于霍夫变换的 偏斜校正(霍夫线变换)与 Otsu 二值化相结合,是生产预处理管道中常用且有效的方案。
检测与识别。 OCR 通常分为文本检测(文本在 哪里?)和文本识别(它说了什么?)。在自然场景和许多扫描中,全卷积 检测器(如 EAST )可以有效地预测单词或行级四边形,而无需繁重的提议阶段,并且已在 常见工具包(例如 OpenCV 的文本检测教程)中实现。在复杂的页面(报纸、表格、书籍)上,行/区域的分割和阅读顺序推断很重要:Kraken 实现了传统的区域/行分割和神经基线分割,并明确支持 不同的脚本和方向(LTR/RTL/垂直)。
识别模型。 经典的开源主力 Tesseract (由 Google 开源,源于 HP)从字符分类器演变为基于 LSTM 的序列 识别器,可以从 CLI 发出可搜索的 PDF、 hOCR/ALTO 友好输出等。现代识别器依赖于序列建模,而无需预先分割字符。 连接主义时间分类 (CTC) 仍然是基础,它学习输入特征序列和输出标签字符串之间的对齐;它广泛 用于手写和场景文本管道。
在过去几年中,Transformer 重塑了 OCR。 TrOCR 使用视觉 Transformer 编码器和文本 Transformer 解码器,在大型合成语料库上进行训练,然后 在真实数据上进行微调,在印刷、手写和场景文本基准测试中表现出色(另请参阅 Hugging Face 文档)。与此同时,一些系统绕过 OCR 进行下游理解: Donut(文档理解 Transformer) 是一种无 OCR 的编码器-解码器,可直接从文档 图像输出结构化答案(如键值 JSON)(仓库, 模型卡),避免了在单独的 OCR 步骤为 IE 系统提供数据时出现错误累积。
如果您想要跨多种脚本的“开箱即用”文本阅读, EasyOCR 提供了一个包含 80 多种语言模型的简单 API,可返回框、文本和置信度——方便用于原型和 非拉丁脚本。对于历史文献, Kraken 以基线分割和脚本感知阅读顺序而著称;对于灵活的行级训练, Calamari 建立 在 Ocropy 的基础上(Ocropy),带有(多)LSTM+CTC 识别器和用于微调自定义模型的 CLI。
泛化取决于数据。对于手写, IAM 手写数据库 为训练和评估提供了不同作者的英语句子;它是 行和单词识别的长期参考集。对于场景文本, COCO-Text 在 MS-COCO 上分层了广泛的注释,带有印刷/手写、清晰/不清晰、脚本和 完整转录的标签(另请参阅原始 项目页面)。该领域还严重依赖合成预训练: 野外合成文本 将文本渲染到具有逼真几何和光照的照片中,为预训练 检测器和识别器提供大量数据(参考 代码和数据)。
ICDAR 的鲁棒阅读 下的竞赛使评估保持接地气。最近的任务强调端到端检测/阅读,并包括将单词 链接成短语,官方代码报告 精确率/召回率/F-score、交并比 (IoU) 和字符级编辑距离度量——反映了从业者应该跟踪的内容。
OCR 很少以纯文本结尾。档案馆和数字图书馆更喜欢 ALTO XML ,因为它 除了内容之外还编码了物理布局(带坐标的块/行/字),并且它与 METS 打包配合得很好。 hOCR 微格式则相反,它使用 ocr_line 和 ocrx_word 等类将相同的思想嵌入到 HTML/CSS 中,从而可以轻松地使用 Web 工具进行显示、编辑和转换。Tesseract 两者都支持——例如, 直接从 CLI 生成 hOCR 或可搜索的 PDF(PDF 输出指南);像 pytesseract 这样的 Python 包装器增加了便利性。当存储库具有固定的接收 标准时,存在用于在 hOCR 和 ALTO 之间进行转换的转换器——请参阅此精选列表 OCR 文件格式工具。
最强劲的趋势是融合:检测、识别、语言建模,甚至特定于任务的解码 正在合并到统一的 Transformer 堆栈中。在 大型合成语料库 上进行预训练仍然是一个力量倍增器。无 OCR 模型将在目标是结构化输出 而不是逐字记录的任何地方积极竞争。也期待混合部署:一个轻量级检测器加上一个 TrOCR 风格的 识别器用于长格式文本,以及一个 Donut 风格的模型用于表格和收据。
Tesseract (GitHub) · Tesseract 文档 · hOCR 规范 · ALTO 背景 · EAST 检测器 · OpenCV 文本检测 · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM 手写 · OCR 文件格式工具 · EasyOCR
光学字符识别(OCR)是一种技术,用于将不同类型的文档,如扫描的纸质文档、PDF文件或由数字相机拍摄的图像,转换为可编辑和可搜索的数据。
OCR通过扫描输入的图像或文档,将图像分割成单个字符,然后将每个字符与使用模式识别或特征识别的字符形状数据库进行比较。
OCR用于各种行业和应用中,包括数字化打印文档、启用文字到语音服务、自动化数据录入过程、以及帮助视障用户更好地与文本交互。
尽管OCR技术 已取得了巨大的进步,但它并不是绝对可靠的。根据原始文档的质量和所使用的OCR软件的具体情况,其准确性可能会有所不同。
虽然OCR主要用于识别打印的文本,但一些先进的OCR系统也能识别清晰、一致的手写字。然而,由于个人写作风格的巨大差异,手写字体识别通常准确率较低。
是的,许多OCR软件系统可以识别多种语言。然而,需要确保你正在使用的软件支持特定的语言。
OCR是Optical Character Recognition的缩写,用于识别打印的文本,而ICR,或称Intelligent Character Recognition,更先进,用于识别手写的文本。
OCR最适合处理清晰、易于阅读的字体和标准的文字大小。虽然它可以处理各种字体和大小,但是当处理不常见的字体或非常小的文字大小时,准确性可能会下降。
OCR可能会出现问题,如处理低分辨率的文档,复杂的字体,打印质量差的文本,手写文本,以及含有干扰文本的背景的文档。另外,尽管它可以处理多种语言,但可能并不能完美地覆盖所有语言。
是的,OCR可以扫描彩色的文本和背景,虽然它通常对高对比度的颜色组合更有效,比如黑色的文本和白色的背景。当文本和背景颜色对比度不足时,其准确性可能会降低。
J2C 图像格式,也称为 JPEG 2000 代码流,是 JPEG 2000 标准套件的一部分。JPEG 2000 本身是一种图像压缩标准和编码系统,由联合图像专家组委员会创建,目的是取代原始 JPEG 标准。JPEG 2000 标准的建立旨在提供一个新的图像编码系统,具有较高的灵活性,并且比 JPEG 具有更好的性能。它旨在解决 JPEG 格式的一些局限性,例如在低比特率下的性能不佳和缺乏可扩展性。
JPEG 2000 使用小波变换,而不是原始 JPEG 标准中使用的离散余弦变换 (DCT)。小波变换允许更高的可扩展性,并且能够执行无损压缩,这意味着可以从压缩数据中完美地重建原始图像。这比原始 JPEG 的有损压缩有显着优势,后者在压缩过程中永久丢失了一些图像信息。
J2C 文件格式专门指 JPEG 2000 的代码流。此代码流是实际编码的图像数据,可以嵌入到各种容器格式中,例如 JP2(JPEG 2000 第 1 部分文件格式)、JPX(JPEG 2000 第 2 部分,扩展文件格式)和 MJ2(用于视频的 Motion JPEG 2000 文件格式)。J2C 格式本质上是原始编码的图像数据,没有任何容器格式可能提供的附加元数据或结构。
J2C 格式的一个关键特性是在同一文件中支持无损和有损压缩。这是通过使用可逆小波变换进行无损压缩和不可逆小波变换进行有损压缩来实现的。可以在图像中逐块选择无损和有损压缩,从而根据内容的重要性混合高质量和低质量区域。
J2C 格式还具有高度可扩展性,支持称为“渐进解码”的 功能。这意味着可以先解码和显示图像的低分辨率版本,然后随着接收或处理更多图像数据,再显示更高分辨率的连续层。这对于带宽可能受限的网络应用程序特别有用,因为它允许快速预览图像,同时仍在下载完整的高分辨率图像。
J2C 格式的另一个重要方面是它支持感兴趣区域 (ROI)。使用 ROI 编码,可以将图像的某些部分以高于图像其余部分的质量进行编码。当图像的某些区域更重要并且需要以更高的保真度保留时,这很有用,例如人像中的面部或文档中的文本。
J2C 格式还包括复杂错误恢复功能,使其在传输过程中对数据丢失更具鲁棒性。这是通过使用错误校正码和以允许恢复丢失数据包的方式构建代码流来实现的。这使得 J2C 成为通过不可靠网络传输图像或以最大程度减少潜在数据损坏影响的方式存储图像的良好选择。
J2C 中的色彩空间处理也比原始 JPEG 中的更高级。该格式支持广泛的色彩空间,包括灰度、RGB、YCbCr 等。它还允许在同一图像的不同块中使用不同的色彩空间,从而在图像的编码和表示方式上提供了额外的灵活性。
J2C 格式的压缩效率是其另一个优势。通过使用小波变换和高级熵编码技术(例如算术编码),J2C 可以实现比原始 JPEG 更高的压缩率,尤其是在较低比特率下。这使其成为存储空间或带宽至关重要的应用程序(例如移动设备或 Web 应用程序)的理想选择。
尽管有许多优点,但与原始 JPEG 格式相比,J2C 格式尚未得到广泛采用。这部分归因于 JPEG 2000 标准的复杂性更高,它需要更多的计算资源来编码和解码图像。此外,原始 JPEG 格式已深深植根于许多系统,并且拥有庞大的软件和硬件支持生态系统,这使得新标准难以立足。
然而,在某些专业领域,J2C 格式由于其特定功能 而成为首选。例如,在医学成像中,执行无损压缩的能力以及对高动态范围和高位深图像的支持使 J2C 成为理想的格式。类似地,在数字电影和视频存档中,该格式在高压缩率下的高质量及其可扩展性功能非常有价值。
J2C 图像的编码过程涉及几个步骤。首先,图像被分成块,可以独立处理。这种平铺允许并行处理,并且可以提高编码和解码过程的效率。然后使用可逆或不可逆小波变换对每个块进行变换,具体取决于是否需要无损或有损压缩。
小波变换后,对系数进行量化,这涉及降低小波系数的精度。在无损压缩中,跳过此步骤,因为量化会引入错误。然后使用算术编码对量化系数进行熵编码,这通过利用图像内容的统计特性来减小数据大小。
编码过程的最后一步是组装代码流。每个块的熵编码数据与描述图像及其编码方式的头信息相结合。这包括有关图像大小、块数、使用的小波变换、量化参数和任何其他相关数据的信息。生成的代码流可以存储在 J2C 文件中或嵌入到容器格式中。
解码 J2C 图像本质上涉及逆转编码过程。解析代码流以提取头信息和每个块的熵编码数据。然后对熵编码数据进行解码以恢复量化的小波系数。如果使用有损压缩压缩图像,则对系数进行反量化以近似其原始值。应用逆小波变换从波系数重建图像,并将块拼接在一起形成最终图像。
总之,J2C 图像格式是一个强大且灵活的图像编码系统,与原始 JPEG 格式相比具有多项优势,包括更好的压缩效率、可扩展性以及执行无损压缩的能力。虽然它尚未达到与 JPEG 相同的普及程度,但它非常适合需要高质量图像或具有特定技术要求的应用程序。随着技术的不断进步和对更复杂图像编码系统需求的增长,J2C 格式可能会在各个领域得到更广泛的采用。
这个转换器完全在您的浏览器中运行。当您选择一个文件时,它将被读入内存并转换为所选格式。 然后,您可以下载转换后的文件。