光学字符识别(OCR)将文本图像(扫描件、智能手机照片、PDF)转换为机器可读的字符串,并越来越多地转换为 结构化数据。现代 OCR 是一个清理图像、查找文本、读取文本并导出丰富元数据的管道, 以便下游系统可以搜索、索引或提取字段。两个广泛使用的输出标准是 hOCR,一种用于文本和布局的 HTML 微格式,以及 ALTO XML,一种面向图书馆/档案馆的模式;两者都保留位置、阅读顺序和其他布局提示,并受 流行引擎(如 Tesseract)支持。
预处理。 OCR 质量始于图像清理:灰度转换、去噪、 阈值处理(二值化)和偏斜校正。经典的 OpenCV 教程涵盖了全局、 自适应 和 Otsu 阈值处理——适用于光照不均匀或双峰直方图的文档。当页面内的光照发生变化时 (例如手机快照),自适应方法通常优于单个全局阈值;Otsu 通过分析直方图自动选择阈值。倾斜校正同样重要:基于霍夫变换的 偏斜校正(霍夫线变换)与 Otsu 二值化相结合,是生产预处理管道中常用且有效的方案。
检测与识别。 OCR 通常分为文本检测(文本在 哪里?)和文本识别(它说了什么?)。在自然场景和许多扫描中,全卷积 检测器(如 EAST )可以有效地预测单词或行级四边形,而无需繁重的提议阶段,并且已在 常见工具包(例如 OpenCV 的文本检测教程)中实现。在复杂的页面(报纸、表格、书籍)上,行/区域的分割和阅读顺序推断很重要:Kraken 实现了传统的区域/行分割和神经基线分割,并明确支持 不同的脚本和方向(LTR/RTL/垂直)。
识别模型。 经典的开源主力 Tesseract (由 Google 开源,源于 HP)从字符分类器演变为基于 LSTM 的序列 识别器,可以从 CLI 发出可搜索的 PDF、 hOCR/ALTO 友好输出等。现代识别器依赖于序列建模,而无需预先分割字符。 连接主义时间分类 (CTC) 仍然是基础,它学习输入特征序列和输出标签字符串之间的对齐;它广泛 用于手写和场景文本管道。
在过去几年中,Transformer 重塑了 OCR。 TrOCR 使用视觉 Transformer 编码器和文本 Transformer 解码器,在大型合成语料库上进行训练,然后 在真实数据上进行微调,在印刷、手写和场景文本基准测试中表现出色(另请参阅 Hugging Face 文档)。与此同时,一些系统绕过 OCR 进行下游理解: Donut(文档理解 Transformer) 是一种无 OCR 的编码器-解码器,可直接从文档 图像输出结构化答案(如键值 JSON)(仓库, 模型卡),避免了在单独的 OCR 步骤为 IE 系统提供数据时出现错误累积。
如果您想要跨多种脚本的“开箱即用”文本阅读, EasyOCR 提供了一个包含 80 多种语言模型的简单 API,可返回框、文本和置信度——方便用于原型和 非拉丁脚本。对于历史文献, Kraken 以基线分割和脚本感知阅读顺序而著称;对于灵活的行级训练, Calamari 建立 在 Ocropy 的基础上(Ocropy),带有(多)LSTM+CTC 识别器和用于微调自定义模型的 CLI。
泛化取决于数据。对于手写, IAM 手写数据库 为训练和评估提供了不同作者的英语句子;它是 行和单词识别的长期参考集。对于场景文本, COCO-Text 在 MS-COCO 上分层了广泛的注释,带有印刷/手写、清晰/不清晰、脚本和 完整转录的标签(另请参阅原始 项目页面)。该领域还严重依赖合成预训练: 野外合成文本 将文本渲染到具有逼真几何和光照的照片中,为预训练 检测器和识别器提供大量数据(参考 代码和数据)。
ICDAR 的鲁棒阅读 下的竞赛使评估保持接地气。最近的任务强调端到端检测/阅读,并包括将单词 链接成短语,官方代码报告 精确率/召回率/F-score、交并比 (IoU) 和字符级编辑距离度量——反映了从业者应该跟踪的内容。
OCR 很少以纯文本结尾。档案馆和数字图书馆更喜欢 ALTO XML ,因为它 除了内容之外还编码了物理布局(带坐标的块/行/字),并且它与 METS 打包配合得很好。 hOCR 微格式则相反,它使用 ocr_line 和 ocrx_word 等类将相同的思想嵌入到 HTML/CSS 中,从而可以轻松地使用 Web 工具进行显示、编辑和转换。Tesseract 两者都支持——例如, 直接从 CLI 生成 hOCR 或可搜索的 PDF(PDF 输出指南);像 pytesseract 这样的 Python 包装器增加了便利性。当存储库具有固定的接收 标准时,存在用于在 hOCR 和 ALTO 之间进行转换的转换器——请参阅此精选列表 OCR 文件格式工具。
最强劲的趋势是融合:检测、识别、语言建模,甚至特定于任务的解码 正在合并到统一的 Transformer 堆栈中。在 大型合成语料库 上进行预训练仍然是一个力量倍增器。无 OCR 模型将在目标是结构化输出 而不是逐字记录的任何地方积极竞争。也期待混合部署:一个轻量级检测器加上一个 TrOCR 风格的 识别器用于长格式文本,以及一个 Donut 风格的模型用于表格和收据。
Tesseract (GitHub) · Tesseract 文档 · hOCR 规范 · ALTO 背景 · EAST 检测器 · OpenCV 文本检测 · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM 手写 · OCR 文件格式工具 · EasyOCR
光学字符识别(OCR)是一种技术,用于将不同类型的文档,如扫描的纸质文档、PDF文件或由数字相机拍摄的图像,转换为可编辑和可搜索的数据。
OCR通过扫描输入的图像或文档,将图像分割成单个字符,然后将每个字符与使用模式识别或特征识别的字符形状数据库进行比较。
OCR用于各种行业和应用中,包括数字化打印文档、启用文字到语音服务、自动化数据录入过程、以及帮助视障用户更好地与文本交互。
尽管OCR技术 已取得了巨大的进步,但它并不是绝对可靠的。根据原始文档的质量和所使用的OCR软件的具体情况,其准确性可能会有所不同。
虽然OCR主要用于识别打印的文本,但一些先进的OCR系统也能识别清晰、一致的手写字。然而,由于个人写作风格的巨大差异,手写字体识别通常准确率较低。
是的,许多OCR软件系统可以识别多种语言。然而,需要确保你正在使用的软件支持特定的语言。
OCR是Optical Character Recognition的缩写,用于识别打印的文本,而ICR,或称Intelligent Character Recognition,更先进,用于识别手写的文本。
OCR最适合处理清晰、易于阅读的字体和标准的文字大小。虽然它可以处理各种字体和大小,但是当处理不常见的字体或非常小的文字大小时,准确性可能会下降。
OCR可能会出现问题,如处理低分辨率的文档,复杂的字体,打印质量差的文本,手写文本,以及含有干扰文本的背景的文档。另外,尽管它可以处理多种语言,但可能并不能完美地覆盖所有语言。
是的,OCR可以扫描彩色的文本和背景,虽然它通常对高对比度的颜色组合更有效,比如黑色的文本和白色的背景。当文本和背景颜色对比度不足时,其准确性可能会降低。
JPEG 2000,通常称为 J2K,是联合图像专家组委员会在 2000 年创建的图像压缩标准和编码系统,目的是取代原始 JPEG 标准。它的开发是为了解决原始 JPEG 标准的一些局限性,并提供一套新的功能,这些功能越来越受到各种应用程序的需求。JPEG 2000 不仅仅是一个标准,而是一套标准,涵盖在 JPEG 2000 系列(ISO/IEC 15444)之下。
JPEG 2000 相对于原始 JPEG 格式的主要优势之一是它使用小波变换而不是离散余弦变换 (DCT)。小波变换允许更高的压缩比,而不会出现 JPEG 图像中可能存在的相同程度的可见伪影。这对于高分辨率和高质量的图像应用程序特别有益,例如卫星图像、医学成像、数字电影和归档存储,其中图像质量至关重要。
JPEG 2000 在单个压缩架构内支持无损和有损压缩。通过使用可逆小波变换来实现无损压缩,这确保了可以从压缩图像中完美地重建原始图像数据。另一方面,有损压缩使用不可逆小波变换来实现更高的压缩比,方法是丢弃图像中一些不太重要的信息。
JPEG 2000 的另一个重要功能是对渐进图像传输的支持,也称为渐进解码。这意味着可以以较低的分辨率解码和显示图像,并随着更多数据的可用而逐渐增加到全分辨率。这对于带宽受限的应用程序特别有用,例如网络浏览或移动应用程序,其中快速显示图像的低质量版本并随着接收更多数据而提高质量是有益的。
JPEG 2000 还引入了感兴趣区域 (ROI) 的概念。这允许图像的不同部分以不同的质量级别进行压缩。例如,在医学成像场景中,包含诊断特征的区域可以无损压缩或以高于周围区域的质量进行压缩。这种选择性质量控制在图像的某些部分比其他部分更重要的领域中非常重要。
JPEG 2000 图像的文件格式是 JP2,这是一种标准化且可扩展的格式,包括图像数据和元数据。JP2 格式使用 .jp2 文件扩展名,可以包含广泛的信息,包括色彩空间信息、分辨率级别和知识产权信息。此外,JPEG 2000 支持 JPM 格式(用于复合图像,例如同时包含文本和图片的文档)和 MJ2 格式(用于运动序列,类似于视频文件)。
JPEG 2000 采用了一种称为 EBCOT(带最佳截断的嵌入式块编码)的复杂编码方案。EBCOT 提供了多种优势,包括改进的错误恢复能力以及微调压缩以实现图像质量和文件大小之间所需平衡的能力。EBCOT 算法将图像分成称为代码块的小块,并独立编码每个块。这允许在数据损坏的情况下进行局部错误控制,并促进图像的渐进传输。
JPEG 2000 中的色彩空间处理比原始 JPEG 标准更灵活。JPEG 2000 支持广泛的色彩空间,包括灰度、RGB、YCbCr 等,以及各种位深度,从二进制图像到每个分量 16 位或更高。这种灵活性使 JPEG 2000 适用于各种应用程序,并确保它可以满足不同成像技术的需求。
JPEG 2000 还包括强大的安全功能,例如在文件中包含加密和数字水印的能力。这对于版权保护或内容认证受关注的应用程序尤为重要。标准的 JPSEC(JPEG 2000 安全)部分概述了这些安全功能,为安全图像分发提供了一个框架。
JPEG 2000 的一个挑战是它在计算上比原始 JPEG 标准更密集。小波变换和 EBCOT 编码方案的复杂性意味着编码和解码 JPEG 2000 图像需要更多的处理能力。从历史上看,这限制了它在消费电子产品和网 络应用程序中的采用,其中计算开销可能是一个重要因素。然而,随着处理能力的提高和专用硬件支持变得越来越普遍,这一限制已不再是一个问题。
尽管有这些优势,但与原始 JPEG 格式相比,JPEG 2000 并未得到广泛采用。这部分归因于 JPEG 格式的普遍性和支持它的庞大软件和硬件生态系统。此外,围绕 JPEG 2000 的许可和专利问题也阻碍了它的采用。JPEG 2000 中使用的一些技术已获得专利,管理这些专利的许可证需求使一些开发人员和企业对其吸引力降低。
在文件大小方面,JPEG 2000 文件通常比同等质量的 JPEG 文件小。这是因为 JPEG 2000 中使用了更有效的压缩算法,它可以更有效地减少图像数据中的冗余和无关性。但是,文件大小的差异可能会根据图像的内容和用于压缩的设置而有所不同。对于具有大量精细细节或高噪声级别的图像,JPEG 2000 的卓越压缩可能会产生明显更小的文件。
JPEG 2000 还支持平铺,它将图像分成较小的、独立编码的平铺。这对于非常大的图像(例如用于卫星成像或制图应用程序的图像)很有用,因为它允许更有效地对图像进行编码、解码和处理。用户可以访问和解码单个平铺,而无需处理整个图像,这可以节省内存和处理需求。
JPEG 2000 的标准化还包括元数据处理的规定,这是归档和检索系统的一个重要方面。JPX 格式是 JP2 的扩展,允许包含扩展的元数据,包括 XML 和 UUID 框,这些框可以存储任何类型的元数据信息。这使得 JPEG 2000 成为元数据保存很重要的应用程序(例如数字图书馆和博物馆)的良好选择。
总之,JPEG 2000 是一种复杂图像压缩标准,与原始 JPEG 格式相比具有许多优势,包括更高的压缩比、渐进解码、感兴趣区域和强大的安全功能。它在色彩空间和位深度方面的灵活性以及对元数据的支持使其适用于广泛的专业应用程序。然而,它的计算复杂性和最初的专利问题限制了它的广泛采用。尽管如此,JPEG 2000 仍然是图像质量和功能集比计算效率或广泛兼容性更重要的行业的首选格式。
这个转换器完全在您的浏览器中运行。当您选择一个文件时,它将被读入内存并转换为所选格式。 然后,您可以下载转换后的文件。
转换立即开始,大多数文件在一秒钟内完成转换。较大的文件可能需要更长时间。
您的文件永远不会上传到我们的服务器。它们在您的浏览器中转换,然后下载转换后的文件。我们永远看不到您的文件。
我们支持在所有图像格式之间进行转换,包括 JPEG、PNG、GIF、WebP、SVG、BMP、TIFF 等等。
这个转换器完全免费,并将永远免费。因为它在您的浏览器中运行,所以我们不需要为服务器付费,因此我们不需要向您收费。
是的!您可以同时转换尽可能多的文件。只需在添加时选择多个文件即可。