光学字符识别(OCR)将文本图像(扫描件、智能手机照片、PDF)转换为机器可读的字符串,并越来越多地转换为 结构化数据。现代 OCR 是一个清理图像、查找文本、读取文本并导出丰富元数据的管道, 以便下游系统可以搜索、索引或提取字段。两个广泛使用的输出标准是 hOCR,一种用于文本和布局的 HTML 微格式,以及 ALTO XML,一种面向图书馆/档案馆的模式;两者都保留位置、阅读顺序和其他布局提示,并受 流行引擎(如 Tesseract)支持。
预处理。 OCR 质量始于图像清理:灰度转换、去噪、 阈值处理(二值化)和偏斜校正。经典的 OpenCV 教程涵盖了全局、 自适应 和 Otsu 阈值处理——适用于光照不均匀或 双峰直方图的文档。当页面内的光照发生变化时 (例如手机快照),自适应方法通常优于单个全局阈值;Otsu 通过分析直方图自动选择阈值。倾斜校正同样重要:基于霍夫变换的 偏斜校正(霍夫线变换)与 Otsu 二值化相结合,是生产预处理管道中常用且有效的方案。
检测与识别。 OCR 通常分为文本检测(文本在 哪里?)和文本识别(它说了什么?)。在自然场景和许多扫描中,全卷积 检测器(如 EAST )可以有效地预测单词或行级四边形,而无需繁重的提议阶段,并且已在 常见工具包(例如 OpenCV 的文本检测教程)中实现。在复杂的页面(报纸、表格、书籍)上,行/区域的分割和阅读顺序推断很重要:Kraken 实现了传统的区域/行分割和神经基线分割,并明确支持 不同的脚本和方向(LTR/RTL/垂直)。
识别模型。 经典的开源主力 Tesseract (由 Google 开源,源于 HP)从字符分类器演变为基于 LSTM 的序列 识别器,可以从 CLI 发出可搜索的 PDF、 hOCR/ALTO 友好输出等。现代识别器依赖于序列建模,而无需预先分割字符。 连接主义时间分类 (CTC) 仍然是基础,它学习输入特征序列和输出标签字符串之间的对齐;它广泛 用于手写和场景文本管道。
在过去几年中,Transformer 重塑了 OCR。 TrOCR 使用视觉 Transformer 编码器和文本 Transformer 解码器,在大型合成语料库上进行训练,然后 在真实数据上进行微调,在印刷、手写和场景文本基准测试中表现出色(另请参阅 Hugging Face 文档)。与此同时,一些系统绕过 OCR 进行下游理解: Donut(文档理解 Transformer) 是一种无 OCR 的编码器-解码器,可直接从文档 图像输出结构化答案(如键值 JSON)(仓库, 模型卡),避免了在单独的 OCR 步骤为 IE 系统提供数据时出现错误累积。
如果您想要跨多种脚本的“开箱即用”文本阅读, EasyOCR 提供了一个包含 80 多种语言模型的简单 API,可返回框、文本和置信度——方便用于原型和 非拉丁脚本。对于历史文献, Kraken 以基线分割和脚本感知阅读顺序而著称;对于灵活的行级训练, Calamari 建 立在 Ocropy 的基础上(Ocropy),带有(多)LSTM+CTC 识别器和用于微调自定义模型的 CLI。
泛化取决于数据。对于手写, IAM 手写数据库 为训练和评估提供了不同作者的英语句子;它是 行和单词识别的长期参考集。对于场景文本, COCO-Text 在 MS-COCO 上分层了广泛的注释,带有印刷/手写、清晰/不清晰、脚本和 完整转录的标签(另请参阅原始 项目页面)。该领域还严重依赖合成预训练: 野外合成文本 将文本渲染到具有逼真几何和光照的照片中,为预训练 检测器和识别器提供大量数据(参考 代码和数据)。
ICDAR 的鲁棒阅读 下的竞赛使评估保持接地气。最近的任务强调端到端检测/阅读,并包括将单词 链接成短语,官方代码报告 精确率/召回率/F-score、交并比 (IoU) 和字符级编辑距离度量——反映了从业者应该跟踪的内容。
OCR 很少以纯文本结尾。档案馆和数字图书馆更喜欢 ALTO XML ,因为 它除了内容之外还编码了物理布局(带坐标的块/行/字),并且它与 METS 打包配合得很好。 hOCR 微格式则相反,它使用 ocr_line 和 ocrx_word 等类将相同的思想嵌入到 HTML/CSS 中,从而可以轻松地使用 Web 工具进行显示、编辑和转换。Tesseract 两者都支持——例如, 直接从 CLI 生成 hOCR 或可搜索的 PDF(PDF 输出指南);像 pytesseract 这样的 Python 包装器增加了便利性。当存储库具有固定的接收 标准时,存在用于在 hOCR 和 ALTO 之间进行转换的转换器——请参阅此精选列表 OCR 文件格式工具。
最强劲的趋势是融合:检测、识别、语言建模,甚至特定于任务的解码 正在合并到统一的 Transformer 堆栈中。在 大型合成语料库 上进行预训练仍然是一个力量倍增器。无 OCR 模型将在目标是结构化输出 而不是逐字记录的任何地方积极竞争。也期待混合部署:一个轻量级检测器加上一个 TrOCR 风格的 识别器用于长格式文本,以及一个 Donut 风格的模型用于表格和收据。
Tesseract (GitHub) · Tesseract 文档 · hOCR 规范 · ALTO 背景 · EAST 检测器 · OpenCV 文本检测 · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM 手写 · OCR 文件格式工具 · EasyOCR
光学字符识别(OCR)是一种技术,用于将不同类型的文档,如扫描的纸质文档、PDF文件或由数字相机拍摄的图像,转换为可编辑和可搜索的数据。
OCR通过扫描输入的图像或文档,将图像分割成单个字符,然后将每个字符与使用模式识别或特征识别的字符形状数据库进行比较。
OCR用于各种行业和应用中,包括数字化打印文档、启用文字到语音服务、自动化数据录入过程、以及帮助视障用户更好地与文本交互。
尽管OCR技 术已取得了巨大的进步,但它并不是绝对可靠的。根据原始文档的质量和所使用的OCR软件的具体情况,其准确性可能会有所不同。
虽然OCR主要用于识别打印的文本,但一些先进的OCR系统也能识别清晰、一致的手写字。然而,由于个人写作风格的巨大差异,手写字体识别通常准确率较低。
是的,许多OCR软件系统可以识别多种语言。然而,需要确保你正在使用的软件支持特定的语言。
OCR是Optical Character Recognition的缩写,用于识别打印的文本,而ICR,或称Intelligent Character Recognition,更先进,用于识别手写的文本。
OCR最适合处理清晰、易于阅读的字体和标准的文字大小。虽然它可以处理各种字体和大小,但是当处理不常见的字体或非常小的文字大小时,准确性可能会下降。
OCR可能会出现问题,如处理低分辨率的文档,复杂的字体,打印质量差的文本,手写文本,以及含有干扰文本的背景的文档。另外,尽管它可以处理多种语言,但可能并不能完美地覆盖所有语言。
是的,OCR可以扫描彩色的文本和背景,虽然它通常对高对比度的颜色组合更有效,比如黑色的文本和白色的背景。当文本和背景颜色对比度不足时,其准确性可能会降低。
JPEG,即联合图像专家组,是一种常用的有损数字图像压缩方法,尤其适用于数码摄影产生的图像。压缩程度可以调整,允许在存储大小和图像质量之间进行可选择的权衡。JPEG 通常可以实现 10:1 的压缩,而图像质量几乎没有明显损失。
JPEG 压缩算法是 JPEG 标准的核心。该过程从将数字图像从其典型的 RGB 色彩空间转换为称为 YCbCr 的不同色彩空间开始。YCbCr 色彩空间将图像分为亮度 (Y),它表示亮度级别,以及色度 (Cb 和 Cr),它表示颜色信息。这种分离是有益的,因为人眼对亮度的变化比对颜色的变化更敏感,从而允许压缩利用这一点,通过比亮度更多地压缩颜色信息。
一旦图像处于 YCbCr 色彩空间中,JPEG 压缩过程中的下一步就是对色度通道进行下采样。下采样会降低色度信息的解析度,这通常不会显著影响图像的感知质量,因为人眼对颜色细节的敏感度较低。此步骤是可选的,可以根据所需的图像质量和文件大小之间的平衡进行调整。
下采样后,图像被分成块,通常大小为 8x8 像素。然后分别处理每个块。处理每个块的第一步是应用离散余弦变换 (DCT)。DCT 是一种数学运算,它将空间域数据(像素值)转换为频域。结果是一个频率系数矩阵,它根据其空间频率分量表示图像块的数据。
然后对 DCT 产生的频率系数进行量化。量化是将一大组输入值映射到一小组的过程——在 JPEG 的情况下,这意味着降低频率 系数的精度。这是有损压缩发生的地方,因为一些图像信息被丢弃。量化步骤由量化表控制,该量化表确定对每个频率分量应用多少压缩。量化表可以调整为偏向更高的图像质量(更少的压缩)或更小的文件大小(更多的压缩)。
量化后,系数按锯齿形顺序排列,从左上角开始,并遵循一种优先考虑低频分量而不是高频分量的模式。这是因为低频分量(表示图像的更均匀部分)比高频分量(表示更精细的细节和边缘)对整体外观更重要。
JPEG 压缩过程中的下一步是熵编码,这是一种无损压缩方法。JPEG 中最常用的熵编码形式是霍夫曼编码,尽管算术编码也是一种选择。霍夫曼编码通过为更频繁出现的项分配更短的代码,为不太频繁出现的项分配更长的代码来工作。由于锯齿形排序倾向于将类似的频率系数分组在一起,因此它提高了霍夫曼编码的效率。
一旦熵编码完成,压缩数据就会存储在符合 JPEG 标准的文件格式中。此文件格式包括一个包含有关图像的信息的标头,例如其尺寸和使用的量化表,然后是霍夫曼编码的图像数据。该文件格式还支持包含元数据,例如 EXIF 数据,其中可以包含有关用于拍摄照片的相机设置、拍摄日期和时间以及其他相关详细信息的信息。
当打开 JPEG 图像时,解压缩过程实质上会逆转压缩步骤。霍夫曼编码的数据被解码,量化的频率系数使用压缩期间使用的相同量化表进行反量化,并对每个块应用逆离散余弦变换 (IDCT) 以将频域数据转换回空间域像素值。
反量化和 IDCT 过程由于压缩的有损性质而引入了一些错误,这就是为什么 JPEG 不适用于将进行多次编辑和重新保存的图像。每次保存 JPEG 图像时,它都会再次经历压缩过程,并且会丢失额外的图像信息。随着时间的推移,这会导致图像质量明显下降,这种现象称为“代损”。
尽管 JPEG 压缩具有有损性质,但由于其灵活性和效率,它仍然是一种流行的图像格式。JPEG 图像的文件大小可以非常小,这使得它们非常适合在带宽和加载时间是重要考虑因素的网络上使用。此外,JPEG 标准包括渐进模式,它允许以这样的方式对图像进行编码,即它可以在多次扫描中解码,每次扫描都会提高图像的分辨率。这对于网络图像特别有用,因为它允许快速显示图像的低质量版本,随着更多数据的下载,质量会得到提高。
JPEG 也有一些限制,并不总是所有类型图像的最佳选择。例如,它不适合具有锐利边缘或高对比度文本的图像,因为压缩会在这些区域周围产生明显的伪影。此外,JPEG 不支持透明度,这是 PNG 和 GIF 等其他格式提供的功能。
为了解决原始 JPEG 标准的一些限制,已经开发了新的格式,例如 JPEG 2000 和 JPEG XR。这些格式提供了改进的压缩效率、对更高位深度的支持以及透明度和无损压缩等附加功能。然而,它们尚未达到与原始 JPEG 格式相同的广泛采用程度。
总之,JPEG 图像格式是数学、人类视觉心理学和计算机科学的复杂平衡。它的广泛使用证明了它在减小文件大小的同时保持大多数应用程序可接受的图像质量方面的有效性。了解 JPEG 的技术方面可以帮助用户在何时使用此格式以及如何优化其图像以平衡最适合其需求的质量和文件大小方面做出明智的决策。
这个转换器完全在您的浏览器中运行。当您选择一个文件时,它将被读入内存并转换为所选格式。 然后,您可以下载转换后的文件。
转换立即开始,大多数文件在一秒钟内完成转换。较大的文件可能需要更长时间。
您的文件永远不会上传到我们的服务器。它们在您的浏览器中转换,然后下载转换后的文件。我们永远看不到您的文件。
我们支持在所有图像格式之间进行转换,包括 JPEG、PNG、GIF、WebP、SVG、BMP、TIFF 等等。
这个转换器完全免费,并将永远免费。因为它在您的浏览器中运行,所以我们不需要为服务器付费,因此我们不需要向您收费。
是的!您可以同时转换尽可能多的文件。只需在添加时选择多个文件即可。