光学字符识别(OCR)将文本图像(扫描件、智能手机照片、PDF)转换为机器可读的字符串,并越来越多地转换为 结构化数据。现代 OCR 是一个清理图像、查找文本、读取文本并导出丰富元数据的管道, 以便下游系统可以搜索、索引或提取字段。两个广泛使用的输出标准是 hOCR,一种用于文本和布局的 HTML 微格式,以及 ALTO XML,一种面向图书馆/档案馆的模式;两者都保留位置、阅读顺序和其他布局提示,并受 流行引擎(如 Tesseract)支持。
预处理。 OCR 质量始于图像清理:灰度转换、去噪、 阈值处理(二值化)和偏斜校正。经典的 OpenCV 教程涵盖了全局、 自适应 和 Otsu 阈值处理——适用于光照不均匀或双峰直方图的文档。当页面内的光照发生变化时 (例如手机快照),自适应方法通常优于单个全局阈值;Otsu 通过分析直方图自动选择阈值。倾斜校正同样重要:基于霍夫变换的 偏斜校正(霍夫线变换)与 Otsu 二值化相结合,是生产预处理管道中常用且有效的方案。
检测与识别。 OCR 通常分为文本检测(文本在 哪里?)和文本识别(它说了什么?)。在自然场景和许多扫描中,全卷积 检测器(如 EAST )可以有效地预测单词或行级四边形,而无需繁重的提议阶段,并且已在 常见工具包(例如 OpenCV 的文本检测教程)中实现。在复杂的页面(报纸、表格、书籍)上,行/区域的分割和阅读顺序推断很重要:Kraken 实现了传统的区域/行分割和神经基线分割,并明确支持 不同的脚本和方向(LTR/RTL/垂直)。
识别模型。 经典的开源主力 Tesseract (由 Google 开源,源于 HP)从字符分类器演变为基于 LSTM 的序列 识别器,可以从 CLI 发出可搜索的 PDF、 hOCR/ALTO 友好输出等。现代识别器依赖于序列建模,而无需预先分割字符。 连接主义时间分类 (CTC) 仍然是基础,它学习输入特征序列和输出标签字符串之间的对齐;它广泛 用于手写和场景文本管道。
在过去几年中,Transformer 重塑了 OCR。 TrOCR 使用视觉 Transformer 编码器和文本 Transformer 解码器,在大型合成语料库上进行训练,然后 在真实数据上进行微调,在印刷、手写和场景文本基准测试中表现出色(另请参阅 Hugging Face 文档)。与此同时,一些系统绕过 OCR 进行下游理解: Donut(文档理解 Transformer) 是一种无 OCR 的编码器-解码器,可直接从文档 图像输出结构化答案(如键值 JSON)(仓库, 模型卡),避免了在单独的 OCR 步骤为 IE 系统提供数据时出现错误累积。
如果您想要跨多种脚本的“开箱即用”文本阅读, EasyOCR 提供了一个包含 80 多种语言模型的简单 API,可返回框、文本和置信度——方便用于原型和 非拉丁脚本。对于历史文献, Kraken 以基线分割和脚本感知阅读顺序而著称;对于灵活的行级训练, Calamari 建立 在 Ocropy 的基础上(Ocropy),带有(多)LSTM+CTC 识别器和用于微调自定义模型的 CLI。
泛化取决于数据。对于手写, IAM 手写数据库 为训练和评估提供了不同作者的英语句子;它是 行和单词识别的长期参考集。对于场景文本, COCO-Text 在 MS-COCO 上分层了广泛的注释,带有印刷/手写、清晰/不清晰、脚本和 完整转录的标签(另请参阅原始 项目页面)。该领域还严重依赖合成预训练: 野外合成文本 将文本渲染到具有逼真几何和光照的照片中,为预训练 检测器和识别器提供大量数据(参考 代码和数据)。
ICDAR 的鲁棒阅读 下的竞赛使评估保持接地气。最近的任务强调端到端检测/阅读,并包括将单词 链接成短语,官方代码报告 精确率/召回率/F-score、交并比 (IoU) 和字符级编辑距离度量——反映了从业者应该跟踪的内容。
OCR 很少以纯文本结尾。档案馆和数字图书馆更喜欢 ALTO XML ,因为它 除了内容之外还编码了物理布局(带坐标的块/行/字),并且它与 METS 打包配合得很好。 hOCR 微格式则相反,它使用 ocr_line 和 ocrx_word 等类将相同的思想嵌入到 HTML/CSS 中,从而可以轻松地使用 Web 工具进行显示、编辑和转换。Tesseract 两者都支持——例如, 直接从 CLI 生成 hOCR 或可搜索的 PDF(PDF 输出指南);像 pytesseract 这样的 Python 包装器增加了便利性。当存储库具有固定的接收 标准时,存在用于在 hOCR 和 ALTO 之间进行转换的转换器——请参阅此精选列表 OCR 文件格式工具。
最强劲的趋势是融合:检测、识别、语言建模,甚至特定于任务的解码 正在合并到统一的 Transformer 堆栈中。在 大型合成语料库 上进行预训练仍然是一个力量倍增器。无 OCR 模型将在目标是结构化输出 而不是逐字记录的任何地方积极竞争。也期待混合部署:一个轻量级检测器加上一个 TrOCR 风格的 识别器用于长格式文本,以及一个 Donut 风格的模型用于表格和收据。
Tesseract (GitHub) · Tesseract 文档 · hOCR 规范 · ALTO 背景 · EAST 检测器 · OpenCV 文本检测 · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM 手写 · OCR 文件格式工具 · EasyOCR
光学字符识别(OCR)是一种技术,用于将不同类型的文档,如扫描的纸质文档、PDF文件或由数字相机拍摄的图像,转换为可编辑和可搜索的数据。
OCR通过扫描输入的图像或文档,将图像分割成单个字符,然后将每个字符与使用模式识别或特征识别的字符形状数据库进行比较。
OCR用于各种行业和应用中,包括数字化打印文档、启用文字到语音服务、自动化数据录入过程、以及帮助视障用户更好地与文本交互。
尽管OCR技术 已取得了巨大的进步,但它并不是绝对可靠的。根据原始文档的质量和所使用的OCR软件的具体情况,其准确性可能会有所不同。
虽然OCR主要用于识别打印的文本,但一些先进的OCR系统也能识别清晰、一致的手写字。然而,由于个人写作风格的巨大差异,手写字体识别通常准确率较低。
是的,许多OCR软件系统可以识别多种语言。然而,需要确保你正在使用的软件支持特定的语言。
OCR是Optical Character Recognition的缩写,用于识别打印的文本,而ICR,或称Intelligent Character Recognition,更先进,用于识别手写的文本。
OCR最适合处理清晰、易于阅读的字体和标准的文字大小。虽然它可以处理各种字体和大小,但是当处理不常见的字体或非常小的文字大小时,准确性可能会下降。
OCR可能会出现问题,如处理低分辨率的文档,复杂的字体,打印质量差的文本,手写文本,以及含有干扰文本的背景的文档。另外,尽管它可以处理多种语言,但可能并不能完美地覆盖所有语言。
是的,OCR可以扫描彩色的文本和背景,虽然它通常对高对比度的颜色组合更有效,比如黑色的文本和白色的背景。当文本和背景颜色对比度不足时,其准确性可能会降低。
JPEG(联合图像专家组)图像格式,通常称为 JPG,是一种广泛用于数字图像的有损压缩方法,特别是对于数码摄影产生的图像。压缩程度可以调整,允许在存储大小和图像质量之间进行可选择的权衡。JPEG 通常以几乎无法察觉的图像质量损失实现 10:1 压缩。
JPEG 压缩用于多种图像文件格式。JPEG/Exif 是数码相机和其他摄影图像捕获设备使用最广泛的图像格式;与 JPEG/JFIF 一起,它是万维网上存储和传输摄影图像最常见的格式。这些格式变体通常没有区别,而只是简单地称为 JPEG。
JPEG 格式包括各种标准,包括 JPEG/Exif、JPEG/JFIF 和 JPEG 2000,JPEG 2000 是一种较新的标准,它以更高的计算复杂度提供了更好的压缩效率。JPEG 标准很复杂,有各种部分和配置文件,但最常用的 JPEG 标准是基线 JPEG,这是大多数人在提到“JPEG”图像时所指的。
JPEG 压缩算法的核心是一种基于离散余弦变换 (DCT) 的压缩技术。DCT 是一种与离散傅里叶变换 (DFT) 类似的傅里叶相关变换,但仅使用余弦函数。使用 DCT 是因为它具有将大部分信号集中在频谱的低频区域的特性,这与自然图像的特性非常吻合。
JPEG 压缩过程涉及几个步骤。最初,图像从其原始色彩空间(通常为 RGB)转换为称为 YCbCr 的不同色彩空间。YCbCr 色彩空间将图像分成亮度分量 (Y),它表示亮度级别,以及两个色度分量 (Cb 和 Cr),它们表示颜色信息。这种分离是有益的,因为人眼对亮度的变化比对颜色的变化更敏感,从而允许对色度分量进行更激进的压缩,而不会显着影响感知的图像质量。
在色彩空间转换之后,图像被分成块,通常大小为 8x8 像素。然后分别处理每个块。对于每个块,应用 DCT,它将空间域数据转换为频域数据。这一步至关重要,因为它使图像数据更容易压缩,因为自然图像往往具有比高频分量更重要的低频分量。
应用 DCT 后,对所得系数进行量化。量化是将一大组输入值映射到一小组的过程,有效地减少了存储它们所需的比特数。这是 JPEG 压缩中损失的主要来源。量化步骤由量化表控制,该量化表确定对每个 DCT 系数应用多少压缩。通过调整量化表,用户可以在图像质量和文件大小之间进行权衡。
量化后,通过锯齿形扫描对系数进行线性化,按频率递增对它们进行排序。这一步很重要,因为它将更有可能是重要的低频系数和更有可能是零或接近零的量化后高频系数分组在一起。此排序有助于下一步,即熵编码。
熵编码是一种应用于量化 DCT 系数的无损压缩方法。JPEG 中使用最常见的熵编码形式是霍夫曼编码,尽管该标准也支持算术编码。霍夫曼编码通过为更频繁的元素分配较短的代码,为不那么频繁的元素分配较长的代码来工作。由于自然图像在量化后往往具有许多零或接近零的系数,尤其是在高频区域,因此霍夫曼编码可以显着减小压缩数据的尺寸。
JPEG 压缩过程的最后一步是将压缩数据存储在文件格式中。最常见的格式是 JPEG 文件交换格式 (JFIF),它定义了如何在文件中表示压缩数据和关联元数据,例如量化表和霍夫曼编码表,该文件可以被广泛的软件解码。另一种常见的格式是可交换图像文件格式 (Exif),它由数码相机使用,并包括元数据,例如相机设置和场景信息。
JPEG 文件还包括标记,它们是定义文件中某些参数或操作的代码序列。这些标记可以指示图像的开始、图像的结束、定义量化表、指定霍夫曼编码表等等。标记对于正确解码 JPEG 图像至关重要,因为它们提供了从压缩数据重建图像所需的信息。
JPEG 的一个关键特性是对渐进编码的支持。在渐进式 JPEG 中,图像以多次扫描进行编码,每次扫描都会提高图像质量。这允许在文件仍在下载时显示图像的低质量版本,这对于网络图像特别有用。渐进式 JPEG 文件通常比基线 JPEG 文件大,但在加载期间质量的差异可以改善用户体验。
尽管 JPEG 被广泛使用,但它也有一些局限性。压缩的有损性质会导致伪影,例如块效应,其中图像可能显示出可见的方块,以及“振铃”,其中边缘可能伴有虚假振荡。这些伪影在更高的压缩级别下更明显。此外,JPEG 不适合具有锐利边缘或高对比度文本的图像,因为压缩算法会模糊边缘并降低可读性。
为了解决原始 JPEG 标准的一些局限性,开发了 JPEG 2000。JPEG 2000 比基线 JPEG 提供了多项改进,包括更好的压缩效率、对无损压缩的支持以及有效处理更广泛的图像类型的能力。然而,与原始 JPEG 标准相比,JPEG 2000 并未得到广泛采用,这主要是由于计算复杂度增加以及某些软件和网络浏览器缺乏支持。
总之,JPEG 图像格式是一种复杂但有效的压缩摄影图像的方法。它被广泛采用是因为它在图像质量和文件大小之间取得了平衡的灵活性,使其适用于从网络图形到专业摄影的各种应用。虽然它有其缺点,例如容易出现压缩伪影,但它易于使用且支持广泛的设备和软件,使其成为当今最流行的图像格式之一。
这个转换器完全在您的浏览器中运行。当您选择一个文件时,它将被读入内存并转换为所选格式。 然后,您可以下载转换后的文件。
转换立即开始,大多数文件在一秒钟内完成转换。较大的文件可能需要更长时间。
您的文件永远不会上传到我们的服务器。它们在您的浏览器中转换,然后下载转换后的文件。我们永远看不到您的文件。
我们支持在所有图像格式之间进行转换,包括 JPEG、PNG、GIF、WebP、SVG、BMP、TIFF 等等。
这个转换器完全免费,并将永远免费。因为它在您的浏览器中运行,所以我们不需要为服务器付费,因此我们不需要向您收费。
是的!您可以同时转换尽可能多的文件。只需在添加时选择多个文件即可。