OCR любого JNG
Перетащите и отпустите или нажмите для выбора
Конфиденциально и безопасно
Все происходит в вашем браузере. Ваши файлы никогда не попадают на наши серверы.
Молниеносно
Никаких загрузок, никаких ожиданий. Конвертируйте в тот момент, когда вы перетаскиваете файл.
Действительно бесплатно
Не требуется учетная запись. Никаких скрытых платежей. Никаких уловок с размером файла.
Оптическое распознавание символов (OCR) преобразует изображения текста — сканы, фотографии со смартфона, PDF-файлы — в машиночитаемые строки и, все чаще, в структурированные данные. Современное OCR — это конвейер, который очищает изображение, находит текст, читает его и экспортирует богатые метаданные, чтобы последующие системы могли искать, индексировать или извлекать поля. Два широко используемых стандарта вывода: hOCR, микроформат HTML для текста и макета, и ALTO XML, схема, ориентированная на библиотеки/архивы; оба сохраняют позиции, порядок чтения и другие подсказки макета и поддерживаются популярными движками, такими как Tesseract.
Краткий обзор конвейера
Предварительная обработка. Качество OCR начинается с очистки изображения: преобразования в оттенки серого, удаления шума, пороговой обработки (бинаризации) и выравнивания. Канонические учебные пособия по OpenCV охватывают глобальную, адаптивную и пороговую обработку Оцу — основные методы для документов с неравномерным освещением или бимодальными гистограммами. Когда освещение меняется в пределах страницы (подумайте о снимках с телефона), адаптивные методы часто превосходят один глобальный порог; Оцу автоматически выбирает порог, анализируя гистограмму. Коррекция наклона не менее важна: выравнивани е на основе преобразования Хафа (преобразование Хафа для линий) в паре с бинаризацией Оцу является распространенным и эффективным рецептом в производственных конвейерах предварительной обработки.
Обнаружение и распознавание. OCR обычно делится на обнаружение текста (где находится текст?) и распознавание текста (что он говорит?). В естественных сценах и многих сканах полностью сверточные детекторы, такие как EAST , эффективно предсказывают четырехугольники на уровне слов или строк без тяжелых этапов предложения и реализованы в общих наборах инструментов (например, учебное пособие по обнаружению текста в OpenCV). На сложных страницах (газеты, формы, книги) важны сегментация строк/областей и определение порядка чтения:Kraken реализует традиционную сегментацию зон/строк и нейронную сегментацию базовой линии с явной поддержкой различных письменностей и направлений (слева направо/справа налево/вертикально).
Модели распознавания. Классическая рабочая лошадка с открытым исходным кодом Tesseract (с открытым исходным кодом от Google, с корнями в HP) эволюционировала от классификатора символов до распознавателя последовательностей на основе LSTM и может выдавать PDF с возможностью поиска, выходные данные, дружественные к hOCR/ALTO, и многое другое из командной строки. Современные распознаватели полагаются на моделирование последовательностей без предварительно сегментированных символов. Коннективистская временная классификация (CTC) остается основополагающей, изучая выравнивания между последовательностями входных признаков и строками выходных меток; она широко используется в конвейерах для распознавания рукописного ввода и текста на сцене.
В последние несколько лет трансформеры изменили OCR. TrOCR использует кодировщик Vision Transformer и декодер Text Transformer, обученный на больших синтетических корпусах, а затем доработанный на реальных данных, с высокой производительностью на тестах печатного, рукописного и сценического текста (см. также документацию Hugging Face). Параллельно некоторые системы обходят OCR для последующего понимания: Donut (Document Understanding Transformer) — это кодировщик-декодер без OCR, который напрямую выводит структурированные ответы (например, JSON «ключ-значение») из изображений документов (репозиторий, карточка модели), избегая накопления ошибок, когда отдельный шаг OCR передает данные в систему извлечения информации.
Движки и библиотеки
Если вам нужно готовое решение для чтения текста на многих языках, EasyOCR предлагает простой API с более чем 80 языковыми моделями, возвращающий рамки, текст и достоверность — удобно для прототипов и нелатинских письменностей. Для исторических документов Kraken отличается сегментацией базовой линии и порядком чтения с учетом письменности; для гибкого обучения на уровне строк Calamari основан на наследии Ocropy (Ocropy) с распознавателями (multi-)LSTM+CTC и CLI для тонкой настройки пользовательских моделей.
Наборы данных и тесты
Обобщение зависит от данных. Для рукописного ввода база данных рукописного ввода IAM предоставляет разнообразные по авторам английские предложения для обучения и оценки; это давний эталонный набор для распознавания строк и слов. Для текста на сцене COCO-Text наложил обширные аннотации на MS-COCO с метками для печатного/рукописного, разборчивого/неразборчивого, письменности и полных транскрипций (см. также оригинальную ст раницу проекта). Эта область также в значительной степени зависит от синтетического предварительного обучения: SynthText in the Wild визуализирует текст на фотографиях с реалистичной геометрией и освещением, предоставляя огромные объемы данных для предварительного обучения детекторов и распознавателей (ссылка на код и данные).
Соревнования под эгидой ICDAR’s Robust Reading сохраняют обоснованность оценки. Последние задачи подчеркивают сквозное обнаружение/чтение и включают связывание слов во фразы, с официальным кодом, сообщающим точность/полноту/F-меру, пересечение над объединением (IoU) и метрики расстояния редактирования на уровне символов, что отражает то, что должны отслеживать практики.
Форматы вывода и последующее использование
OCR редко заканчивается простым текстом. Архивы и цифровые библиотеки предпочитают ALTO XML , потому что он кодирует физический макет (блоки/строки/слова с координатами) вместе с содержимым, и он хорошо сочетается с упаковкой METS. Микроформат hOCR , напротив, встраивает ту же идею в HTML/CSS, используя классы, такие как ocr_line и ocrx_word, что упрощает отображение, редактирование и преобразование с помощью веб-инструментов. Tesseract предоставляет оба варианта, например, генерируя hOCR или PDF с возможностью поиска прямо из командной строки (руководство по выводу PDF); оболочки Python, такие как pytesseract , добавляют удобства. Существуют преобразователи для перевода между hOCR и ALTO, когда в репозиториях есть фиксированные стандарты приема — см. этот тщательно подобранный список инструментов для формата файлов OCR.
Практическое руководство
- Начните с данных и чистоты. Если ваши изображения — это фотографии с телефона или сканы смешанного качества, вложитесь в пороговую обработку (адаптивную и Оцу) и выравнивание (Хафа) перед любой настройкой модели. Вы часто получите больше от надежного рецепта предварительной обработки, чем от замены распознавателей.
- Выберите правильный детектор. Для отсканированных страниц с обычными столбцами может быть достаточно сегментатора страниц (зоны → строки); для естественных изображений детекторы одного прохода, такие как EAST , являются сильными базовыми линиями и подключаются ко многим наборам инструментов (пример OpenCV).
- Выберите распознаватель, который соответствует вашему тексту. Для печатной латиницы Tesseract (LSTM/OEM) надежен и быстр; для нескольких письменностей или быстрых прототипов EasyOCR продуктивен; для рукописного ввода или исторических шрифтов рассмотрите Kraken или Calamari и планируйте тонкую настройку. Если вам нужна тесная связь с пониманием документов (извлечение пар «ключ-значение», VQA), оцените TrOCR (OCR) по сравнению с Donut (без OCR) на вашей схеме — Donut может устранить целый шаг интеграции.
- Измеряйте то, что имеет значение. Для сквозных систем сообщайте об обнаружении F-мера и распознавании CER/WER (оба основаны на расстоянии редактирования Левенштейна ; см. CTC); для задач с интенсивным использованием макета отслеживайте IoU/плотность и нормализованное расстояние редактирования на уровне символов, как в наборах для оценки ICDAR RRC .
- Экспортируйте богатые выходные данные. Предпочитайте hOCR /ALTO (или оба), чтобы сохранить координаты и порядок чтения — это жизненно важно для выделения результатов поиска, извлечения таблиц/полей и происхождения. CLI Tesseract и pytesseract делают это одной строкой.
Взгляд в будущее
Самая сильная тенденция — это конвергенция: обнаружение, распознавание, языковое моделирование и даже декодирование для конкретных задач объединяются в единые стеки трансформеров. Предварительное обучение на больших синтетических корпусах остается мультипликатором силы. Модели без OCR будут агрессивно конкурировать везде, где целью являются структурированные выходные данные, а не дословные транскрипции. Ожидайте также гибридных развертываний: легкий детектор плюс распознаватель в стиле TrOCR для длинного текста и модель в стиле Donut для форм и квитанций.
Дополнительная литература и инструменты
Tesseract (GitHub) · Документация Tesseract · Спецификация hOCR · Фон ALTO · Детектор EAST · Обнаружение текста OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Рукописный ввод IAM · Инструменты формата файлов OCR · EasyOCR
Часто задаваемые вопросы
Что такое OCR?
Оптическое распознавание символов (OCR) - это технология, используемая для преобразования различных типов документов, таких как отсканированные бумажные документы, PDF-файлы или изображения, снятые цифровой камерой, в данные, которые можно редактировать и искать.
Как работает OCR?
OCR сканирует входное изображение или документ, разбирает изображение на отдельные символы, а затем сравнивает каждый символ с базой данных форм символов, используя распознавание по образцу или распознавание по признакам.
Какие практические применения у OCR?
OCR используется в различных отраслях и приложениях, включая цифровизацию печатных документов, использование услуг перевода текста в речь, автоматизацию процесса ввода данных и помощь людям с нарушениями зрения в более качественном взаимодействии с текстом.
OCR всегда на 100% точен?
Несмотря на значительные усовершенствования технологии OCR, она не абсолютно надежна. Точность может варьироваться в зависимости от качества исходного документа и конкретных характеристик используемого ПО OCR.
Может ли OCR распознавать рукописный текст?
Хотя OCR в основном предназначен для распознавания печатного текста, некоторые продвинутые системы OCR также могут распознавать чистописание. Однако точность распознавания рукописного текста обычно ниже из-за вариативности индивидуальных стилей письма.
Может ли OCR обрабатывать несколько языков?
Да, многие программы OCR могут распознавать множество языков. Однако следует убедиться, что используемое вами программное обеспечение поддерживает конкретный язык.
В чем разница между OCR и ICR?
OCR - это аббревиатура от Optical Character Recognition (оптическое распознавание символов), которое используется для распознавания печатного текста, в то время как ICR, или Intelligent Character Recognition (интеллектуальное распознавание символов), это более продвинутая технология, которая используется для распознавания рукописного те кста.
Может ли OCR обрабатывать все шрифты и размеры текста?
OCR наиболее эффективен при обработке четких, легко читаемых шрифтов и стандартных размеров текста. Хотя он способен распознавать различные шрифты и размеры, его точность может снизиться при обработке нестандартных шрифтов или очень мелкого текста.
Каковы ограничения технологии OCR?
У OCR может быть проблемы при обработке документов с низким разрешением, сложных шрифтов, текста с плохим качеством печати, рукописного текста или документов, где текст плохо сочетается с фоном. Кроме того, хотя OCR может распознавать многие языки, он может не покрывать все языки идеально.
Может ли OCR сканировать цветной текст или цветной фон?
Да, OCR может сканировать цветной текст и фоны, хотя он наиболее эффективен при работе с комбинациями цветов с высоким контрастом, такими как черный текст на белом фоне. Если контраст между цветом текста и фона недостаточен, точность может снизиться.
Что такое формат JNG?
Графика JPEG Network
Формат JNG (JPEG Network Graphics) — это формат файла изображения, который был разработан как подформат более известного формата MNG (Multiple-image Network Graphics). Он был разработан в первую очередь для обеспечения решения для сжатия с потерями и без потерь в рамках одного формата изображения, что было невозможно с другими распространенными форматами, такими как JPEG или PNG, на момент его создания. Файлы JNG обычно используются для изображений, требующих как высококачественного фотографического представления, так и дополнительного альфа-канала для прозрачности, который не поддерживается стандартными изображениями JPEG.
JNG — это не автономный формат, а часть набора форматов файлов MNG, который был разработан как анимированная версия PNG. Набор MNG включает форматы MNG и JNG, причем MNG поддерживает анимацию, а JNG — формат с одним изображением. Формат JNG был создан той же командой, которая разработала формат PNG, и он был предназначен для дополнения PNG путем добавления сжатых по JPEG цветовых данных при сохранении возможности отдельного альфа-канала, который поддерживается PNG, но не JPEG.
Структура файла JNG похожа на структуру файла MNG, но она проще, поскольку предназначена только для отдельных изображений. Файл JNG состоит из серии фрагментов, каждый из которых содержит определенный тип данных. Наиболее важными фрагментами в файле JNG являются фрагмент JHDR, который содержит информацию заголовка; фрагмент JDAT, который содержит сжатые по JPEG данные изображения; фрагмент JSEP, который может присутствовать для указания конца потока данных JPEG; и фрагменты альфа-канала, которые являются необязательными и могут быть либо фрагментами IDAT (содержащими сжатые по PNG данные альфа-канала), либо фрагментами JDAA (содержащими сжатые по JPEG данные альфа-канала).
Фрагмент JHDR — это первый фрагмент в файле JNG, и он имеет решающее значение, поскольку определяет свойства изображения. Он включает такую информацию, как ширина и высота изображения, глубина цвета, наличие альфа-канала, используемое цветовое пространство и метод сжатия для альфа-канала. Этот фрагмент позволяет декодерам понять, как обрабатывать последующие данные в файле.