La reconnaissance optique de caractères (OCR) transforme les images de texte (scans, photos de smartphone, PDF) en chaînes de caractères lisibles par machine et, de plus en plus, en données structurées. L'OCR moderne est un pipeline qui nettoie une image, trouve du texte, le lit et exporte des métadonnées riches afin que les systèmes en aval puissent rechercher, indexer ou extraire des champs. Deux normes de sortie largement utilisées sont hOCR, un microformat HTML pour le texte et la mise en page, et ALTO XML, un schéma orienté bibliothèque/archives ; tous deux préservent les positions, l'ordre de lecture et d'autres indices de mise en page et sont pris en charge par des moteurs populaires comme Tesseract.
Prétraitement. La qualité de l'OCR commence par le nettoyage de l'image : conversion en niveaux de gris, débruitage, seuillage (binarisation) et redressement. Les tutoriels canoniques d'OpenCV couvrent le seuillage global, adaptatif et d'Otsu — des incontournables pour les documents avec un éclairage non uniforme ou des histogrammes bimodaux. Lorsque l'éclairage varie au sein d'une page (pensez aux photos de téléphone), les méthodes adaptatives surpassent souvent un seuil global unique ; Otsu choisit automatiquement un seuil en analysant l'histogramme. La correction de l'inclinaison est tout aussi importante : le redressement basé sur Hough (Transformée de Hough) associé à la binarisation d'Otsu est une recette courante et efficace dans les pipelines de prétraitement de production.
Détection vs. reconnaissance. L'OCR est généralement divisé en détection de texte (où se trouve le texte ?) et reconnaissance de texte (que dit-il ?). Dans les scènes naturelles et de nombreux scans, les détecteurs entièrement convolutifs comme EAST prédisent efficacement des quadrilatères au niveau du mot ou de la ligne sans étapes de proposition lourdes et sont implémentés dans des boîtes à outils courantes (par exemple, le tutoriel de détection de texte d'OpenCV). Sur les pages complexes (journaux, formulaires, livres), la segmentation des lignes/régions et l'inférence de l'ordre de lecture sont importantes :Kraken implémente la segmentation traditionnelle de zones/lignes et la segmentation neuronale de ligne de base, avec un support explicite pour différents scripts et directions (LTR/RTL/vertical).
Modèles de reconnaissance. Le classique cheval de bataille open-source Tesseract (open-sourcé par Google, avec des racines chez HP) a évolué d'un classifieur de caractères en un reconnaisseur de séquence basé sur LSTM et peut émettre des PDF consultables, des sorties compatibles hOCR/ALTO, et plus encore depuis la CLI. Les reconnaisseurs modernes s'appuient sur la modélisation de séquence sans caractères pré-segmentés. La classification temporelle connexionniste (CTC) reste fondamentale, apprenant les alignements entre les séquences de caractéristiques d'entrée et les chaînes d'étiquettes de sortie ; elle est largement utilisée dans les pipelines d'écriture manuscrite et de texte de scène.
Ces dernières années, les Transformers ont remodelé l'OCR. TrOCR utilise un encodeur Vision Transformer plus un décodeur Text Transformer, entraîné sur de grands corpus synthétiques puis affiné sur des données réelles, avec de solides performances sur les benchmarks de texte imprimé, manuscrit et de scène (voir aussi la documentation de Hugging Face). En parallèle, certains systèmes contournent l'OCR pour la compréhension en aval : Donut (Document Understanding Transformer) est un encodeur-décodeur sans OCR qui produit directement des réponses structurées (comme du JSON clé-valeur) à partir d'images de documents (repo, carte de modèle), évitant l'accumulation d'erreurs lorsqu'une étape OCR distincte alimente un système d'IE.
Si vous voulez une lecture de texte clés en main sur de nombreux scripts, EasyOCR offre une API simple avec plus de 80 modèles linguistiques, renvoyant des boîtes, du texte et des confiances — pratique pour les prototypes et les scripts non latins. Pour les documents historiques, Kraken brille par sa segmentation de ligne de base et son ordre de lecture sensible au script ; pour un entraînement flexible au niveau de la ligne, Calamari s'appuie sur la lignée d'Ocropy (Ocropy) avec des reconnaisseurs (multi-)LSTM+CTC et une CLI pour affiner des modèles personnalisés.
La généralisation dépend des données. Pour l'écriture manuscrite, la base de données d'écriture manuscrite IAM fournit des phrases en anglais de divers scripteurs pour l'entraînement et l'évaluation ; c'est un ensemble de référence de longue date pour la reconnaissance de lignes et de mots. Pour le texte de scène, COCO-Text a superposé des annotations étendues sur MS-COCO, avec des étiquettes pour l'imprimé/manuscrit, lisible/illisible, le script et les transcriptions complètes (voir aussi la page originale du projet). Le domaine s'appuie également fortement sur le pré-entraînement synthétique : SynthText in the Wild rend le texte dans des photographies avec une géométrie et un éclairage réalistes, fournissant d'énormes volumes de données pour pré-entraîner les détecteurs et les reconnaisseurs (référence code et données).
Les compétitions sous l'égide de la lecture robuste d'ICDAR maintiennent l'évaluation sur le terrain. Les tâches récentes mettent l'accent sur la détection/lecture de bout en bout et incluent la liaison de mots en phrases, avec le code officiel rapportant précision/rappel/F-score, l'intersection sur l'union (IoU) et les métriques de distance d'édition au niveau du caractère — reflétant ce que les praticiens devraient suivre.
L'OCR se termine rarement par du texte brut. Les archives et les bibliothèques numériques préfèrent ALTO XML car il encode la mise en page physique (blocs/lignes/mots avec coordonnées) ainsi que le contenu, et il se marie bien avec l'empaquetage METS. Le microformat hOCR , en revanche, intègre la même idée dans HTML/CSS en utilisant des classes comme ocr_line et ocrx_word, ce qui facilite l'affichage, la modification et la transformation avec des outils web. Tesseract expose les deux — par exemple, en générant du hOCR ou des PDF consultables directement depuis la CLI (guide de sortie PDF) ; les wrappers Python comme pytesseract ajoutent de la commodité. Il existe des convertisseurs pour traduire entre hOCR et ALTO lorsque les dépôts ont des normes d'ingestion fixes — voir cette liste organisée d' outils de format de fichier OCR.
La tendance la plus forte est la convergence : la détection, la reconnaissance, la modélisation du langage et même le décodage spécifique à la tâche fusionnent dans des piles de Transformers unifiées. Le pré-entraînement sur de grands corpus synthétiques reste un multiplicateur de force. Les modèles sans OCR seront en concurrence agressive partout où la cible est des sorties structurées plutôt que des transcriptions littérales. Attendez-vous également à des déploiements hybrides : un détecteur léger plus un reconnaisseur de style TrOCR pour le texte long, et un modèle de style Donut pour les formulaires et les reçus.
Tesseract (GitHub) · Documentation de Tesseract · Spécification hOCR · Contexte ALTO · Détecteur EAST · Détection de texte OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Écriture manuscrite IAM · Outils de format de fichier OCR · EasyOCR
La reconnaissance optique de caractères (OCR) est une technologie utilisée pour convertir différents types de documents, tels que des documents papier numérisés, des fichiers PDF ou des images capturées par un appareil photo numérique, en données modifiables et recherchables.
L'OCR fonctionne en numérisant une image ou un document d'entrée, en segmentant l'image en caractères individuels, et en comparant chaque caractère avec une base de données de formes de caractères en utilisant la reconnaissance de formes ou la reconnaissance de caractéristiques.
L'OCR est utilisé dans une variété de secteurs et d'applications, y compris la numérisation de documents imprimés, l'activation des services de texte en parole, l'automatisation des processus de saisie de données, et l'aide aux utilisateurs malvoyants pour mieux interagir avec le texte.
Bien que des progrès importants aient été faits dans la technologie OCR, elle n'est pas infaillible. La précision peut varier en fonction de la qualité du document original et des spécificités du logiciel OCR utilisé.
Bien que l'OCR soit principalement conçu pour le texte imprimé, certains systèmes OCR avancés sont également capables de reconnaître une écriture manuelle claire et cohérente. Cependant, la reconnaissance de l'écriture manuelle est généralement moins précise en raison de la grande variation des styles d'écriture individuels.
Oui, de nombreux systèmes logiciels OCR peuvent reconnaître plusieurs langues. Cependant, il est important de s'assurer que la langue spécifique est prise en charge par le logiciel que vous utilisez.
OCR signifie Optical Character Recognition et est utilisé pour reconnaître le texte imprimé, tandis que ICR, ou Intelligent Character Recognition, est plus avancé et est utilisé pour reconnaître le texte écrit à la main.
L'OCR fonctionne mieux avec des polices claires et faciles à lire et des tailles de texte standard. Bien qu'il puisse fonctionner avec différentes polices et tailles, la précision a tendance à diminuer lorsqu'on traite des polices inhabituelles ou des tailles de texte très petites.
L'OCR peut avoir du mal avec les documents de faible résolution, les polices complexes, les textes mal imprimés, l'écriture manuelle, et les documents avec des arrière-plans qui interfèrent avec le texte. De plus, bien qu'il puisse fonctionner avec de nombreuses langues, il ne couvre peut-être pas parfaitement toutes les langues.
Oui, l'OCR peut numériser du texte en couleur et des arrière-plans en couleur, bien qu'il soit généralement plus efficace avec des combinaisons de couleurs à contraste élevé, comme le texte noir sur un fond blanc. La précision peut diminuer lorsque les couleurs du texte et de l'arrière-plan manquent de contraste suffisant.
JPEG 2000, communément appelé J2K, est une norme de compression d'image et un système de codage créés par le comité Joint Photographic Experts Group en 2000 dans le but de remplacer la norme JPEG d'origine. Il a été développé pour répondre à certaines des limites de la norme JPEG d'origine et pour fournir un nouvel ensemble de fonctionnalités de plus en plus demandées pour diverses applications. JPEG 2000 n'est pas seulement une norme unique, mais une suite de normes, couvertes par la famille JPEG 2000 (ISO/IEC 15444).
L'un des principaux avantages de JPEG 2000 par rapport au format JPEG d'origine est son utilisation de la transformation en ondelettes au lieu de la transformée en cosinus discrète (DCT). La transformation en ondelettes permet des taux de compression plus élevés sans le même degré d'artefacts visibles qui peuvent être présents dans les images JPEG. Ceci est particulièrement bénéfique pour les applications d'images haute résolution et de haute qualité, telles que l'imagerie satellite, l'imagerie médicale, le cinéma numérique et le stockage d'archives, où la qualité de l'image est de la plus haute importance.
JPEG 2000 prend en charge à la fois la compression sans perte et avec perte dans une architecture de compression unique. La compression sans perte est obtenue en utilisant une transformée en ondelettes réversible, qui garantit que les données d'image d'origine peuvent être parfaitement reconstruites à partir de l'image compressée. La compression avec perte, d'un autre côté, utilise une transformée en ondelettes irréversible pour obtenir des taux de compression plus élevés en supprimant certaines des informations les moins importantes de l'image.
Une autre caractéristique importante de JPEG 2000 est sa prise en charge de la transmission progressive d'images, également connue sous le nom de décodage progressif. Cela signifie que l'image peut être décodée et affichée à des résolutions inférieures et progressivement augmentée à pleine résolution à mesure que davantage de données deviennent disponibles. Ceci est particulièrement utile pour les applications à bande passante limitée, telles que la navigation Web ou les applications mobiles, où il est avantageux d'afficher rapidement une version de qualité inférieure de l'image et d'améliorer la qualité à mesure que davantage de données sont reçues.
JPEG 2000 introduit également le concept de régions d'intérêt (ROI). Cela permet de compresser différentes parties de l'image à différents niveaux de qualité. Par exemple, dans un scénario d'imagerie médicale, la région contenant une caractéristique diagnostique pourrait être compressée sans perte ou à une qualité supérieure à celle des zones environnantes. Ce contrôle de qualité sélectif peut être très important dans les domaines où certaines parties d'une image sont plus importantes que d'autres.
Le format de fichier pour les images JPEG 2000 est JP2, qui est un format standardisé et extensible qui inclut à la fois les données d'image et les métadonnées. Le format JP2 utilise l'extension de fichier .jp2 et peut contenir un large éventail d'informations, notamment des informations sur l'espace colorimétrique, les niveaux de résolution et les informations de propriété intellectuelle. De plus, JPEG 2000 prend en charge le format JPM (pour les images composites, telles que les documents contenant à la fois du texte et des images) et le format MJ2 pour les séquences animées, similaire à un fichier vidéo.
JPEG 2000 utilise un schéma de codage sophistiqué connu sous le nom d'EBCOT (Embedded Block Coding with Optimal Truncation). EBCOT offre plusieurs avantages, notamment une meilleure résilience aux erreurs et la possibilité d'affiner la compression pour obtenir l'équilibre souhaité entre la qualité de l'image et la taille du fichier. L'algorithme EBCOT divise l'image en petits blocs, appelés blocs de code, et encode chacun indépendamment. Cela permet un confinement localisé des erreurs en cas de corruption des données et facilite la transmission progressive des images.
La gestion de l'espace colorimétrique dans JPEG 2000 est plus flexible que dans la norme JPEG d'origine. JPEG 2000 prend en charge une large gamme d'espaces colorimétriques, notamment les niveaux de gris, RVB, YCbCr et autres, ainsi que diverses profondeurs de bits, des images binaires jusqu'à 16 bits par composant ou plus. Cette flexibilité rend JPEG 2000 adapté à une variété d'applications et garantit qu'il peut répondre aux exigences des différentes technologies d'imagerie.
JPEG 2000 inclut également des fonctionnalités de sécurité robustes, telles que la possibilité d'inclure un cryptage et un filigrane numérique dans le fichier. Ceci est particulièrement important pour les applications où la protection des droits d'auteur ou l'authentification du contenu est une préoccupation. La partie JPSEC (JPEG 2000 Security) de la norme décrit ces fonctionnalités de sécurité, fournissant un cadre pour une distribution sécurisée des images.
L'un des défis de JPEG 2000 est qu'il est plus gourmand en calcul que la norme JPEG d'origine. La complexité de la transformée en ondelettes et du schéma de codage EBCOT signifie que l'encodage et le décodage des images JPEG 2000 nécessitent plus de puissance de traitement. Cela a historiquement limité son adoption dans l'électronique grand public et les applications Web, où la surcharge de calcul pourrait être un facteur important. Cependant, à mesure que la puissance de traitement a augmenté et que la prise en charge matérielle spécialisée est devenue plus courante, cette limitation est devenue moins problématique.
Malgré ses avantages, JPEG 2000 n'a pas connu une adoption généralisée par rapport au format JPEG d'origine. Cela est en partie dû à l'omniprésence du format JPEG et au vaste écosystème de logiciels et de matériel qui le prend en charge. De plus, les problèmes de licence et de brevet entourant JPEG 2000 ont également entravé son adoption. Certaines des technologies utilisées dans JPEG 2000 étaient brevetées, et la nécessité de gérer les licences pour ces brevets le rendait moins attrayant pour certains développeurs et entreprises.
En termes de taille de fichier, les fichiers JPEG 2000 sont généralement plus petits que les fichiers JPEG de qualité équivalente. Cela est dû aux algorithmes de compression plus efficaces utilisés dans JPEG 2000, qui peuvent réduire plus efficacement la redondance et la non-pertinence dans les données d'image. Cependant, la différence de taille de fichier peut varier en fonction du contenu de l'image et des paramètres utilisés pour la compression. Pour les images avec beaucoup de détails fins ou des niveaux de bruit élevés, la compression supérieure de JPEG 2000 peut entraîner des fichiers considérablement plus petits.
JPEG 2000 prend également en charge le tiling, qui divise l'image en tuiles plus petites et encodées indépendamment. Cela peut être utile pour les très grandes images, telles que celles utilisées dans l'imagerie satellite ou les applications de cartographie, car cela permet un encodage, un décodage et une manipulation plus efficaces de l'image. Les utilisateurs peuvent accéder et décoder des tuiles individuelles sans avoir besoin de traiter l'image entière, ce qui peut économiser de la mémoire et des besoins de traitement.
La standardisation de JPEG 2000 comprend également des dispositions pour la gestion des métadonnées, ce qui est un aspect important pour les systèmes d'archivage et de récupération. Le format JPX, une extension de JP2, permet l'inclusion de métadonnées étendues, notamment des boîtes XML et UUID, qui peuvent stocker tout type d'informations de métadonnées. Cela fait de JPEG 2000 un bon choix pour les applications où la préservation des métadonnées est importante, telles que les bibliothèques numériques et les musées.
En conclusion, JPEG 2000 est une norme de compression d'image sophistiquée qui offre de nombreux avantages par rapport au format JPEG d'origine, notamment des taux de compression plus élevés, un décodage progressif, des régions d'intérêt et des fonctionnalités de sécurité robustes. Sa flexibilité en termes d'espaces colorimétriques et de profondeurs de bits, ainsi que sa prise en charge des métadonnées, le rendent adapté à un large éventail d'applications professionnelles. Cependant, sa complexité de calcul et les problèmes de brevet initiaux ont limité son adoption généralisée. Malgré cela, JPEG 2000 reste le format de choix dans les industries où la qualité de l'image et l'ensemble des fonctionnalités sont plus critiques que l'efficacité du calcul ou une large compatibilité.
Ce convertisseur fonctionne entièrement dans votre navigateur. Lorsque vous sélectionnez un fichier, il est lu en mémoire et converti dans le format sélectionné. Vous pouvez ensuite télécharger le fichier converti.
Les conversions commencent instantanément, et la plupart des fichiers sont convertis en moins d'une seconde. Les fichiers plus volumineux peuvent prendre plus de temps.
Vos fichiers ne sont jamais téléversés vers nos serveurs. Ils sont convertis dans votre navigateur, puis le fichier converti est téléchargé. Nous ne voyons jamais vos fichiers.
Nous prenons en charge la conversion entre tous les formats d'image, y compris JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, et plus encore.
Ce convertisseur est complètement gratuit, et le restera toujours. Parce qu'il fonctionne dans votre navigateur, nous n'avons pas besoin de payer pour des serveurs, donc nous n'avons pas besoin de vous faire payer.
Oui ! Vous pouvez convertir autant de fichiers que vous voulez simultanément. Il suffit de sélectionner plusieurs fichiers lorsque vous les ajoutez.