La reconnaissance optique de caractères (OCR) transforme les images de texte (scans, photos de smartphone, PDF) en chaînes de caractères lisibles par machine et, de plus en plus, en données structurées. L'OCR moderne est un pipeline qui nettoie une image, trouve du texte, le lit et exporte des métadonnées riches afin que les systèmes en aval puissent rechercher, indexer ou extraire des champs. Deux normes de sortie largement utilisées sont hOCR, un microformat HTML pour le texte et la mise en page, et ALTO XML, un schéma orienté bibliothèque/archives ; tous deux préservent les positions, l'ordre de lecture et d'autres indices de mise en page et sont pris en charge par des moteurs populaires comme Tesseract.
Prétraitement. La qualité de l'OCR commence par le nettoyage de l'image : conversion en niveaux de gris, débruitage, seuillage (binarisation) et redressement. Les tutoriels canoniques d'OpenCV couvrent le seuillage global, adaptatif et d'Otsu — des incontournables pour les documents avec un éclairage non uniforme ou des histogrammes bimodaux. Lorsque l'éclairage varie au sein d'une page (pensez aux photos de téléphone), les méthodes adaptatives surpassent souvent un seuil global unique ; Otsu choisit automatiquement un seuil en analysant l'histogramme. La correction de l'inclinaison est tout aussi importante : le redressement basé sur Hough (Transformée de Hough) associé à la binarisation d'Otsu est une recette courante et efficace dans les pipelines de prétraitement de production.
Détection vs. reconnaissance. L'OCR est généralement divisé en détection de texte (où se trouve le texte ?) et reconnaissance de texte (que dit-il ?). Dans les scènes naturelles et de nombreux scans, les détecteurs entièrement convolutifs comme EAST prédisent efficacement des quadrilatères au niveau du mot ou de la ligne sans étapes de proposition lourdes et sont implémentés dans des boîtes à outils courantes (par exemple, le tutoriel de détection de texte d'OpenCV). Sur les pages complexes (journaux, formulaires, livres), la segmentation des lignes/régions et l'inférence de l'ordre de lecture sont importantes :Kraken implémente la segmentation traditionnelle de zones/lignes et la segmentation neuronale de ligne de base, avec un support explicite pour différents scripts et directions (LTR/RTL/vertical).
Modèles de reconnaissance. Le classique cheval de bataille open-source Tesseract (open-sourcé par Google, avec des racines chez HP) a évolué d'un classifieur de caractères en un reconnaisseur de séquence basé sur LSTM et peut émettre des PDF consultables, des sorties compatibles hOCR/ALTO, et plus encore depuis la CLI. Les reconnaisseurs modernes s'appuient sur la modélisation de séquence sans caractères pré-segmentés. La classification temporelle connexionniste (CTC) reste fondamentale, apprenant les alignements entre les séquences de caractéristiques d'entrée et les chaînes d'étiquettes de sortie ; elle est largement utilisée dans les pipelines d'écriture manuscrite et de texte de scène.
Ces dernières années, les Transformers ont remodelé l'OCR. TrOCR utilise un encodeur Vision Transformer plus un décodeur Text Transformer, entraîné sur de grands corpus synthétiques puis affiné sur des données réelles, avec de solides performances sur les benchmarks de texte imprimé, manuscrit et de scène (voir aussi la documentation de Hugging Face). En parallèle, certains systèmes contournent l'OCR pour la compréhension en aval : Donut (Document Understanding Transformer) est un encodeur-décodeur sans OCR qui produit directement des réponses structurées (comme du JSON clé-valeur) à partir d'images de documents (repo, carte de modèle), évitant l'accumulation d'erreurs lorsqu'une étape OCR distincte alimente un système d'IE.
Si vous voulez une lecture de texte clés en main sur de nombreux scripts, EasyOCR offre une API simple avec plus de 80 modèles linguistiques, renvoyant des boîtes, du texte et des confiances — pratique pour les prototypes et les scripts non latins. Pour les documents historiques, Kraken brille par sa segmentation de ligne de base et son ordre de lecture sensible au script ; pour un entraînement flexible au niveau de la ligne, Calamari s'appuie sur la lignée d'Ocropy (Ocropy) avec des reconnaisseurs (multi-)LSTM+CTC et une CLI pour affiner des modèles personnalisés.
La généralisation dépend des données. Pour l'écriture manuscrite, la base de données d'écriture manuscrite IAM fournit des phrases en anglais de divers scripteurs pour l'entraînement et l'évaluation ; c'est un ensemble de référence de longue date pour la reconnaissance de lignes et de mots. Pour le texte de scène, COCO-Text a superposé des annotations étendues sur MS-COCO, avec des étiquettes pour l'imprimé/manuscrit, lisible/illisible, le script et les transcriptions complètes (voir aussi la page originale du projet). Le domaine s'appuie également fortement sur le pré-entraînement synthétique : SynthText in the Wild rend le texte dans des photographies avec une géométrie et un éclairage réalistes, fournissant d'énormes volumes de données pour pré-entraîner les détecteurs et les reconnaisseurs (référence code et données).
Les compétitions sous l'égide de la lecture robuste d'ICDAR maintiennent l'évaluation sur le terrain. Les tâches récentes mettent l'accent sur la détection/lecture de bout en bout et incluent la liaison de mots en phrases, avec le code officiel rapportant précision/rappel/F-score, l'intersection sur l'union (IoU) et les métriques de distance d'édition au niveau du caractère — reflétant ce que les praticiens devraient suivre.
L'OCR se termine rarement par du texte brut. Les archives et les bibliothèques numériques préfèrent ALTO XML car il encode la mise en page physique (blocs/lignes/mots avec coordonnées) ainsi que le contenu, et il se marie bien avec l'empaquetage METS. Le microformat hOCR , en revanche, intègre la même idée dans HTML/CSS en utilisant des classes comme ocr_line et ocrx_word, ce qui facilite l'affichage, la modification et la transformation avec des outils web. Tesseract expose les deux — par exemple, en générant du hOCR ou des PDF consultables directement depuis la CLI (guide de sortie PDF) ; les wrappers Python comme pytesseract ajoutent de la commodité. Il existe des convertisseurs pour traduire entre hOCR et ALTO lorsque les dépôts ont des normes d'ingestion fixes — voir cette liste organisée d' outils de format de fichier OCR.
La tendance la plus forte est la convergence : la détection, la reconnaissance, la modélisation du langage et même le décodage spécifique à la tâche fusionnent dans des piles de Transformers unifiées. Le pré-entraînement sur de grands corpus synthétiques reste un multiplicateur de force. Les modèles sans OCR seront en concurrence agressive partout où la cible est des sorties structurées plutôt que des transcriptions littérales. Attendez-vous également à des déploiements hybrides : un détecteur léger plus un reconnaisseur de style TrOCR pour le texte long, et un modèle de style Donut pour les formulaires et les reçus.
Tesseract (GitHub) · Documentation de Tesseract · Spécification hOCR · Contexte ALTO · Détecteur EAST · Détection de texte OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Écriture manuscrite IAM · Outils de format de fichier OCR · EasyOCR
La reconnaissance optique de caractères (OCR) est une technologie utilisée pour convertir différents types de documents, tels que des documents papier numérisés, des fichiers PDF ou des images capturées par un appareil photo numérique, en données modifiables et recherchables.
L'OCR fonctionne en numérisant une image ou un document d'entrée, en segmentant l'image en caractères individuels, et en comparant chaque caractère avec une base de données de formes de caractères en utilisant la reconnaissance de formes ou la reconnaissance de caractéristiques.
L'OCR est utilisé dans une variété de secteurs et d'applications, y compris la numérisation de documents imprimés, l'activation des services de texte en parole, l'automatisation des processus de saisie de données, et l'aide aux utilisateurs malvoyants pour mieux interagir avec le texte.
Bien que des progrès importants aient été faits dans la technologie OCR, elle n'est pas infaillible. La précision peut varier en fonction de la qualité du document original et des spécificités du logiciel OCR utilisé.
Bien que l'OCR soit principalement conçu pour le texte imprimé, certains systèmes OCR avancés sont également capables de reconnaître une écriture manuelle claire et cohérente. Cependant, la reconnaissance de l'écriture manuelle est généralement moins précise en raison de la grande variation des styles d'écriture individuels.
Oui, de nombreux systèmes logiciels OCR peuvent reconnaître plusieurs langues. Cependant, il est important de s'assurer que la langue spécifique est prise en charge par le logiciel que vous utilisez.
OCR signifie Optical Character Recognition et est utilisé pour reconnaître le texte imprimé, tandis que ICR, ou Intelligent Character Recognition, est plus avancé et est utilisé pour reconnaître le texte écrit à la main.
L'OCR fonctionne mieux avec des polices claires et faciles à lire et des tailles de texte standard. Bien qu'il puisse fonctionner avec différentes polices et tailles, la précision a tendance à diminuer lorsqu'on traite des polices inhabituelles ou des tailles de texte très petites.
L'OCR peut avoir du mal avec les documents de faible résolution, les polices complexes, les textes mal imprimés, l'écriture manuelle, et les documents avec des arrière-plans qui interfèrent avec le texte. De plus, bien qu'il puisse fonctionner avec de nombreuses langues, il ne couvre peut-être pas parfaitement toutes les langues.
Oui, l'OCR peut numériser du texte en couleur et des arrière-plans en couleur, bien qu'il soit généralement plus efficace avec des combinaisons de couleurs à contraste élevé, comme le texte noir sur un fond blanc. La précision peut diminuer lorsque les couleurs du texte et de l'arrière-plan manquent de contraste suffisant.
JPEG, qui signifie Joint Photographic Experts Group, est une méthode de compression avec perte couramment utilisée pour les images numériques, en particulier pour celles produites par la photographie numérique. Le degré de compression peut être ajusté, permettant un compromis sélectionnable entre la taille de stockage et la qualité de l'image. JPEG atteint généralement une compression de 10:1 avec une perte de qualité d'image peu perceptible. L'algorithme de compression JPEG est au cœur du format de fichier JPEG, qui est formellement connu sous le nom de JPEG Interchange Format (JIF). Cependant, le terme « JPEG » est souvent utilisé pour désigner le format de fichier qui est en réalité standardisé comme JPEG File Interchange Format (JFIF).
Le format JPEG prend en charge divers espaces colorimétriques, mais le plus courant utilisé dans la photographie numérique et les graphiques Web est la couleur 24 bits, qui comprend 8 bits chacun pour les composants rouge, vert et bleu (RVB). Cela permet d'obtenir plus de 16 millions de couleurs différentes, offrant une qualité d'image riche et éclatante adaptée à un large éventail d'applications. Les fichiers JPEG peuvent également prendre en charge les images en niveaux de gris et les espaces colorimétriques tels que YCbCr, qui est souvent utilisé dans la compression vidéo.
L'algorithme de compression JPEG est basé sur la transformée en cosinus discrète (DCT), qui est un type de transformée de Fourier. La DCT est appliquée à de petits blocs de l'image, généralement des pixels 8x8, transformant les données du domaine spatial en données du domaine fréquentiel. Ce processus est avantageux car il tend à concentrer l'énergie de l'image dans quelques composants basse fréquence, qui sont plus importants pour l'apparence globale de l'image, tandis que les composants haute fréquence, qui contribuent aux détails fins et peuvent être supprimés avec moins d'impact sur la qualité perçue, sont réduits.
Après l'application de la DCT, les coefficients résultants sont quantifiés. La quantification est le processus de mappage d'un grand ensemble de valeurs d'entrée vers un ensemble plus petit, réduisant efficacement la précision des coefficients DCT. C'est là que l'aspect avec perte de JPEG entre en jeu. Le degré de quantification est déterminé par une table de quantification, qui peut être ajustée pour équilibrer la qualité de l'image et le taux de compression. Un niveau de quantification plus élevé entraîne une compression plus élevée et une qualité d'image inférieure, tandis qu'un niveau de quantification inférieur entraîne une compression plus faible et une qualité d'image supérieure.
Une fois les coefficients quantifiés, ils sont ensuite sérialisés dans un ordre en zigzag, en commençant par le coin supérieur gauche et en suivant un motif en zigzag à travers le bloc 8x8. Cette étape est conçue pour placer les coefficients basse fréquence au début du bloc et les coefficients haute fréquence vers la fin. Étant donné que de nombreux coefficients haute fréquence sont susceptibles d'être nuls ou proches de zéro après la quantification, cet ordre aide à compresser davantage les données en regroupant des valeurs similaires.
L'étape suivante du processus de compression JPEG est le codage entropique, qui est une méthode de compression sans perte. La forme la plus courante de codage entropique utilisée dans JPEG est le codage de Huffman, bien que le codage arithmétique soit également une option. Le codage de Huffman fonctionne en attribuant des codes plus courts aux valeurs les plus fréquentes et des codes plus longs aux valeurs les moins fréquentes. Étant donné que les coefficients DCT quantifiés sont ordonnés de manière à regrouper les zéros et les valeurs basse fréquence, le codage de Huffman peut réduire efficacement la taille des données.
Le format de fichier JPEG permet également de stocker des métadonnées dans le fichier, telles que les données Exif qui incluent des informations sur les paramètres de l'appareil photo, la date et l'heure de la capture et d'autres détails pertinents. Ces métadonnées sont stockées dans des segments spécifiques à l'application du fichier JPEG, qui peuvent être lus par divers logiciels pour afficher ou traiter les informations de l'image.
L'une des principales caractéristiques du format JPEG est sa prise en charge de l'encodage progressif. Dans un JPEG progressif, l'image est encodée en plusieurs passes de détails croissants. Cela signifie que même si l'image n'a pas été entièrement téléchargée, une version approximative de l'image entière peut être affichée, qui s'améliore progressivement en qualité à mesure que davantage de données sont reçues. Ceci est particulièrement utile pour les images Web, permettant aux utilisateurs d'avoir une idée du contenu de l'image sans avoir à attendre que le fichier entier soit téléchargé.
Malgré son utilisation répandue et ses nombreux avantages, le format JPEG présente certaines limites. L'un des plus importants est le problème des artefacts, qui sont des distorsions ou des anomalies visuelles qui peuvent survenir à la suite de la compression avec perte. Ces artefacts peuvent inclure le flou, le blocage et la « sonnerie » autour des bords. La visibilité des artefacts est influencée par le niveau de compression et le contenu de l'image. Les images avec des dégradés lisses ou des changements de couleur subtils sont plus susceptibles de présenter des artefacts de compression.
Une autre limitation de JPEG est qu'il ne prend pas en charge la transparence ou les canaux alpha. Cela signifie que les images JPEG ne peuvent pas avoir d'arrière-plans transparents, ce qui peut être un inconvénient pour certaines applications telles que la conception Web, où la superposition d'images sur différents arrière-plans est courante. À ces fins, des formats comme PNG ou GIF, qui prennent en charge la transparence, sont souvent utilisés à la place.
JPEG ne prend pas non plus en charge les calques ou l'animation. Contrairement aux formats tels que TIFF pour les calques ou GIF pour l'animation, JPEG est strictement un format à image unique. Cela le rend inadapté aux images qui nécessitent une édition en calques ou à la création d'images animées. Pour les utilisateurs qui ont besoin de travailler avec des calques ou des animations, ils doivent utiliser d'autres formats pendant le processus d'édition et peuvent ensuite convertir en JPEG pour distribution si nécessaire.
Malgré ces limitations, JPEG reste l'un des formats d'image les plus populaires en raison de sa compression efficace et de sa compatibilité avec pratiquement tous les logiciels de visualisation et d'édition d'images. Il est particulièrement bien adapté aux photographies et aux images complexes avec des tons et des couleurs continus. Pour une utilisation sur le Web, les images JPEG peuvent être optimisées pour équilibrer la qualité et la taille du fichier, ce qui les rend idéales pour des temps de chargement rapides tout en fournissant des résultats visuellement agréables.
Le format JPEG a également évolué au fil du temps avec le développement de variantes telles que JPEG 2000 et JPEG XR. JPEG 2000 offre une efficacité de compression améliorée, une meilleure gestion des artefacts d'image et la possibilité de gérer la transparence. JPEG XR, d'un autre côté, offre une meilleure compression à des niveaux de qualité plus élevés et prend en charge une plus large gamme de profondeurs de couleur et d'espaces colorimétriques. Cependant, ces nouveaux formats n'ont pas encore atteint le même niveau d'omniprésence que le format JPEG d'origine.
En conclusion, le format d'image JPEG est un format polyvalent et largement pris en charge qui établit un équilibre entre la qualité de l'image et la taille du fichier. Son utilisation de la DCT et de la quantification permet une réduction significative de la taille du fichier avec un impact personnalisable sur la qualité de l'image. Bien qu'il présente certaines limitations, telles que le manque de prise en charge de la transparence, des calques et de l'animation, ses avantages en termes de compatibilité et d'efficacité en font un élément de base de l'imagerie numérique. À mesure que la technologie progresse, de nouveaux formats peuvent offrir des améliorations, mais l'héritage et l'adoption généralisée de JPEG garantissent qu'il restera un élément fondamental de l'imagerie numérique dans un avenir prévisible.
Ce convertisseur fonctionne entièrement dans votre navigateur. Lorsque vous sélectionnez un fichier, il est lu en mémoire et converti dans le format sélectionné. Vous pouvez ensuite télécharger le fichier converti.
Les conversions commencent instantanément, et la plupart des fichiers sont convertis en moins d'une seconde. Les fichiers plus volumineux peuvent prendre plus de temps.
Vos fichiers ne sont jamais téléversés vers nos serveurs. Ils sont convertis dans votre navigateur, puis le fichier converti est téléchargé. Nous ne voyons jamais vos fichiers.
Nous prenons en charge la conversion entre tous les formats d'image, y compris JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, et plus encore.
Ce convertisseur est complètement gratuit, et le restera toujours. Parce qu'il fonctionne dans votre navigateur, nous n'avons pas besoin de payer pour des serveurs, donc nous n'avons pas besoin de vous faire payer.
Oui ! Vous pouvez convertir autant de fichiers que vous voulez simultanément. Il suffit de sélectionner plusieurs fichiers lorsque vous les ajoutez.