La reconnaissance optique de caractères (OCR) transforme les images de texte (scans, photos de smartphone, PDF) en chaînes de caractères lisibles par machine et, de plus en plus, en données structurées. L'OCR moderne est un pipeline qui nettoie une image, trouve du texte, le lit et exporte des métadonnées riches afin que les systèmes en aval puissent rechercher, indexer ou extraire des champs. Deux normes de sortie largement utilisées sont hOCR, un microformat HTML pour le texte et la mise en page, et ALTO XML, un schéma orienté bibliothèque/archives ; tous deux préservent les positions, l'ordre de lecture et d'autres indices de mise en page et sont pris en charge par des moteurs populaires comme Tesseract.
Prétraitement. La qualité de l'OCR commence par le nettoyage de l'image : conversion en niveaux de gris, débruitage, seuillage (binarisation) et redressement. Les tutoriels canoniques d'OpenCV couvrent le seuillage global, adaptatif et d'Otsu — des incontournables pour les documents avec un éclairage non uniforme ou des histogrammes bimodaux. Lorsque l'éclairage varie au sein d'une page (pensez aux photos de téléphone), les méthodes adaptatives surpassent souvent un seuil global unique ; Otsu choisit automatiquement un seuil en analysant l'histogramme. La correction de l'inclinaison est tout aussi importante : le redressement basé sur Hough (Transformée de Hough) associé à la binarisation d'Otsu est une recette courante et efficace dans les pipelines de prétraitement de production.
Détection vs. reconnaissance. L'OCR est généralement divisé en détection de texte (où se trouve le texte ?) et reconnaissance de texte (que dit-il ?). Dans les scènes naturelles et de nombreux scans, les détecteurs entièrement convolutifs comme EAST prédisent efficacement des quadrilatères au niveau du mot ou de la ligne sans étapes de proposition lourdes et sont implémentés dans des boîtes à outils courantes (par exemple, le tutoriel de détection de texte d'OpenCV). Sur les pages complexes (journaux, formulaires, livres), la segmentation des lignes/régions et l'inférence de l'ordre de lecture sont importantes :Kraken implémente la segmentation traditionnelle de zones/lignes et la segmentation neuronale de ligne de base, avec un support explicite pour différents scripts et directions (LTR/RTL/vertical).
Modèles de reconnaissance. Le classique cheval de bataille open-source Tesseract (open-sourcé par Google, avec des racines chez HP) a évolué d'un classifieur de caractères en un reconnaisseur de séquence basé sur LSTM et peut émettre des PDF consultables, des sorties compatibles hOCR/ALTO, et plus encore depuis la CLI. Les reconnaisseurs modernes s'appuient sur la modélisation de séquence sans caractères pré-segmentés. La classification temporelle connexionniste (CTC) reste fondamentale, apprenant les alignements entre les séquences de caractéristiques d'entrée et les chaînes d'étiquettes de sortie ; elle est largement utilisée dans les pipelines d'écriture manuscrite et de texte de scène.
Ces dernières années, les Transformers ont remodelé l'OCR. TrOCR utilise un encodeur Vision Transformer plus un décodeur Text Transformer, entraîné sur de grands corpus synthétiques puis affiné sur des données réelles, avec de solides performances sur les benchmarks de texte imprimé, manuscrit et de scène (voir aussi la documentation de Hugging Face). En parallèle, certains systèmes contournent l'OCR pour la compréhension en aval : Donut (Document Understanding Transformer) est un encodeur-décodeur sans OCR qui produit directement des réponses structurées (comme du JSON clé-valeur) à partir d'images de documents (repo, carte de modèle), évitant l'accumulation d'erreurs lorsqu'une étape OCR distincte alimente un système d'IE.
Si vous voulez une lecture de texte clés en main sur de nombreux scripts, EasyOCR offre une API simple avec plus de 80 modèles linguistiques, renvoyant des boîtes, du texte et des confiances — pratique pour les prototypes et les scripts non latins. Pour les documents historiques, Kraken brille par sa segmentation de ligne de base et son ordre de lecture sensible au script ; pour un entraînement flexible au niveau de la ligne, Calamari s'appuie sur la lignée d'Ocropy (Ocropy) avec des reconnaisseurs (multi-)LSTM+CTC et une CLI pour affiner des modèles personnalisés.
La généralisation dépend des données. Pour l'écriture manuscrite, la base de données d'écriture manuscrite IAM fournit des phrases en anglais de divers scripteurs pour l'entraînement et l'évaluation ; c'est un ensemble de référence de longue date pour la reconnaissance de lignes et de mots. Pour le texte de scène, COCO-Text a superposé des annotations étendues sur MS-COCO, avec des étiquettes pour l'imprimé/manuscrit, lisible/illisible, le script et les transcriptions complètes (voir aussi la page originale du projet). Le domaine s'appuie également fortement sur le pré-entraînement synthétique : SynthText in the Wild rend le texte dans des photographies avec une géométrie et un éclairage réalistes, fournissant d'énormes volumes de données pour pré-entraîner les détecteurs et les reconnaisseurs (référence code et données).
Les compétitions sous l'égide de la lecture robuste d'ICDAR maintiennent l'évaluation sur le terrain. Les tâches récentes mettent l'accent sur la détection/lecture de bout en bout et incluent la liaison de mots en phrases, avec le code officiel rapportant précision/rappel/F-score, l'intersection sur l'union (IoU) et les métriques de distance d'édition au niveau du caractère — reflétant ce que les praticiens devraient suivre.
L'OCR se termine rarement par du texte brut. Les archives et les bibliothèques numériques préfèrent ALTO XML car il encode la mise en page physique (blocs/lignes/mots avec coordonnées) ainsi que le contenu, et il se marie bien avec l'empaquetage METS. Le microformat hOCR , en revanche, intègre la même idée dans HTML/CSS en utilisant des classes comme ocr_line et ocrx_word, ce qui facilite l'affichage, la modification et la transformation avec des outils web. Tesseract expose les deux — par exemple, en générant du hOCR ou des PDF consultables directement depuis la CLI (guide de sortie PDF) ; les wrappers Python comme pytesseract ajoutent de la commodité. Il existe des convertisseurs pour traduire entre hOCR et ALTO lorsque les dépôts ont des normes d'ingestion fixes — voir cette liste organisée d' outils de format de fichier OCR.
La tendance la plus forte est la convergence : la détection, la reconnaissance, la modélisation du langage et même le décodage spécifique à la tâche fusionnent dans des piles de Transformers unifiées. Le pré-entraînement sur de grands corpus synthétiques reste un multiplicateur de force. Les modèles sans OCR seront en concurrence agressive partout où la cible est des sorties structurées plutôt que des transcriptions littérales. Attendez-vous également à des déploiements hybrides : un détecteur léger plus un reconnaisseur de style TrOCR pour le texte long, et un modèle de style Donut pour les formulaires et les reçus.
Tesseract (GitHub) · Documentation de Tesseract · Spécification hOCR · Contexte ALTO · Détecteur EAST · Détection de texte OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Écriture manuscrite IAM · Outils de format de fichier OCR · EasyOCR
La reconnaissance optique de caractères (OCR) est une technologie utilisée pour convertir différents types de documents, tels que des documents papier numérisés, des fichiers PDF ou des images capturées par un appareil photo numérique, en données modifiables et recherchables.
L'OCR fonctionne en numérisant une image ou un document d'entrée, en segmentant l'image en caractères individuels, et en comparant chaque caractère avec une base de données de formes de caractères en utilisant la reconnaissance de formes ou la reconnaissance de caractéristiques.
L'OCR est utilisé dans une variété de secteurs et d'applications, y compris la numérisation de documents imprimés, l'activation des services de texte en parole, l'automatisation des processus de saisie de données, et l'aide aux utilisateurs malvoyants pour mieux interagir avec le texte.
Bien que des progrès importants aient été faits dans la technologie OCR, elle n'est pas infaillible. La précision peut varier en fonction de la qualité du document original et des spécificités du logiciel OCR utilisé.
Bien que l'OCR soit principalement conçu pour le texte imprimé, certains systèmes OCR avancés sont également capables de reconnaître une écriture manuelle claire et cohérente. Cependant, la reconnaissance de l'écriture manuelle est généralement moins précise en raison de la grande variation des styles d'écriture individuels.
Oui, de nombreux systèmes logiciels OCR peuvent reconnaître plusieurs langues. Cependant, il est important de s'assurer que la langue spécifique est prise en charge par le logiciel que vous utilisez.
OCR signifie Optical Character Recognition et est utilisé pour reconnaître le texte imprimé, tandis que ICR, ou Intelligent Character Recognition, est plus avancé et est utilisé pour reconnaître le texte écrit à la main.
L'OCR fonctionne mieux avec des polices claires et faciles à lire et des tailles de texte standard. Bien qu'il puisse fonctionner avec différentes polices et tailles, la précision a tendance à diminuer lorsqu'on traite des polices inhabituelles ou des tailles de texte très petites.
L'OCR peut avoir du mal avec les documents de faible résolution, les polices complexes, les textes mal imprimés, l'écriture manuelle, et les documents avec des arrière-plans qui interfèrent avec le texte. De plus, bien qu'il puisse fonctionner avec de nombreuses langues, il ne couvre peut-être pas parfaitement toutes les langues.
Oui, l'OCR peut numériser du texte en couleur et des arrière-plans en couleur, bien qu'il soit généralement plus efficace avec des combinaisons de couleurs à contraste élevé, comme le texte noir sur un fond blanc. La précision peut diminuer lorsque les couleurs du texte et de l'arrière-plan manquent de contraste suffisant.
Le format d'image JPS, abréviation de JPEG Stereo, est un format de fichier utilisé pour stocker des photographies stéréoscopiques prises par des appareils photo numériques ou créées par un logiciel de rendu 3D. Il s'agit essentiellement d'un arrangement côte à côte de deux images JPEG dans un seul fichier qui, lorsqu'il est visualisé à l'aide d'un logiciel ou d'un matériel approprié, fournit un effet 3D. Ce format est particulièrement utile pour créer une illusion de profondeur dans les images, ce qui améliore l'expérience visuelle pour les utilisateurs disposant de systèmes d'affichage compatibles ou de lunettes 3D.
Le format JPS exploite la technique de compression JPEG (Joint Photographic Experts Group) bien établie pour stocker les deux images. JPEG est une méthode de compression avec perte, ce qui signifie qu'elle réduit la taille du fichier en supprimant sélectivement les informations moins importantes, souvent sans diminution notable de la qualité de l'image pour l'œil humain. Cela rend les fichiers JPS relativement petits et faciles à gérer, même s'ils contiennent deux images au lieu d'une.
Un fichier JPS est essentiellement un fichier JPEG avec une structure spécifique. Il contient deux images compressées JPEG côte à côte dans un seul cadre. Ces images sont appelées images de l'œil gauche et de l'œil droit, et elles représentent des perspectives légèrement différentes de la même scène, imitant la légère différence entre ce que chacun de nos yeux voit. Cette différence est ce qui permet la perception de la profondeur lorsque les images sont visualisées correctement.
La résolution standard pour une image JPS est généralement le double de la largeur d'une image JPEG standard pour accueillir les images de gauche et de droite. Par exemple, si une image JPEG standard a une résolution de 1920x1080 pixels, une image JPS aura une résolution de 3840x1080 pixels, chaque image côte à côte occupant la moitié de la largeur totale. Cependant, la résolution peut varier en fonction de la source de l'image et de l'utilisation prévue.
Pour visualiser une image JPS en 3D, un spectateur doit utiliser un périphérique d'affichage ou un logiciel compatible capable d'interpréter les images côte à côte et de les présenter à chaque œil séparément. Cela peut être réalisé par diverses méthodes, telles que l'anaglyphe 3D, où les images sont filtrées par couleur et visualisées avec des lunettes colorées ; la polarisation 3D, où les images sont projetées à travers des filtres polarisés et visualisées avec des lunettes polarisées ; ou l'obturateur actif 3D, où les images sont affichées en alternance et synchronisées avec des lunettes à obturateur qui s'ouvrent et se ferment rapidement pour montrer à chaque œil l'image correcte.
La structure de fichier d'une image JPS est similaire à celle d'un fichier JPEG standard. Il contient un en-tête, qui comprend le marqueur SOI (Start of Image), suivi d'une série de segments qui contiennent divers éléments de métadonnées et les données d'image elles-mêmes. Les segments incluent les marqueurs APP (Application), qui peuvent contenir des informations telles que les métadonnées Exif, et le segment DQT (Define Quantization Table), qui définit les tables de quantification utilisées pour compresser les données d'image.
L'un des segments clés d'un fichier JPS est le segment JFIF (JPEG File Interchange Format), qui spécifie que le fichier est conforme à la norme JFIF. Ce segment est important pour assurer la compatibilité avec une large gamme de logiciels et de matériels. Il comprend également des informations telles que le rapport hauteur/largeur et la résolution de l'image miniature, qui peuvent être utilisées pour des aperçus rapides.
Les données d'image réelles dans un fichier JPS sont stockées dans le segment SOS (Start of Scan), qui suit les segments d'en-tête et de métadonnées. Ce segment contient les données d'image compressées pour les images de gauche et de droite. Les données sont encodées à l'aide de l'algorithme de compression JPEG, qui implique une série d'étapes, notamment la conversion de l'espace colorimétrique, le sous-échantillonnage, la transformée en cosinus discrète (DCT), la quantification et le codage entropique.
La conversion de l'espace colorimétrique est le processus de conversion des données d'image de l'espace colorimétrique RVB, qui est couramment utilisé dans les appareils photo numériques et les écrans d'ordinateur, vers l'espace colorimétrique YCbCr, qui est utilisé dans la compression JPEG. Cette conversion sépare l'image en une composante de luminance (Y), qui représente les niveaux de luminosité, et deux composantes de chrominance (Cb et Cr), qui représentent les informations de couleur. Ceci est bénéfique pour la compression car l'œil humain est plus sensible aux changements de luminosité qu'à la couleur, permettant une compression plus agressive des composantes de chrominance sans affecter de manière significative la qualité de l'image perçue.
Le sous-échantillonnage est un processus qui tire parti de la sensibilité moindre de l'œil humain aux détails de couleur en réduisant la résolution des composantes de chrominance par rapport à la composante de luminance. Les rapports de sous-échantillonnage courants incluent 4:4:4 (pas de sous-échantillonnage), 4:2:2 (réduction de la résolution horizontale de la chrominance de moitié) et 4:2:0 (réduction de la résolution horizontale et verticale de la chrominance de moitié). Le choix du rapport de sous-échantillonnage peut affecter l'équilibre entre la qualité de l'image et la taille du fichier.
La transformée en cosinus discrète (DCT) est appliquée à de petits blocs de l'image (généralement 8x8 pixels) pour convertir les données du domaine spatial en domaine fréquentiel. Cette étape est cruciale pour la compression JPEG car elle permet la séparation des détails de l'image en composants d'importance variable, les composants de fréquence plus élevée étant souvent moins perceptibles pour l'œil humain. Ces composants peuvent ensuite être quantifiés, ou réduits en précision, pour obtenir une compression.
La quantification est le processus de mappage d'une plage de valeurs à une seule valeur quantique, réduisant ainsi efficacement la précision des coefficients DCT. C'est là que la nature avec perte de la compression JPEG entre en jeu, car certaines informations d'image sont supprimées. Le degré de quantification est déterminé par les tables de quantification spécifiées dans le segment DQT, et il peut être ajusté pour équilibrer la qualité de l'image par rapport à la taille du fichier.
La dernière étape du processus de compression JPEG est le codage entropique, qui est une forme de compression sans perte. La méthode la plus courante utilisée dans JPEG est le codage de Huffman, qui attribue des codes plus courts aux valeurs les plus fréquentes et des codes plus longs aux valeurs les moins fréquentes. Cela réduit la taille globale des données d'image sans aucune perte d'information supplémentaire.
En plus des techniques de compression JPEG standard, le format JPS peut également inclure des métadonnées spécifiques liées à la nature stéréoscopique des images. Ces métadonnées peuvent inclure des informations sur les paramètres de parallaxe, les points de convergence et toute autre donnée pouvant être nécessaire pour afficher correctement l'effet 3D. Ces métadonnées sont généralement stockées dans les segments APP du fichier.
Le format JPS est pris en charge par une variété d'applications logicielles et d'appareils, notamment les téléviseurs 3D, les casques VR et les visionneuses de photos spécialisées. Cependant, il n'est pas aussi largement pris en charge que le format JPEG standard, de sorte que les utilisateurs peuvent avoir besoin d'utiliser un logiciel spécifique ou de convertir les fichiers JPS dans un autre format pour une compatibilité plus large.
L'un des défis du format JPS est de s'assurer que les images de gauche et de droite sont correctement alignées et ont la bonne parallaxe. Un mauvais alignement ou une parallaxe incorrecte peut entraîner une expérience visuelle inconfortable et peut provoquer une fatigue oculaire ou des maux de tête. Par conséquent, il est important que les photographes et les artistes 3D capturent ou créent soigneusement les images avec les paramètres stéréoscopiques corrects.
En conclusion, le format d'image JPS est un format de fichier spécialisé conçu pour stocker et afficher des images stéréoscopiques. Il s'appuie sur les techniques de compression JPEG établies pour créer un moyen compact et efficace de stocker des photographies 3D. Bien qu'il offre une expérience visuelle unique, le format nécessite un matériel ou un logiciel compatible pour visualiser les images en 3D, et il peut présenter des défis en termes d'alignement et de parallaxe. Malgré ces défis, le format JPS reste un outil précieux pour les photographes, les artistes 3D et les passionnés qui souhaitent capturer et partager la profondeur et le réalisme du monde dans un format numérique.
Ce convertisseur fonctionne entièrement dans votre navigateur. Lorsque vous sélectionnez un fichier, il est lu en mémoire et converti dans le format sélectionné. Vous pouvez ensuite télécharger le fichier converti.
Les conversions commencent instantanément, et la plupart des fichiers sont convertis en moins d'une seconde. Les fichiers plus volumineux peuvent prendre plus de temps.
Vos fichiers ne sont jamais téléversés vers nos serveurs. Ils sont convertis dans votre navigateur, puis le fichier converti est téléchargé. Nous ne voyons jamais vos fichiers.
Nous prenons en charge la conversion entre tous les formats d'image, y compris JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, et plus encore.
Ce convertisseur est complètement gratuit, et le restera toujours. Parce qu'il fonctionne dans votre navigateur, nous n'avons pas besoin de payer pour des serveurs, donc nous n'avons pas besoin de vous faire payer.
Oui ! Vous pouvez convertir autant de fichiers que vous voulez simultanément. Il suffit de sélectionner plusieurs fichiers lorsque vous les ajoutez.