OCR de n'importe quel HDR

Déposez une photo, un scan ou un PDF (jusqu'à 2.5 Go). Nous extrayons le texte directement dans votre navigateur — gratuit, illimité et vos fichiers ne quittent jamais votre appareil.

Privé et sécurisé

Tout se passe dans votre navigateur. Vos fichiers ne touchent jamais nos serveurs.

Ultra rapide

Pas de téléchargement, pas d'attente. Convertissez au moment où vous déposez un fichier.

Vraiment gratuit

Aucun compte requis. Pas de coûts cachés. Pas d'astuces sur la taille des fichiers.

La reconnaissance optique de caractères (OCR) transforme les images de texte (scans, photos de smartphone, PDF) en chaînes de caractères lisibles par machine et, de plus en plus, en données structurées. L'OCR moderne est un pipeline qui nettoie une image, trouve du texte, le lit et exporte des métadonnées riches afin que les systèmes en aval puissent rechercher, indexer ou extraire des champs. Deux normes de sortie largement utilisées sont hOCR, un microformat HTML pour le texte et la mise en page, et ALTO XML, un schéma orienté bibliothèque/archives ; tous deux préservent les positions, l'ordre de lecture et d'autres indices de mise en page et sont pris en charge par des moteurs populaires comme Tesseract.

Un tour rapide du pipeline

Prétraitement. La qualité de l'OCR commence par le nettoyage de l'image : conversion en niveaux de gris, débruitage, seuillage (binarisation) et redressement. Les tutoriels canoniques d'OpenCV couvrent le seuillage global, adaptatif et d'Otsu — des incontournables pour les documents avec un éclairage non uniforme ou des histogrammes bimodaux. Lorsque l'éclairage varie au sein d'une page (pensez aux photos de téléphone), les méthodes adaptatives surpassent souvent un seuil global unique ; Otsu choisit automatiquement un seuil en analysant l'histogramme. La correction de l'inclinaison est tout aussi importante : le redressement basé sur Hough (Transformée de Hough) associé à la binarisation d'Otsu est une recette courante et efficace dans les pipelines de prétraitement de production.

Détection vs. reconnaissance. L'OCR est généralement divisé en détection de texte (où se trouve le texte ?) et reconnaissance de texte (que dit-il ?). Dans les scènes naturelles et de nombreux scans, les détecteurs entièrement convolutifs comme EAST prédisent efficacement des quadrilatères au niveau du mot ou de la ligne sans étapes de proposition lourdes et sont implémentés dans des boîtes à outils courantes (par exemple, le tutoriel de détection de texte d'OpenCV). Sur les pages complexes (journaux, formulaires, livres), la segmentation des lignes/régions et l'inférence de l'ordre de lecture sont importantes :Kraken implémente la segmentation traditionnelle de zones/lignes et la segmentation neuronale de ligne de base, avec un support explicite pour différents scripts et directions (LTR/RTL/vertical).

Modèles de reconnaissance. Le classique cheval de bataille open-source Tesseract (open-sourcé par Google, avec des racines chez HP) a évolué d'un classifieur de caractères en un reconnaisseur de séquence basé sur LSTM et peut émettre des PDF consultables, des sorties compatibles hOCR/ALTO, et plus encore depuis la CLI. Les reconnaisseurs modernes s'appuient sur la modélisation de séquence sans caractères pré-segmentés. La classification temporelle connexionniste (CTC) reste fondamentale, apprenant les alignements entre les séquences de caractéristiques d'entrée et les chaînes d'étiquettes de sortie ; elle est largement utilisée dans les pipelines d'écriture manuscrite et de texte de scène.

Ces dernières années, les Transformers ont remodelé l'OCR. TrOCR utilise un encodeur Vision Transformer plus un décodeur Text Transformer, entraîné sur de grands corpus synthétiques puis affiné sur des données réelles, avec de solides performances sur les benchmarks de texte imprimé, manuscrit et de scène (voir aussi la documentation de Hugging Face). En parallèle, certains systèmes contournent l'OCR pour la compréhension en aval : Donut (Document Understanding Transformer) est un encodeur-décodeur sans OCR qui produit directement des réponses structurées (comme du JSON clé-valeur) à partir d'images de documents (repo, carte de modèle), évitant l'accumulation d'erreurs lorsqu'une étape OCR distincte alimente un système d'IE.

Moteurs et bibliothèques

Si vous voulez une lecture de texte clés en main sur de nombreux scripts, EasyOCR offre une API simple avec plus de 80 modèles linguistiques, renvoyant des boîtes, du texte et des confiances — pratique pour les prototypes et les scripts non latins. Pour les documents historiques, Kraken brille par sa segmentation de ligne de base et son ordre de lecture sensible au script ; pour un entraînement flexible au niveau de la ligne, Calamari s'appuie sur la lignée d'Ocropy (Ocropy) avec des reconnaisseurs (multi-)LSTM+CTC et une CLI pour affiner des modèles personnalisés.

Ensembles de données et benchmarks

La généralisation dépend des données. Pour l'écriture manuscrite, la base de données d'écriture manuscrite IAM fournit des phrases en anglais de divers scripteurs pour l'entraînement et l'évaluation ; c'est un ensemble de référence de longue date pour la reconnaissance de lignes et de mots. Pour le texte de scène, COCO-Text a superposé des annotations étendues sur MS-COCO, avec des étiquettes pour l'imprimé/manuscrit, lisible/illisible, le script et les transcriptions complètes (voir aussi la page originale du projet). Le domaine s'appuie également fortement sur le pré-entraînement synthétique : SynthText in the Wild rend le texte dans des photographies avec une géométrie et un éclairage réalistes, fournissant d'énormes volumes de données pour pré-entraîner les détecteurs et les reconnaisseurs (référence code et données).

Les compétitions sous l'égide de la lecture robuste d'ICDAR maintiennent l'évaluation sur le terrain. Les tâches récentes mettent l'accent sur la détection/lecture de bout en bout et incluent la liaison de mots en phrases, avec le code officiel rapportant précision/rappel/F-score, l'intersection sur l'union (IoU) et les métriques de distance d'édition au niveau du caractère — reflétant ce que les praticiens devraient suivre.

Formats de sortie et utilisation en aval

L'OCR se termine rarement par du texte brut. Les archives et les bibliothèques numériques préfèrent ALTO XML car il encode la mise en page physique (blocs/lignes/mots avec coordonnées) ainsi que le contenu, et il se marie bien avec l'empaquetage METS. Le microformat hOCR , en revanche, intègre la même idée dans HTML/CSS en utilisant des classes comme ocr_line et ocrx_word, ce qui facilite l'affichage, la modification et la transformation avec des outils web. Tesseract expose les deux — par exemple, en générant du hOCR ou des PDF consultables directement depuis la CLI (guide de sortie PDF) ; les wrappers Python comme pytesseract ajoutent de la commodité. Il existe des convertisseurs pour traduire entre hOCR et ALTO lorsque les dépôts ont des normes d'ingestion fixes — voir cette liste organisée d' outils de format de fichier OCR.

Conseils pratiques

  • Commencez par les données et la propreté. Si vos images sont des photos de téléphone ou des scans de qualité mixte, investissez dans le seuillage (adaptatif et Otsu) et le redressement (Hough) avant tout réglage de modèle. Vous gagnerez souvent plus d'une recette de prétraitement robuste que de changer de reconnaisseurs.
  • Choisissez le bon détecteur. Pour les pages numérisées avec des colonnes régulières, un segmenteur de page (zones → lignes) peut suffire ; pour les images naturelles, les détecteurs à un seul coup comme EAST sont de solides bases de référence et se branchent sur de nombreuses boîtes à outils (exemple OpenCV).
  • Choisissez un reconnaisseur qui correspond à votre texte. Pour le latin imprimé, Tesseract (LSTM/OEM) est robuste et rapide ; pour les multi-scripts ou les prototypes rapides, EasyOCR est productif ; pour l'écriture manuscrite ou les polices de caractères historiques, envisagez Kraken ou Calamari et prévoyez un réglage fin. Si vous avez besoin d'un couplage étroit avec la compréhension de documents (extraction clé-valeur, VQA), évaluez TrOCR (OCR) par rapport à Donut (sans OCR) sur votre schéma — Donut peut supprimer une étape d'intégration entière.
  • Mesurez ce qui compte. Pour les systèmes de bout en bout, rapportez la détection F-score et la reconnaissance CER/WER (tous deux basés sur la distance d'édition de Levenshtein ; voir CTC) ; pour les tâches lourdes en mise en page, suivez l'IoU/l'étroitesse et la distance d'édition normalisée au niveau du caractère comme dans les kits d'évaluation ICDAR RRC .
  • Exportez des sorties riches. Préférez hOCR /ALTO (ou les deux) afin de conserver les coordonnées et l'ordre de lecture — vital pour la mise en surbrillance des résultats de recherche, l'extraction de tableaux/champs et la provenance. La CLI de Tesseract et pytesseract en font une seule ligne.

Regarder vers l'avenir

La tendance la plus forte est la convergence : la détection, la reconnaissance, la modélisation du langage et même le décodage spécifique à la tâche fusionnent dans des piles de Transformers unifiées. Le pré-entraînement sur de grands corpus synthétiques reste un multiplicateur de force. Les modèles sans OCR seront en concurrence agressive partout où la cible est des sorties structurées plutôt que des transcriptions littérales. Attendez-vous également à des déploiements hybrides : un détecteur léger plus un reconnaisseur de style TrOCR pour le texte long, et un modèle de style Donut pour les formulaires et les reçus.

Lectures complémentaires et outils

Tesseract (GitHub) · Documentation de Tesseract · Spécification hOCR · Contexte ALTO · Détecteur EAST · Détection de texte OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Écriture manuscrite IAM · Outils de format de fichier OCR · EasyOCR

Questions Fréquemment Posées

Qu'est-ce que l'OCR ?

La reconnaissance optique de caractères (OCR) est une technologie utilisée pour convertir différents types de documents, tels que des documents papier numérisés, des fichiers PDF ou des images capturées par un appareil photo numérique, en données modifiables et recherchables.

Comment fonctionne l'OCR ?

L'OCR fonctionne en numérisant une image ou un document d'entrée, en segmentant l'image en caractères individuels, et en comparant chaque caractère avec une base de données de formes de caractères en utilisant la reconnaissance de formes ou la reconnaissance de caractéristiques.

Quelles sont les applications pratiques de l'OCR ?

L'OCR est utilisé dans une variété de secteurs et d'applications, y compris la numérisation de documents imprimés, l'activation des services de texte en parole, l'automatisation des processus de saisie de données, et l'aide aux utilisateurs malvoyants pour mieux interagir avec le texte.

L'OCR est-il toujours précis à 100% ?

Bien que des progrès importants aient été faits dans la technologie OCR, elle n'est pas infaillible. La précision peut varier en fonction de la qualité du document original et des spécificités du logiciel OCR utilisé.

L'OCR peut-il reconnaître l'écriture manuelle ?

Bien que l'OCR soit principalement conçu pour le texte imprimé, certains systèmes OCR avancés sont également capables de reconnaître une écriture manuelle claire et cohérente. Cependant, la reconnaissance de l'écriture manuelle est généralement moins précise en raison de la grande variation des styles d'écriture individuels.

L'OCR peut-il gérer plusieurs langues ?

Oui, de nombreux systèmes logiciels OCR peuvent reconnaître plusieurs langues. Cependant, il est important de s'assurer que la langue spécifique est prise en charge par le logiciel que vous utilisez.

Quelle est la différence entre l'OCR et l'ICR ?

OCR signifie Optical Character Recognition et est utilisé pour reconnaître le texte imprimé, tandis que ICR, ou Intelligent Character Recognition, est plus avancé et est utilisé pour reconnaître le texte écrit à la main.

L'OCR fonctionne-t-il avec toutes les polices et tailles de texte ?

L'OCR fonctionne mieux avec des polices claires et faciles à lire et des tailles de texte standard. Bien qu'il puisse fonctionner avec différentes polices et tailles, la précision a tendance à diminuer lorsqu'on traite des polices inhabituelles ou des tailles de texte très petites.

Quelles sont les limites de la technologie OCR ?

L'OCR peut avoir du mal avec les documents de faible résolution, les polices complexes, les textes mal imprimés, l'écriture manuelle, et les documents avec des arrière-plans qui interfèrent avec le texte. De plus, bien qu'il puisse fonctionner avec de nombreuses langues, il ne couvre peut-être pas parfaitement toutes les langues.

L'OCR peut-il numériser du texte en couleur ou des arrière-plans en couleur ?

Oui, l'OCR peut numériser du texte en couleur et des arrière-plans en couleur, bien qu'il soit généralement plus efficace avec des combinaisons de couleurs à contraste élevé, comme le texte noir sur un fond blanc. La précision peut diminuer lorsque les couleurs du texte et de l'arrière-plan manquent de contraste suffisant.

Qu'est-ce que le format HDR ?

Image à gamme dynamique élevée

Le format d'image HALD, bien que peu reconnu par le grand public, joue un rôle central dans les flux de travail avancés de traitement d'image et d'étalonnage des couleurs. Son principe sous-jacent est de fonctionner comme une référence neutre qui mappe toutes les valeurs de couleur possibles pouvant être affichées par un système d'imagerie numérique. Ce mappage est réalisé grâce à un motif visuel unique qui représente l'espace colorimétrique tridimensionnel dans un format bidimensionnel. Essentiellement, l'image HALD sert de table de correspondance des couleurs (LUT) complète, permettant une manipulation efficace des couleurs dans un large éventail d'applications. En appliquant des ajustements à une image HALD, puis en utilisant la HALD modifiée comme une LUT de couleur, les professionnels peuvent obtenir des transformations de couleur cohérentes et prévisibles sur plusieurs images ou vidéos.

L'origine du nom « HALD » n'est pas largement documentée, ce qui confère une certaine aura de mystère à sa création. En pratique, le format d'image HALD représente une évolution de la table de correspondance des couleurs (LUT), un concept qui a joué un rôle déterminant dans l'étalonnage des couleurs et le traitement d'image. Contrairement aux LUT traditionnelles, qui sont souvent limitées à une plage spécifique de transformations de couleurs, une image HALD contient une représentation de toutes les transformations de couleurs possibles dans sa grille. Cette encapsulation exhaustive de l'espace colorimétrique permet un niveau inégalé de contrôle et de flexibilité dans les processus d'étalonnage des couleurs.

La création d'une image HALD implique la génération d'un motif qui inclut chaque couleur de l'espace colorimétrique de l'appareil au moins une fois. En général, cela est réalisé en subdivisant l'espace colorimétrique en une grille où chaque cellule représente une couleur unique. La complexité et la taille d'une image HALD peuvent varier, augmentant généralement avec la précision de la représentation des couleurs nécessaire. Une image HALD standard est créée en mappant l'espace colorimétrique tridimensionnel (rouge, vert, bleu) sur un plan bidimensionnel, en organisant les couleurs de manière à ce qu'elles puissent être facilement traitées par un logiciel de retouche d'image.

Les applications pratiques des images HALD couvrent divers domaines, du cinéma et de la photographie à l'art numérique et aux médias imprimés. Dans la post-production de films et de vidéos, les images HALD sont utilisées pour créer des LUT de couleurs qui garantissent la cohérence des couleurs entre différentes prises de vue ou scènes. Les photographes utilisent des images HALD pour appliquer des profils de couleurs cohérents à des lots d'images, ce qui réduit considérablement le temps nécessaire à la correction manuelle des couleurs. Dans le domaine de l'art numérique, les images HALD facilitent la création de profils de couleurs uniques qui peuvent être appliqués à des toiles numériques pour améliorer l'expression artistique.

L'un des principaux avantages du format d'image HALD est la nature non destructive des ajustements de couleur effectués à l'aide de celui-ci. Étant donné que les transformations de couleur sont appliquées à l'aide d'une LUT dérivée de l'image HALD plutôt que directement à l'image d'origine, les données sous-jacentes de l'image d'origine restent inchangées. Cela permet des révisions et des expérimentations faciles avec différentes étalonnages des couleurs sans compromettre la qualité de l'image d'origine. De plus, l'application d'étalonnages des couleurs via une LUT basée sur HALD est souvent plus rapide que la correction manuelle des couleurs, ce qui rationalise le flux de travail de post-production.

La création technique d'une image HALD nécessite un logiciel spécialisé capable de générer la grille complexe qui représente l'espace colorimétrique. Ce processus commence par la définition des dimensions de l'image HALD, qui détermine la gamme de couleurs qu'elle peut représenter. L'espace colorimétrique est ensuite discrétisé en une série de cubes, chacun correspondant à une couleur spécifique. Ces cubes sont aplatis en une grille bidimensionnelle, créant l'image HALD. La précision de la représentation des couleurs dans une image HALD est directement proportionnelle à sa résolution, des résolutions plus élevées permettant un étalonnage des couleurs plus détaillé.

Pour utiliser une image HALD pour l'étalonnage des couleurs, la première étape consiste à appliquer les corrections de couleur souhaitées à l'image HALD elle-même. Cela peut être fait à l'aide de n'importe quel logiciel de retouche d'image standard, permettant des ajustements de la balance des couleurs, du contraste, de la saturation, etc. Une fois les ajustements effectués, l'image HALD modifiée est convertie en une LUT. Cette LUT peut ensuite être appliquée à d'autres images ou séquences vidéo, reproduisant les ajustements de couleur sur tous les visuels. Le résultat est un étalonnage des couleurs cohérent et harmonisé qui améliore l'esthétique globale du projet.

Malgré les nombreux avantages, il y a des considérations à garder à l'esprit lorsque vous travaillez avec des images HALD. La qualité et la précision de l'étalonnage des couleurs réalisable avec les images HALD dépendent de la résolution de l'image HALD elle-même. Les images HALD de résolution supérieure permettent un étalonnage des couleurs plus détaillé, mais nécessitent également plus de puissance de traitement et d'espace de stockage. De plus, l'efficacité d'une LUT basée sur HALD pour obtenir l'étalonnage des couleurs souhaité peut varier en fonction du profil de couleur et des conditions d'éclairage du contenu d'origine, nécessitant des ajustements ou des personnalisations de l'image HALD ou de la LUT.

L'intégration d'images HALD dans un flux de travail numérique peut améliorer considérablement l'efficacité et la qualité des processus d'étalonnage des couleurs. Par exemple, dans une production cinématographique, la création d'une série d'images HALD adaptées à différentes conditions d'éclairage et réglages de caméra peut faciliter un étalonnage rapide des couleurs dans diverses scènes. En photographie, la génération d'une image HALD spécifique au profil de couleur d'un appareil photo peut rationaliser le processus de correction des couleurs pour un grand nombre de photos, garantissant l'uniformité et économisant un temps précieux. De plus, dans les contextes où la précision des couleurs est primordiale, comme dans l'imagerie médicale ou la représentation des couleurs de marque, les images HALD offrent un outil pour obtenir un étalonnage précis des couleurs.

Le potentiel des images HALD s'étend au-delà de leurs applications actuelles. À mesure que la puissance de calcul augmente et que les logiciels deviennent plus avancés, les possibilités d'exploiter les images HALD dans des efforts créatifs et techniques vont s'étendre. Les développements futurs pourraient inclure des outils logiciels plus intuitifs pour générer et éditer des images HALD, des algorithmes améliorés pour une représentation des couleurs plus précise et une adoption plus large dans les industries où la fidélité des couleurs est essentielle. De plus, l'intégration de l'intelligence artificielle dans le traitement des images HALD pourrait automatiser et affiner le processus d'étalonnage des couleurs, le rendant plus accessible aux novices comme aux professionnels.

Cependant, la prolifération de la technologie HALD pose également des défis, notamment en termes de standardisation et d'interopérabilité. Alors que différents fabricants de logiciels et de matériel adoptent la technologie HALD, garantir la compatibilité entre les plates-formes et les appareils devient crucial. Sans formats et procédures standardisés pour créer, éditer et appliquer des images HALD, les utilisateurs peuvent rencontrer des difficultés pour obtenir des résultats cohérents. Relever ces défis nécessitera une collaboration entre les acteurs de l'industrie pour établir des normes communes qui facilitent l'utilisation transparente des images HALD dans diverses applications.

Un autre obstacle important à l'adoption généralisée des images HALD est l'éducation et la sensibilisation. Malgré les avantages techniques offerts par les images HALD, leur complexité et les connaissances spécialisées requises pour les générer et les utiliser efficacement peuvent être intimidantes pour de nombreux utilisateurs potentiels. Pour surmonter cet obstacle, le développement de ressources éducatives complètes et d'interfaces logicielles conviviales est essentiel. En simplifiant le processus de travail avec les images HALD et en fournissant des conseils clairs et accessibles, les fabricants et les développeurs de logiciels peuvent élargir l'attrait de cet outil puissant.

En conclusion, le format d'image HALD représente une avancée significative dans le traitement d'image numérique, offrant une flexibilité et une précision inégalées dans l'étalonnage des couleurs. Sa capacité à encapsuler l'ensemble de l'espace colorimétrique dans un format unique et non destructif offre aux professionnels de la création un outil puissant pour obtenir des schémas de couleurs cohérents et harmonieux dans une gamme de supports visuels. À mesure que la technologie évolue, les applications potentielles des images HALD vont sans aucun doute s'étendre, promettant des développements passionnants dans le domaine de l'étalonnage des couleurs numériques. Cependant, la réalisation de ce potentiel dépendra de la résolution des défis liés à la standardisation, à l'interopérabilité et à l'éducation des utilisateurs. Alors que l'industrie continue d'évoluer, l'adoption et le raffinement

Formats supportés

AAI.aai

Image AAI Dune

AI.ai

Adobe Illustrator CS2

AVIF.avif

Format de fichier d'image AV1

BAYER.bayer

Image Bayer brute

BMP.bmp

Image bitmap Windows

CIN.cin

Fichier image Cineon

CLIP.clip

Masque d'image Clip

CMYK.cmyk

Échantillons cyan, magenta, jaune et noir bruts

CUR.cur

Icône Microsoft

DCX.dcx

ZSoft IBM PC Paintbrush multi-page

DDS.dds

Microsoft DirectDraw Surface

DPX.dpx

Image SMTPE 268M-2003 (DPX 2.0)

DXT1.dxt1

Microsoft DirectDraw Surface

EPDF.epdf

Format de document portable encapsulé

EPI.epi

Format d'échange encapsulé PostScript Adobe

EPS.eps

PostScript encapsulé Adobe

EPSF.epsf

PostScript encapsulé Adobe

EPSI.epsi

Format d'échange encapsulé PostScript Adobe

EPT.ept

PostScript encapsulé avec aperçu TIFF

EPT2.ept2

PostScript niveau II encapsulé avec aperçu TIFF

EXR.exr

Image à gamme dynamique élevée (HDR)

FF.ff

Farbfeld

FITS.fits

Système de transport d'images flexible

GIF.gif

Format d'échange de graphiques CompuServe

HDR.hdr

Image à gamme dynamique élevée

HEIC.heic

Conteneur d'image haute efficacité

HRZ.hrz

Télévision à balayage lent

ICO.ico

Icône Microsoft

ICON.icon

Icône Microsoft

J2C.j2c

Flux JPEG-2000

J2K.j2k

Flux JPEG-2000

JNG.jng

JPEG Network Graphics

JP2.jp2

Syntaxe du format de fichier JPEG-2000

JPE.jpe

Format JFIF du groupe mixte d'experts photographiques

JPEG.jpeg

Format JFIF du groupe mixte d'experts photographiques

JPG.jpg

Format JFIF du groupe mixte d'experts photographiques

JPM.jpm

Syntaxe du format de fichier JPEG-2000

JPS.jps

Format JPS du groupe mixte d'experts photographiques

JPT.jpt

Syntaxe du format de fichier JPEG-2000

JXL.jxl

Image JPEG XL

MAP.map

Base de données d'images multi-résolutions sans couture (MrSID)

MAT.mat

Format d'image MATLAB niveau 5

PAL.pal

Palette Palm

PALM.palm

Palette Palm

PAM.pam

Format de bitmap 2D commun

PBM.pbm

Format de bitmap portable (noir et blanc)

PCD.pcd

Photo CD

PCT.pct

Apple Macintosh QuickDraw/PICT

PCX.pcx

ZSoft IBM PC Paintbrush

PDB.pdb

Format ImageViewer de base de données Palm

PDF.pdf

Format de document portable

PDFA.pdfa

Format d'archive de document portable

PFM.pfm

Format portable à virgule flottante

PGM.pgm

Format de bitmap portable (niveaux de gris)

PGX.pgx

Format JPEG 2000 non compressé

PICT.pict

Apple Macintosh QuickDraw/PICT

PJPEG.pjpeg

Format JFIF du groupe mixte d'experts photographiques

PNG.png

Portable Network Graphics

PNG00.png00

PNG héritant de la profondeur de bits, du type de couleur de l'image d'origine

PNG24.png24

24 bits RVB opaque ou transparent binaire (zlib 1.2.11)

PNG32.png32

32 bits RVB opaque ou transparent binaire

PNG48.png48

48 bits RVB opaque ou transparent binaire

PNG64.png64

64 bits RVB opaque ou transparent binaire

PNG8.png8

8 bits indexé opaque ou transparent binaire

PNM.pnm

Portable anymap

PPM.ppm

Format de pixmap portable (couleur)

PS.ps

Fichier PostScript Adobe

PSB.psb

Format de grand document Adobe

PSD.psd

Bitmap Photoshop Adobe

RGB.rgb

Échantillons rouge, vert et bleu bruts

RGBA.rgba

Échantillons rouge, vert, bleu et alpha bruts

RGBO.rgbo

Échantillons rouge, vert, bleu et opacité bruts

SIX.six

Format de graphiques SIXEL DEC

SUN.sun

Fichier Rasterfile Sun

SVG.svg

Graphiques vectoriels adaptables

TIFF.tiff

Format de fichier d'image balisée

VDA.vda

Image Truevision Targa

VIPS.vips

Image VIPS

WBMP.wbmp

Image sans fil Bitmap (niveau 0)

WEBP.webp

Format d'image WebP

YUV.yuv

CCIR 601 4:1:1 ou 4:2:2

Foire aux questions

Comment ça marche ?

Ce convertisseur fonctionne entièrement dans votre navigateur. Lorsque vous sélectionnez un fichier, il est lu en mémoire et converti dans le format sélectionné. Vous pouvez ensuite télécharger le fichier converti.

Combien de temps prend la conversion d'un fichier ?

Les conversions commencent instantanément, et la plupart des fichiers sont convertis en moins d'une seconde. Les fichiers plus volumineux peuvent prendre plus de temps.

Que deviennent mes fichiers ?

Vos fichiers ne sont jamais téléversés vers nos serveurs. Ils sont convertis dans votre navigateur, puis le fichier converti est téléchargé. Nous ne voyons jamais vos fichiers.

Quels types de fichiers puis-je convertir ?

Nous prenons en charge la conversion entre tous les formats d'image, y compris JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, et plus encore.

Combien cela coûte ?

Ce convertisseur est complètement gratuit, et le restera toujours. Parce qu'il fonctionne dans votre navigateur, nous n'avons pas besoin de payer pour des serveurs, donc nous n'avons pas besoin de vous faire payer.

Puis-je convertir plusieurs fichiers à la fois ?

Oui ! Vous pouvez convertir autant de fichiers que vous voulez simultanément. Il suffit de sélectionner plusieurs fichiers lorsque vous les ajoutez.