OCR de n'importe quel YUV
Glissez-déposez ou cliquez pour sélectionner
Privé et sécurisé
Tout se passe dans votre navigateur. Vos fichiers ne touchent jamais nos serveurs.
Ultra rapide
Pas de téléchargement, pas d'attente. Convertissez au moment où vous déposez un fichier.
Vraiment gratuit
Aucun compte requis. Pas de coûts cachés. Pas d'astuces sur la taille des fichiers.
La reconnaissance optique de caractères (OCR) transforme les images de texte (scans, photos de smartphone, PDF) en chaînes de caractères lisibles par machine et, de plus en plus, en données structurées. L'OCR moderne est un pipeline qui nettoie une image, trouve du texte, le lit et exporte des métadonnées riches afin que les systèmes en aval puissent rechercher, indexer ou extraire des champs. Deux normes de sortie largement utilisées sont hOCR, un microformat HTML pour le texte et la mise en page, et ALTO XML, un schéma orienté bibliothèque/archives ; tous deux préservent les positions, l'ordre de lecture et d'autres indices de mise en page et sont pris en charge par des moteurs populaires comme Tesseract.
Un tour rapide du pipeline
Prétraitement. La qualité de l'OCR commence par le nettoyage de l'image : conversion en niveaux de gris, débruitage, seuillage (binarisation) et redressement. Les tutoriels canoniques d'OpenCV couvrent le seuillage global, adaptatif et d'Otsu — des incontournables pour les documents avec un éclairage non uniforme ou des histogrammes bimodaux. Lorsque l'éclairage varie au sein d'une page (pensez aux photos de téléphone), les méthodes adaptatives surpassent souvent un seuil global unique ; Otsu choisit automatiquement un seuil en analysant l'histogramme. La correction de l'inclinaison est tout aussi importante : le redressement basé sur Hough (Transformée de Hough) associé à la binarisation d'Otsu est une recette courante et efficace dans les pipelines de prétraitement de production.
Détection vs. reconnaissance. L'OCR est généralement divisé en détection de texte (où se trouve le texte ?) et reconnaissance de texte (que dit-il ?). Dans les scènes naturelles et de nombreux scans, les détecteurs entièrement convolutifs comme EAST prédisent efficacement des quadrilatères au niveau du mot ou de la ligne sans étapes de proposition lourdes et sont implémentés dans des boîtes à outils courantes (par exemple, le tutoriel de détection de texte d'OpenCV). Sur les pages complexes (journaux, formulaires, livres), la segmentation des lignes/régions et l'inférence de l'ordre de lecture sont importantes :Kraken implémente la segmentation traditionnelle de zones/lignes et la segmentation neuronale de ligne de base, avec un support explicite pour différents scripts et directions (LTR/RTL/vertical).
Modèles de reconnaissance. Le classique cheval de bataille open-source Tesseract (open-sourcé par Google, avec des racines chez HP) a évolué d'un classifieur de caractères en un reconnaisseur de séquence basé sur LSTM et peut émettre des PDF consultables, des sorties compatibles hOCR/ALTO, et plus encore depuis la CLI. Les reconnaisseurs modernes s'appuient sur la modélisation de séquence sans caractères pré-segmentés. La classification temporelle connexionniste (CTC) reste fondamentale, apprenant les alignements entre les séquences de caractéristiques d'entrée et les chaînes d'étiquettes de sortie ; elle est largement utilisée dans les pipelines d'écriture manuscrite et de texte de scène.
Ces dernières années, les Transformers ont remodelé l'OCR. TrOCR utilise un encodeur Vision Transformer plus un décodeur Text Transformer, entraîné sur de grands corpus synthétiques puis affiné sur des données réelles, avec de solides performances sur les benchmarks de texte imprimé, manuscrit et de scène (voir aussi la documentation de Hugging Face). En parallèle, certains systèmes contournent l'OCR pour la compréhension en aval : Donut (Document Understanding Transformer) est un encodeur-décodeur sans OCR qui produit directement des réponses structurées (comme du JSON clé-valeur) à partir d'images de documents (repo, carte de modèle), évitant l'accumulation d'erreurs lorsqu'une étape OCR distincte alimente un système d'IE.
Moteurs et bibliothèques
Si vous voulez une lecture de texte clés en main sur de nombreux scripts, EasyOCR offre une API simple avec plus de 80 modèles linguistiques, renvoyant des boîtes, du texte et des confiances — pratique pour les prototypes et les scripts non latins. Pour les documents historiques, Kraken brille par sa segmentation de ligne de base et son ordre de lecture sensible au script ; pour un entraînement flexible au niveau de la ligne, Calamari s'appuie sur la lignée d'Ocropy (Ocropy) avec des reconnaisseurs (multi-)LSTM+CTC et une CLI pour affiner des modèles personnalisés.
Ensembles de données et benchmarks
La généralisation dépend des données. Pour l'écriture manuscrite, la base de données d'écriture manuscrite IAM fournit des phrases en anglais de divers scripteurs pour l'entraînement et l'évaluation ; c'est un ensemble de référence de longue date pour la reconnaissance de lignes et de mots. Pour le texte de scène, COCO-Text a superposé des annotations étendues sur MS-COCO, avec des étiquettes pour l'imprimé/manuscrit, lisible/illisible, le script et les transcriptions complètes (voir aussi la page originale du projet). Le domaine s'appuie également fortement sur le pré-entraînement synthétique : SynthText in the Wild rend le texte dans des photographies avec une géométrie et un éclairage réalistes, fournissant d'énormes volumes de données pour pré-entraîner les détecteurs et les reconnaisseurs (référence code et données).
Les compétitions sous l'égide de la lecture robuste d'ICDAR maintiennent l'évaluation sur le terrain. Les tâches récentes mettent l'accent sur la détection/lecture de bout en bout et incluent la liaison de mots en phrases, avec le code officiel rapportant précision/rappel/F-score, l'intersection sur l'union (IoU) et les métriques de distance d'édition au niveau du caractère — reflétant ce que les praticiens devraient suivre.
Formats de sortie et utilisation en aval
L'OCR se termine rarement par du texte brut. Les archives et les bibliothèques numériques préfèrent ALTO XML car il encode la mise en page physique (blocs/lignes/mots avec coordonnées) ainsi que le contenu, et il se marie bien avec l'empaquetage METS. Le microformat hOCR , en revanche, intègre la même idée dans HTML/CSS en utilisant des classes comme ocr_line et ocrx_word, ce qui facilite l'affichage, la modification et la transformation avec des outils web. Tesseract expose les deux — par exemple, en générant du hOCR ou des PDF consultables directement depuis la CLI (guide de sortie PDF) ; les wrappers Python comme pytesseract ajoutent de la commodité. Il existe des convertisseurs pour traduire entre hOCR et ALTO lorsque les dépôts ont des normes d'ingestion fixes — voir cette liste organisée d' outils de format de fichier OCR.
Conseils pratiques
- Commencez par les données et la propreté. Si vos images sont des photos de téléphone ou des scans de qualité mixte, investissez dans le seuillage (adaptatif et Otsu) et le redressement (Hough) avant tout réglage de modèle. Vous gagnerez souvent plus d'une recette de prétraitement robuste que de changer de reconnaisseurs.
- Choisissez le bon détecteur. Pour les pages numérisées avec des colonnes régulières, un segmenteur de page (zones → lignes) peut suffire ; pour les images naturelles, les détecteurs à un seul coup comme EAST sont de solides bases de référence et se branchent sur de nombreuses boîtes à outils (exemple OpenCV).
- Choisissez un reconnaisseur qui correspond à votre texte. Pour le latin imprimé, Tesseract (LSTM/OEM) est robuste et rapide ; pour les multi-scripts ou les prototypes rapides, EasyOCR est productif ; pour l'écriture manuscrite ou les polices de caractères historiques, envisagez Kraken ou Calamari et prévoyez un réglage fin. Si vous avez besoin d'un couplage étroit avec la compréhension de documents (extraction clé-valeur, VQA), évaluez TrOCR (OCR) par rapport à Donut (sans OCR) sur votre schéma — Donut peut supprimer une étape d'intégration entière.
- Mesurez ce qui compte. Pour les systèmes de bout en bout, rapportez la détection F-score et la reconnaissance CER/WER (tous deux basés sur la distance d'édition de Levenshtein ; voir CTC) ; pour les tâches lourdes en mise en page, suivez l'IoU/l'étroitesse et la distance d'édition normalisée au niveau du caractère comme dans les kits d'évaluation ICDAR RRC .
- Exportez des sorties riches. Préférez hOCR /ALTO (ou les deux) afin de conserver les coordonnées et l'ordre de lecture — vital pour la mise en surbrillance des résultats de recherche, l'extraction de tableaux/champs et la provenance. La CLI de Tesseract et pytesseract en font une seule ligne.
Regarder vers l'avenir
La tendance la plus forte est la convergence : la détection, la reconnaissance, la modélisation du langage et même le décodage spécifique à la tâche fusionnent dans des piles de Transformers unifiées. Le pré-entraînement sur de grands corpus synthétiques reste un multiplicateur de force. Les modèles sans OCR seront en concurrence agressive partout où la cible est des sorties structurées plutôt que des transcriptions littérales. Attendez-vous également à des déploiements hybrides : un détecteur léger plus un reconnaisseur de style TrOCR pour le texte long, et un modèle de style Donut pour les formulaires et les reçus.
Lectures complémentaires et outils
Tesseract (GitHub) · Documentation de Tesseract · Spécification hOCR · Contexte ALTO · Détecteur EAST · Détection de texte OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Écriture manuscrite IAM · Outils de format de fichier OCR · EasyOCR
Questions Fréquemment Posées
Qu'est-ce que l'OCR ?
La reconnaissance optique de caractères (OCR) est une technologie utilisée pour convertir différents types de documents, tels que des documents papier numérisés, des fichiers PDF ou des images capturées par un appareil photo numérique, en données modifiables et recherchables.
Comment fonctionne l'OCR ?
L'OCR fonctionne en numérisant une image ou un document d'entrée, en segmentant l'image en caractères individuels, et en comparant chaque caractère avec une base de données de formes de caractères en utilisant la reconnaissance de formes ou la reconnaissance de caractéristiques.
Quelles sont les applications pratiques de l'OCR ?
L'OCR est utilisé dans une variété de secteurs et d'applications, y compris la numérisation de documents imprimés, l'activation des services de texte en parole, l'automatisation des processus de saisie de données, et l'aide aux utilisateurs malvoyants pour mieux interagir avec le texte.
L'OCR est-il toujours précis à 100% ?
Bien que des progrès importants aient été faits dans la technologie OCR, elle n'est pas infaillible. La précision peut varier en fonction de la qualité du document original et des spécificités du logiciel OCR utilisé.
L'OCR peut-il reconnaître l'écriture manuelle ?
Bien que l'OCR soit principalement conçu pour le texte imprimé, certains systèmes OCR avancés sont également capables de reconnaître une écriture manuelle claire et cohérente. Cependant, la reconnaissance de l'écriture manuelle est généralement moins précise en raison de la grande variation des styles d'écriture individuels.
L'OCR peut-il gérer plusieurs langues ?
Oui, de nombreux systèmes logiciels OCR peuvent reconnaître plusieurs langues. Cependant, il est important de s'assurer que la langue spécifique est prise en charge par le logiciel que vous utilisez.
Quelle est la différence entre l'OCR et l'ICR ?
OCR signifie Optical Character Recognition et est utilisé pour reconnaître le texte imprimé, tandis que ICR, ou Intelligent Character Recognition, est plus avancé et est utilisé pour reconnaître le texte écrit à la main.
L'OCR fonctionne-t-il avec toutes les polices et tailles de texte ?
L'OCR fonctionne mieux avec des polices claires et faciles à lire et des tailles de texte standard. Bien qu'il puisse fonctionner avec différentes polices et tailles, la précision a tendance à diminuer lorsqu'on traite des polices inhabituelles ou des tailles de texte très petites.
Quelles sont les limites de la technologie OCR ?
L'OCR peut avoir du mal avec les documents de faible résolution, les polices complexes, les textes mal imprimés, l'écriture manuelle, et les documents avec des arrière-plans qui interfèrent avec le texte. De plus, bien qu'il puisse fonctionner avec de nombreuses langues, il ne couvre peut-être pas parfaitement toutes les langues.
L'OCR peut-il numériser du texte en couleur ou des arrière-plans en couleur ?
Oui, l'OCR peut numériser du texte en couleur et des arrière-plans en couleur, bien qu'il soit généralement plus efficace avec des combinaisons de couleurs à contraste élevé, comme le texte noir sur un fond blanc. La précision peut diminuer lorsque les couleurs du texte et de l'arrière-plan manquent de contraste suffisant.
Qu'est-ce que le format YUV ?
CCIR 601 4:1:1 ou 4:2:2
YCbCrA est un espace colorimétrique et un format d'image couramment utilisés pour la compression d'images et de vidéos numériques. Il sépare les informations de luminance (luminosité) des informations de chrominance (couleur), ce qui permet de les compresser indépendamment pour un encodage plus efficace. L'espace colorimétrique YCbCrA est une variante de l'espace colorimétrique YCbCr qui ajoute un canal alpha pour la transparence.
Dans l'espace colorimétrique YCbCrA, Y représente la composante de luminance, qui est la luminosité ou l'intensité du pixel. Elle est calculée comme une somme pondérée des composantes de couleur rouge, verte et bleue en fonction de la façon dont l'œil humain perçoit la luminosité. Les poids sont choisis pour approximer la fonction de luminosité, qui décrit la sensibilité spectrale moyenne de la perception visuelle humaine. La composante de luminance détermine la luminosité perçue d'un pixel.
Cb et Cr sont respectivement les composantes de chrominance de différence de bleu et de différence de rouge. Elles représentent les informations de couleur dans l'image. Cb est calculé en soustrayant la luminance de la composante de couleur bleue, tandis que Cr est calculé en soustrayant la luminance de la composante de couleur rouge. En séparant les informations de couleur en ces composantes de différence de couleur, YCbCrA permet de compresser les informations de couleur plus efficacement qu'en RVB.
Le canal alpha (A) dans YCbCrA repr ésente la transparence ou l'opacité de chaque pixel. Il spécifie la quantité de couleur du pixel qui doit être mélangée à l'arrière-plan lorsque l'image est rendue. Une valeur alpha de 0 signifie que le pixel est complètement transparent, tandis qu'une valeur alpha de 1 (ou 255 en représentation 8 bits) signifie que le pixel est complètement opaque. Les valeurs alpha comprises entre 0 et 1 donnent des pixels partiellement transparents qui se mélangent à l'arrière-plan à des degrés divers.
L'un des principaux avantages de l'espace colorimétrique YCbCrA est qu'il permet une compression plus efficace par rapport au RVB. Le système visuel humain est plus sensible aux changements de luminosité qu'aux changements de couleur. En séparant les informations de luminance et de chrominance, YCbCrA permet aux encodeurs d'allouer plus de bits à la composante de luminance, qui transporte les informations les plus importantes sur le plan perceptuel, tout en compressant les composantes de chrominance de manière plus agressive.
Pendant la compression, les composantes de luminance et de chrominance peuvent être sous-échantillonnées à des taux différents. Le sous-échantillonnage réduit la résolution spatiale des composantes de chrominance tout en préservant la pleine résolution de la composante de luminance. Les schémas de sous-échantillonnage courants incluent 4:4:4 (pas de sous-échantillonnage), 4:2:2 (chrominance sous-échantillonnée horizontalement par un facteur de 2) et 4:2:0 (chrominance sous-échantillonnée horizontalement et verticalement par un facteur de 2). Le sous-échantillonnage exploite la sensibilité moindre du système visuel humain aux détails de couleur, ce qui permet des taux de compression plus élevés sans perte significative de qualité perceptive.
Le format d'image YCbCrA est largement utilisé dans les normes de compression vidéo et d'image telles que JPEG, MPEG et H.264/AVC. Ces normes utilisent diverses techniques pour compresser les données YCbCrA, notamment le sous-échantillonnage de la chrominance, la transformée en cosinus discrète (DCT), la quantification et le codage entropique.
Lors de la compression d'une image ou d'une trame vidéo, les données YCbCrA subissent une série de transformations et d'étapes de compression. L'image est d'abord convertie de RVB en espace colorimétrique YCbCrA. Les composantes de luminance et de chrominance sont ensuite divisées en blocs, généralement de taille 8x8 ou 16x16 pixels. Chaque bloc subit une transformée en cosinus discrète (DCT), qui convertit les valeurs spatiales des pixels en coefficients de fréquence.
Les coefficients DCT sont ensuite quantifiés, ce qui divise chaque coefficient par un pas de quantification et arrondit le résultat à l'entier le plus proche. La quantification introduit une compression avec perte en supprimant les informations haute fréquence qui sont moins importantes sur le plan perceptuel. Les pas de quantification peuvent être ajustés pour contrôler le compromis entre le taux de compression et la qualité de l'image.
Après la quantification, les coefficients sont réorganisés selon un motif en zigzag pour regrouper les coefficients basse fréquence, qui ont tendance à avoir des magnitudes plus grandes. Les coefficients réorganisés sont ensuite codés par entropie à l'aide de techniques telles que le codage de Huffman ou le codage arithmétique. Le codage entropique attribue des mots de code plus courts aux coefficients les plus fréquents, ce qui réduit encore la taille des données compressées.
Pour décompresser une image YCbCrA, le processus inverse est appliqué. Les données codées par entropie sont décodées pour récupérer les coefficients DCT quantifiés. Les coefficients sont ensuite déquantifiés en les multipliant par les pas de quantification correspondants. Une DCT inverse est effectuée sur les coefficients déquantifiés pour reconstruire les blocs YCbCrA. Enfin, les données YCbCrA sont reconverties en espace colorimétrique RVB pour l'affichage ou un traitement ultérieur.
Le canal alpha dans YCbCrA est généralement compressé séparément des composantes de luminance et de chrominance. Il peut être encodé à l'aide de diverses méthodes, telles que l'encodage de longueur de course ou la compression par blocs. Le canal alpha permet des effets de transparence, tels que la superposition d'images ou de vidéos les unes sur les autres avec une opacité variable.
YCbCrA offre plusieurs avantages par rapport aux autres espaces colorimétriques et formats d'image. Sa séparation des informations de luminance et de chrominance permet une compression plus efficace, car le système visuel humain est plus sensible aux variations de luminosité qu'aux variations de couleur. Le sous-échantillonnage des composantes de chrominance réduit encore la quantité de données à compresser sans affecter significativement la qualité perceptive.
De plus, la compatibilité de YCbCrA avec les normes de compression populaires telles que JPEG et MPEG le rend largement pris en charge sur différentes plates-formes et appareils. Sa capacité à incorporer un canal alpha pour la transparence le rend également adapté aux applications nécessitant une composition ou un mélange d'images.
Cependant, YCbCrA n'est pas sans limites. La conversion de RVB en YCbCrA et inversement peut introduire une certaine distorsion des couleurs, surtout si les composantes de chrominance sont fortement compressées. Le sous-échantillonnage des composantes de chrominance peut également entraîner des bavures de couleur ou des artefacts dans les zones présentant des transitions de couleur nettes.
Malgré ces limitations, YCbCrA reste un choix populaire pour la compression d'images et de vidéos en raison de son efficacité et de son large support. Il établit un équilibre entre les performances de compression et la qualité visuelle, ce qui le rend adapté à un large éventail d'applications, des appareils photo numériques et du streaming vidéo aux graphiques et aux jeux.
À mesure que la technologie progresse, de nouvelles techniques et formats de compression peuvent émerger pour répondre aux limites de YCbCrA et offrir une efficacité de compression et une qualité visuelle encore meilleures. Cependant, les principes fondamentaux de séparation des informations de luminance et de chrominance, de sous-échantillonnage et de codage par transformée resteront probablement pertinents dans les futures normes de compression d'images et de vidéos.
En conclusion, YCbCrA est un espace colorimétrique et un format d'image qui offre une compression efficace en séparant les informations de luminance et de chrominance et en permettant le sous-échantillonnage de la chrominance. L'inclusion d'un canal alpha pour la transparence le rend polyvalent pour diverses applications. Bien qu'il présente certaines limitations, la compatibilité de YCbCrA avec les normes de compression populaires et son équilibre entre les performances de compression et la qualité visuelle en font un choix largement utilisé dans le domaine de la compression d'images et de vidéos.
Formats supportés
AAI.aai
Image AAI Dune
AI.ai
Adobe Illustrator CS2
AVIF.avif
Format de fichier d'image AV1
BAYER.bayer
Image Bayer brute
BMP.bmp
Image bitmap Windows
CIN.cin
Fichier image Cineon
CLIP.clip
Masque d'image Clip
CMYK.cmyk
Échantillons cyan, magenta, jaune et noir bruts
CUR.cur
Icône Microsoft
DCX.dcx
ZSoft IBM PC Paintbrush multi-page
DDS.dds
Microsoft DirectDraw Surface
DPX.dpx
Image SMTPE 268M-2003 (DPX 2.0)
DXT1.dxt1
Microsoft DirectDraw Surface
EPDF.epdf
Format de document portable encapsulé
EPI.epi
Format d'échange encapsulé PostScript Adobe
EPS.eps
PostScript encapsulé Adobe
EPSF.epsf
PostScript encapsulé Adobe
EPSI.epsi
Format d'échange encapsulé PostScript Adobe
EPT.ept
PostScript encapsulé avec aperçu TIFF
EPT2.ept2
PostScript niveau II encapsulé avec aperçu TIFF
EXR.exr
Image à gamme dynamique élevée (HDR)
FF.ff
Farbfeld
FITS.fits
Système de transport d'images flexible
GIF.gif
Format d'échange de graphiques CompuServe
HDR.hdr
Image à gamme dynamique élevée
HEIC.heic
Conteneur d'image haute efficacité
HRZ.hrz
Télévision à balayage lent
ICO.ico
Icône Microsoft
ICON.icon
Icône Microsoft
J2C.j2c
Flux JPEG-2000
J2K.j2k
Flux JPEG-2000
JNG.jng
JPEG Network Graphics
JP2.jp2
Syntaxe du format de fichier JPEG-2000
JPE.jpe
Format JFIF du groupe mixte d'experts photographiques
JPEG.jpeg
Format JFIF du groupe mixte d'experts photographiques
JPG.jpg
Format JFIF du groupe mixte d'experts photographiques
JPM.jpm
Syntaxe du format de fichier JPEG-2000
JPS.jps
Format JPS du groupe mixte d'experts photographiques
JPT.jpt
Syntaxe du format de fichier JPEG-2000
JXL.jxl
Image JPEG XL
MAP.map
Base de données d'images multi-résolutions sans couture (MrSID)
MAT.mat
Format d'image MATLAB niveau 5
PAL.pal
Palette Palm
PALM.palm
Palette Palm
PAM.pam
Format de bitmap 2D commun
PBM.pbm
Format de bitmap portable (noir et blanc)
PCD.pcd
Photo CD
PCT.pct
Apple Macintosh QuickDraw/PICT
PCX.pcx
ZSoft IBM PC Paintbrush
PDB.pdb
Format ImageViewer de base de données Palm
PDF.pdf
Format de document portable
PDFA.pdfa
Format d'archive de document portable
PFM.pfm
Format portable à virgule flottante
PGM.pgm
Format de bitmap portable (niveaux de gris)
PGX.pgx
Format JPEG 2000 non compressé
PICT.pict
Apple Macintosh QuickDraw/PICT
PJPEG.pjpeg
Format JFIF du groupe mixte d'experts photographiques
PNG.png
Portable Network Graphics
PNG00.png00
PNG héritant de la profondeur de bits, du type de couleur de l'image d'origine
PNG24.png24
24 bits RVB opaque ou transparent binaire (zlib 1.2.11)
PNG32.png32
32 bits RVB opaque ou transparent binaire
PNG48.png48
48 bits RVB opaque ou transparent binaire
PNG64.png64
64 bits RVB opaque ou transparent binaire
PNG8.png8
8 bits indexé opaque ou transparent binaire
PNM.pnm
Portable anymap
PPM.ppm
Format de pixmap portable (couleur)
PS.ps
Fichier PostScript Adobe
PSB.psb
Format de grand document Adobe
PSD.psd
Bitmap Photoshop Adobe
RGB.rgb
Échantillons rouge, vert et bleu bruts
RGBA.rgba
Échantillons rouge, vert, bleu et alpha bruts
RGBO.rgbo
Échantillons rouge, vert, bleu et opacité bruts
SIX.six
Format de graphiques SIXEL DEC
SUN.sun
Fichier Rasterfile Sun
SVG.svg
Graphiques vectoriels adaptables
TIFF.tiff
Format de fichier d'image balisée
VDA.vda
Image Truevision Targa
VIPS.vips
Image VIPS
WBMP.wbmp
Image sans fil Bitmap (niveau 0)
WEBP.webp
Format d'image WebP
YUV.yuv
CCIR 601 4:1:1 ou 4:2:2
Foire aux questions
Comment ça marche ?
Ce convertisseur fonctionne entièrement dans votre navigateur. Lorsque vous sélectionnez un fichier, il est lu en mémoire et converti dans le format sélectionné. Vous pouvez ensuite télécharger le fichier converti.
Combien de temps prend la conversion d'un fichier ?
Les conversions commencent instantanément, et la plupart des fichiers sont convertis en moins d'une seconde. Les fichiers plus volumineux peuvent prendre plus de temps.
Que deviennent mes fichiers ?
Vos fichiers ne sont jamais téléversés vers nos serveurs. Ils sont convertis dans votre navigateur, puis le fichier converti est téléchargé. Nous ne voyons jamais vos fichiers.
Quels types de fichiers puis-je convertir ?
Nous prenons en charge la conversion entre tous les formats d'image, y compris JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, et plus encore.
Combien cela coûte ?
Ce convertisseur est complètement gratuit, et le restera toujours. Parce qu'il fonctionne dans votre navigateur, nous n'avons pas besoin de payer pour des serveurs, donc nous n'avons pas besoin de vous faire payer.
Puis-je convertir plusieurs fichiers à la fois ?
Oui ! Vous pouvez convertir autant de fichiers que vous voulez simultanément. Il suffit de sélectionner plusieurs fichiers lorsque vous les ajoutez.