OCR de cualquier JPT

Arrastre y suelte una foto, escaneo o PDF (hasta 2.5GB). Extraemos el texto directamente en su navegador — gratis, ilimitado y sus archivos nunca salen de su dispositivo.

Privado y seguro

Todo sucede en tu navegador. Tus archivos nunca tocan nuestros servidores.

Ultrarrápido

Sin subidas, sin esperas. Convierte en el momento en que sueltas un archivo.

Realmente gratis

No se requiere cuenta. Sin costos ocultos. Sin trucos de tamaño de archivo.

El Reconocimiento Óptico de Caracteres (OCR) convierte imágenes de texto—escaneos, fotos de smartphone, PDFs—en cadenas legibles por máquina y, cada vez más, en datos estructurados. El OCR moderno es una tubería que limpia una imagen, encuentra texto, lo lee y exporta metadatos ricos para que los sistemas posteriores puedan buscar, indexar o extraer campos. Dos estándares de salida ampliamente utilizados son hOCR, un microformato HTML para texto y diseño, y ALTO XML, un esquema orientado a bibliotecas/archivos; ambos preservan posiciones, orden de lectura y otras pistas de diseño y son compatibles con motores populares como Tesseract.

Un recorrido rápido por la tubería

Preprocesamiento. La calidad del OCR comienza con la limpieza de la imagen: conversión a escala de grises, eliminación de ruido, umbralización (binarización) y corrección de inclinación. Los tutoriales canónicos de OpenCV cubren umbralización global, adaptativa y Otsu —elementos básicos para documentos con iluminación no uniforme o histogramas bimodales. Cuando la iluminación varía dentro de una página (piense en las instantáneas del teléfono), los métodos adaptativos a menudo superan a un único umbral global; Otsu elige automáticamente un umbral analizando el histograma. La corrección de la inclinación es igualmente importante: la corrección de inclinación basada en Hough (Transformada de Hough Line) junto con la binarización de Otsu es una receta común y efectiva en las tuberías de preprocesamiento de producción.

Detección vs. reconocimiento. El OCR se divide típicamente en detección de texto (¿dónde está el texto?) y reconocimiento de texto (¿qué dice?). En escenas naturales y muchos escaneos, los detectores totalmente convolucionales como EAST predicen eficientemente cuadriláteros a nivel de palabra o línea sin pesadas etapas de propuesta y se implementan en kits de herramientas comunes (por ejemplo, tutorial de detección de texto de OpenCV). En páginas complejas (periódicos, formularios, libros), la segmentación de líneas/regiones y la inferencia del orden de lectura son importantes:Kraken implementa la segmentación tradicional de zonas/líneas y la segmentación neuronal de línea de base, con soporte explícito para diferentes escrituras y direcciones (LTR/RTL/vertical).

Modelos de reconocimiento. El clásico caballo de batalla de código abierto Tesseract (de código abierto por Google, con raíces en HP) evolucionó de un clasificador de caracteres a un reconocedor de secuencias basado en LSTM y puede emitir archivos PDF con capacidad de búsqueda, salidas compatibles con hOCR/ALTO, y más desde la CLI. Los reconocedores modernos se basan en el modelado de secuencias sin caracteres presegmentados. Clasificación Temporal Conexionista (CTC) sigue siendo fundamental, aprendiendo alineaciones entre secuencias de características de entrada y cadenas de etiquetas de salida; se utiliza ampliamente en tuberías de escritura a mano y texto de escena.

En los últimos años, los Transformers han remodelado el OCR. TrOCR utiliza un codificador Vision Transformer más un decodificador Text Transformer, entrenado en grandes corpus sintéticos y luego ajustado en datos reales, con un sólido rendimiento en benchmarks de texto impreso, manuscrito y de escena (véase también documentación de Hugging Face). En paralelo, algunos sistemas eluden el OCR para la comprensión posterior: Donut (Document Understanding Transformer) es un codificador-decodificador sin OCR que genera directamente respuestas estructuradas (como JSON de clave-valor) a partir de imágenes de documentos (repositorio, tarjeta de modelo), evitando la acumulación de errores cuando un paso de OCR separado alimenta un sistema de IE.

Motores y bibliotecas

Si desea una lectura de texto con todo incluido en muchas escrituras, EasyOCR ofrece una API simple con más de 80 modelos de lenguaje, que devuelve cuadros, texto y confidencias, útil para prototipos y escrituras no latinas. Para documentos históricos, Kraken brilla con la segmentación de línea de base y el orden de lectura consciente de la escritura; para un entrenamiento flexible a nivel de línea, Calamari se basa en el linaje de Ocropy (Ocropy) con reconocedores (multi-)LSTM+CTC y una CLI para ajustar modelos personalizados.

Conjuntos de datos y benchmarks

La generalización depende de los datos. Para la escritura a mano, la Base de datos de escritura a mano IAM proporciona oraciones en inglés de diversos escritores para entrenamiento y evaluación; es un conjunto de referencia de larga data para el reconocimiento de líneas y palabras. Para el texto de escena, COCO-Text superpuso anotaciones extensas sobre MS-COCO, con etiquetas para texto impreso/manuscrito, legible/ilegible, escritura y transcripciones completas (véase también la página original del proyecto). El campo también depende en gran medida del preentrenamiento sintético: SynthText in the Wild representa texto en fotografías con geometría e iluminación realistas, proporcionando enormes volúmenes de datos para preentrenar detectores y reconocedores (referencia código y datos).

Las competiciones bajo el paraguas de Lectura Robusta de ICDAR mantienen la evaluación fundamentada. Las tareas recientes enfatizan la detección/lectura de extremo a extremo e incluyen la vinculación de palabras en frases, con el código oficial informando precisión/recuperación/puntuación F, intersección sobre unión (IoU) y métricas de distancia de edición a nivel de carácter, lo que refleja lo que los profesionales deben rastrear.

Formatos de salida y uso posterior

El OCR rara vez termina en texto plano. Los archivos y las bibliotecas digitales prefieren ALTO XML porque codifica el diseño físico (bloques/líneas/palabras con coordenadas) junto con el contenido, y se combina bien con el empaquetado METS. El microformato hOCR , por el contrario, incorpora la misma idea en HTML/CSS utilizando clases como ocr_line y ocrx_word, lo que facilita su visualización, edición y transformación con herramientas web. Tesseract expone ambos, por ejemplo, generando hOCR o PDF con capacidad de búsqueda directamente desde la CLI (guía de salida de PDF); los envoltorios de Python como pytesseract añaden comodidad. Existen convertidores para traducir entre hOCR y ALTO cuando los repositorios tienen estándares de ingesta fijos —véase esta lista curada de herramientas de formato de archivo OCR.

Orientación práctica

  • Comience con los datos y la limpieza. Si sus imágenes son fotos de teléfono o escaneos de calidad mixta, invierta en umbralización (adaptativa y Otsu) y corrección de inclinación (Hough) antes de cualquier ajuste del modelo. A menudo obtendrá más de una receta de preprocesamiento robusta que de cambiar de reconocedores.
  • Elija el detector adecuado. Para páginas escaneadas con columnas regulares, un segmentador de páginas (zonas → líneas) puede ser suficiente; para imágenes naturales, los detectores de un solo disparo como EAST son líneas de base sólidas y se conectan a muchos kits de herramientas (ejemplo de OpenCV).
  • Elija un reconocedor que coincida con su texto. Para el latín impreso, Tesseract (LSTM/OEM) es robusto y rápido; para múltiples escrituras o prototipos rápidos, EasyOCR es productivo; para escritura a mano o tipos de letra históricos, considere Kraken o Calamari y planee un ajuste fino. Si necesita un acoplamiento estrecho con la comprensión de documentos (extracción de clave-valor, VQA), evalúe TrOCR (OCR) frente a Donut (sin OCR) en su esquema—Donut puede eliminar todo un paso de integración.
  • Mida lo que importa. Para sistemas de extremo a extremo, informe la detección puntuación F y el reconocimiento CER/WER (ambos basados en la distancia de edición de Levenshtein ; véase CTC); para tareas con mucho diseño, rastree la IoU/ajuste y la distancia de edición normalizada a nivel de carácter como en los kits de evaluación de ICDAR RRC .
  • Exporte salidas ricas. Prefiera hOCR /ALTO (o ambos) para mantener las coordenadas y el orden de lectura, vital para resaltar los resultados de búsqueda, la extracción de tablas/campos y la procedencia. La CLI de Tesseract y pytesseract lo convierten en una sola línea.

Mirando hacia el futuro

La tendencia más fuerte es la convergencia: la detección, el reconocimiento, el modelado del lenguaje e incluso la decodificación específica de la tarea se están fusionando en pilas de Transformer unificadas. El preentrenamiento en grandes corpus sintéticos sigue siendo un multiplicador de fuerza. Los modelos sin OCR competirán agresivamente dondequiera que el objetivo sean salidas estructuradas en lugar de transcripciones literales. Espere también implementaciones híbridas: un detector ligero más un reconocedor de estilo TrOCR para texto de formato largo, y un modelo de estilo Donut para formularios y recibos.

Lecturas adicionales y herramientas

Tesseract (GitHub) · Documentación de Tesseract · Especificación de hOCR · Fondo de ALTO · Detector EAST · Detección de texto de OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Escritura a mano de IAM · Herramientas de formato de archivo OCR · EasyOCR

Preguntas frecuentes

¿Qué es OCR?

El Reconocimiento Óptico de Caracteres (OCR) es una tecnología utilizada para convertir diferentes tipos de documentos, como documentos en papel escaneados, archivos PDF o imágenes capturadas por una cámara digital, en datos editables y buscables.

¿Cómo funciona OCR?

OCR funciona escaneando una imagen o documento de entrada, segmentando la imagen en caracteres individuales y comparando cada carácter con una base de datos de formas de caracteres utilizando reconocimiento de patrones o reconocimiento de características.

¿Cuáles son algunas aplicaciones prácticas de OCR?

OCR se utiliza en una variedad de sectores y aplicaciones, incluyendo la digitalización de documentos impresos, la habilitación de servicios de texto a voz, la automatización de procesos de entrada de datos, y ayudar a los usuarios con discapacidad visual a interactuar mejor con el texto.

¿Es OCR siempre 100% exacto?

Aunque se han hecho grandes avances en la tecnología OCR, no es infalible. La precisión puede variar dependiendo de la calidad del documento original y las especificidades del software OCR que se esté utilizando.

¿Puede OCR reconocer la escritura a mano?

Aunque OCR está diseñado principalmente para texto impreso, algunos sistemas avanzados de OCR también pueden reconocer escritura a mano clara y consistente. Sin embargo, en general, el reconocimiento de la escritura a mano es menos preciso debido a la amplia variación en los estilos de escritura individuales.

¿Puede OCR manejar múltiples idiomas?

Sí, muchos sistemas de software OCR pueden reconocer múltiples idiomas. Sin embargo, es importante asegurar que el idioma específico sea soportado por el software que estás utilizando.

¿Cuál es la diferencia entre OCR e ICR?

OCR significa Reconocimiento Óptico de Caracteres y se utiliza para reconocer texto impreso, mientras que ICR, o Reconocimiento Inteligente de Caracteres, es más avanzado y se utiliza para reconocer texto escrito a mano.

¿Funciona OCR con cualquier fuente y tamaño de texto?

OCR funciona mejor con fuentes claras y fáciles de leer y tamaños de texto estándar. Si bien puede funcionar con varias fuentes y tamaños, la precisión tiende a disminuir cuando se trata de fuentes inusuales o tamaños de texto muy pequeños.

¿Cuáles son las limitaciones de la tecnología OCR?

OCR puede tener dificultades con documentos de baja resolución, fuentes complejas, textos mal impresos, escritura a mano y documentos con fondos que interfieren con el texto. Además, aunque puede trabajar con muchos idiomas, puede que no cubra cada idioma a la perfección.

¿Puede OCR escanear texto en color o fondos en color?

Sí, OCR puede escanear texto en color y fondos en color, aunque generalmente es más efectivo con combinaciones de colores de alto contraste, como texto negro sobre un fondo blanco. La precisión puede disminuir cuando los colores del texto y del fondo carecen de suficiente contraste.

¿Qué es el formato JPT?

Sintaxis de formato de archivo JPEG-2000

El formato de imagen JPS, abreviatura de JPEG Stereo, es un formato de archivo utilizado para almacenar fotografías estereoscópicas tomadas por cámaras digitales o creadas por software de renderizado 3D. Es esencialmente una disposición de dos imágenes JPEG una al lado de la otra dentro de un solo archivo que, cuando se ve a través del software o hardware apropiado, proporciona un efecto 3D. Este formato es particularmente útil para crear una ilusión de profundidad en las imágenes, lo que mejora la experiencia de visualización para los usuarios con sistemas de visualización compatibles o gafas 3D.

El formato JPS aprovecha la técnica de compresión JPEG (Joint Photographic Experts Group) bien establecida para almacenar las dos imágenes. JPEG es un método de compresión con pérdida, lo que significa que reduce el tamaño del archivo descartando selectivamente información menos importante, a menudo sin una disminución notable en la calidad de la imagen para el ojo humano. Esto hace que los archivos JPS sean relativamente pequeños y manejables, a pesar de contener dos imágenes en lugar de una.

Un archivo JPS es esencialmente un archivo JPEG con una estructura específica. Contiene dos imágenes comprimidas en JPEG una al lado de la otra dentro de un solo cuadro. Estas imágenes se denominan imágenes del ojo izquierdo y del ojo derecho, y representan perspectivas ligeramente diferentes de la misma escena, imitando la ligera diferencia entre lo que ve cada uno de nuestros ojos. Esta diferencia es lo que permite la percepción de profundidad cuando las imágenes se ven correctamente.

La resolución estándar para una imagen JPS suele ser el doble del ancho de una imagen JPEG estándar para acomodar tanto la imagen izquierda como la derecha. Por ejemplo, si una imagen JPEG estándar tiene una resolución de 1920x1080 píxeles, una imagen JPS tendría una resolución de 3840x1080 píxeles, con cada imagen lado a lado ocupando la mitad del ancho total. Sin embargo, la resolución puede variar según la fuente de la imagen y el uso previsto.

Para ver una imagen JPS en 3D, el espectador debe utilizar un dispositivo de visualización o software compatible que pueda interpretar las imágenes una al lado de la otra y presentarlas a cada ojo por separado. Esto se puede lograr a través de varios métodos, como el 3D anaglifo, donde las imágenes se filtran por color y se ven con gafas de colores; 3D polarizado, donde las imágenes se proyectan a través de filtros polarizados y se ven con gafas polarizadas; o 3D de obturador activo, donde las imágenes se muestran alternativamente y se sincronizan con gafas de obturador que se abren y cierran rápidamente para mostrar a cada ojo la imagen correcta.

La estructura del archivo de una imagen JPS es similar a la de un archivo JPEG estándar. Contiene un encabezado, que incluye el marcador SOI (Inicio de imagen), seguido de una serie de segmentos que contienen varias partes de metadatos y los datos de la imagen en sí. Los segmentos incluyen los marcadores APP (Aplicación), que pueden contener información como los metadatos Exif, y el segmento DQT (Definir tabla de cuantificación), que define las tablas de cuantificación utilizadas para comprimir los datos de la imagen.

Uno de los segmentos clave en un archivo JPS es el segmento JFIF (Formato de intercambio de archivos JPEG), que especifica que el archivo cumple con el estándar JFIF. Este segmento es importante para garantizar la compatibilidad con una amplia gama de software y hardware. También incluye información como la relación de aspecto y la resolución de la imagen en miniatura, que se puede utilizar para vistas previas rápidas.

Los datos de imagen reales en un archivo JPS se almacenan en el segmento SOS (Inicio de escaneo), que sigue al encabezado y los segmentos de metadatos. Este segmento contiene los datos de imagen comprimidos tanto para la imagen izquierda como para la derecha. Los datos se codifican utilizando el algoritmo de compresión JPEG, que implica una serie de pasos que incluyen conversión de espacio de color, submuestreo, transformada discreta del coseno (DCT), cuantificación y codificación de entropía.

La conversión del espacio de color es el proceso de convertir los datos de la imagen del espacio de color RGB, que se utiliza comúnmente en cámaras digitales y pantallas de computadora, al espacio de color YCbCr, que se utiliza en la compresión JPEG. Esta conversión separa la imagen en un componente de luminancia (Y), que representa los niveles de brillo, y dos componentes de crominancia (Cb y Cr), que representan la información de color. Esto es beneficioso para la compresión porque el ojo humano es más sensible a los cambios de brillo que de color, lo que permite una compresión más agresiva de los componentes de crominancia sin afectar significativamente la calidad de imagen percibida.

El submuestreo es un proceso que aprovecha la menor sensibilidad del ojo humano al detalle del color al reducir la resolución de los componentes de crominancia en relación con el componente de luminancia. Las relaciones de submuestreo comunes incluyen 4:4:4 (sin submuestreo), 4:2:2 (reduciendo la resolución horizontal de la crominancia a la mitad) y 4:2:0 (reduciendo tanto la resolución horizontal como vertical de la crominancia a la mitad). La elección de la relación de submuestreo puede afectar el equilibrio entre la calidad de la imagen y el tamaño del archivo.

La transformada discreta del coseno (DCT) se aplica a pequeños bloques de la imagen (normalmente 8x8 píxeles) para convertir los datos del dominio espacial al dominio de la frecuencia. Este paso es crucial para la compresión JPEG porque permite la separación de los detalles de la imagen en componentes de importancia variable, siendo los componentes de mayor frecuencia a menudo menos perceptibles para el ojo humano. Estos componentes pueden entonces cuantificarse, o reducirse en precisión, para lograr la compresión.

La cuantificación es el proceso de mapear un rango de valores a un solo valor cuántico, reduciendo efectivamente la precisión de los coeficientes DCT. Aquí es donde entra en juego la naturaleza con pérdida de la compresión JPEG, ya que se descarta parte de la información de la imagen. El grado de cuantificación está determinado por las tablas de cuantificación especificadas en el segmento DQT, y se puede ajustar para equilibrar la calidad de la imagen con el tamaño del archivo.

El paso final en el proceso de compresión JPEG es la codificación de entropía, que es una forma de compresión sin pérdida. El método más común utilizado en JPEG es la codificación Huffman, que asigna códigos más cortos a valores más frecuentes y códigos más largos a valores menos frecuentes. Esto reduce el tamaño general de los datos de la imagen sin ninguna pérdida adicional de información.

Además de las técnicas de compresión JPEG estándar, el formato JPS también puede incluir metadatos específicos relacionados con la naturaleza estereoscópica de las imágenes. Estos metadatos pueden incluir información sobre la configuración de paralaje, los puntos de convergencia y cualquier otro dato que pueda ser necesario para mostrar correctamente el efecto 3D. Estos metadatos generalmente se almacenan en los segmentos APP del archivo.

El formato JPS es compatible con una variedad de aplicaciones de software y dispositivos, incluidos televisores 3D, cascos de realidad virtual y visores de fotos especializados. Sin embargo, no es tan compatible como el formato JPEG estándar, por lo que los usuarios pueden necesitar utilizar un software específico o convertir los archivos JPS a otro formato para una compatibilidad más amplia.

Uno de los desafíos con el formato JPS es garantizar que las imágenes izquierda y derecha estén correctamente alineadas y tengan el paralaje correcto. La desalineación o el paralaje incorrecto pueden provocar una experiencia de visualización incómoda y pueden causar fatiga visual o dolores de cabeza. Por lo tanto, es importante que los fotógrafos y artistas 3D capturen o creen cuidadosamente las imágenes con los parámetros estereoscópicos correctos.

En conclusión, el formato de imagen JPS es un formato de archivo especializado diseñado para almacenar y mostrar imágenes estereoscópicas. Se basa en las técnicas de compresión JPEG establecidas para crear una forma compacta y eficiente de almacenar fotografías en 3D. Si bien ofrece una experiencia de visualización única, el formato requiere hardware o software compatible para ver las imágenes en 3D y puede presentar desafíos en términos de alineación y paralaje. A pesar de estos desafíos, el formato JPS sigue siendo una herramienta valiosa para fotógrafos, artistas 3D y entusiastas que desean capturar y compartir la profundidad y el realismo del mundo en formato digital.

Formatos de archivo compatibles

AAI.aai

Imagen Dune AAI

AI.ai

Adobe Illustrator CS2

AVIF.avif

Formato de archivo de imagen AV1

BAYER.bayer

Imagen Bayer en bruto

BMP.bmp

Imagen bitmap de Microsoft Windows

CIN.cin

Archivo de imagen Cineon

CLIP.clip

Máscara de clip de imagen

CMYK.cmyk

Muestras de cian, magenta, amarillo y negro en bruto

CUR.cur

Icono de Microsoft

DCX.dcx

ZSoft IBM PC Paintbrush multipágina

DDS.dds

Superficie DirectDraw de Microsoft

DPX.dpx

Imagen SMTPE 268M-2003 (DPX 2.0)

DXT1.dxt1

Superficie DirectDraw de Microsoft

EPDF.epdf

Formato de documento portátil encapsulado

EPI.epi

Formato de intercambio PostScript encapsulado de Adobe

EPS.eps

PostScript encapsulado de Adobe

EPSF.epsf

PostScript encapsulado de Adobe

EPSI.epsi

Formato de intercambio PostScript encapsulado de Adobe

EPT.ept

PostScript encapsulado con vista previa TIFF

EPT2.ept2

PostScript encapsulado Nivel II con vista previa TIFF

EXR.exr

Imagen de alto rango dinámico (HDR)

FF.ff

Farbfeld

FITS.fits

Sistema de Transporte de Imagen Flexible

GIF.gif

Formato de intercambio de gráficos CompuServe

HDR.hdr

Imagen de alto rango dinámico

HEIC.heic

Contenedor de imagen de alta eficiencia

HRZ.hrz

Televisión de barrido lento

ICO.ico

Icono de Microsoft

ICON.icon

Icono de Microsoft

J2C.j2c

Flujo JPEG-2000

J2K.j2k

Flujo JPEG-2000

JNG.jng

Gráficos JPEG Network

JP2.jp2

Sintaxis de formato de archivo JPEG-2000

JPE.jpe

Formato JFIF del Grupo Conjunto de Expertos en Fotografía

JPEG.jpeg

Formato JFIF del Grupo Conjunto de Expertos en Fotografía

JPG.jpg

Formato JFIF del Grupo Conjunto de Expertos en Fotografía

JPM.jpm

Sintaxis de formato de archivo JPEG-2000

JPS.jps

Formato JPS del Grupo Conjunto de Expertos en Fotografía

JPT.jpt

Sintaxis de formato de archivo JPEG-2000

JXL.jxl

Imagen JPEG XL

MAP.map

Base de datos de imágenes sin costuras multiresolución (MrSID)

MAT.mat

Formato de imagen MATLAB nivel 5

PAL.pal

Mapa de pixeles Palm

PALM.palm

Mapa de pixeles Palm

PAM.pam

Formato común de mapa de bits 2-dimensional

PBM.pbm

Formato de mapa de bits portable (blanco y negro)

PCD.pcd

Photo CD

PCT.pct

Apple Macintosh QuickDraw/PICT

PCX.pcx

ZSoft IBM PC Paintbrush

PDB.pdb

Formato Palm Database ImageViewer

PDF.pdf

Formato de Documento Portátil

PDFA.pdfa

Formato de Archivo de Documento Portátil

PFM.pfm

Formato flotante portable

PGM.pgm

Formato de mapa de grises portable (escala de grises)

PGX.pgx

Formato sin comprimir JPEG 2000

PICT.pict

Apple Macintosh QuickDraw/PICT

PJPEG.pjpeg

Formato JFIF del Grupo Conjunto de Expertos en Fotografía

PNG.png

Gráficos de red portátiles

PNG00.png00

PNG que hereda profundidad de bits, tipo de color de la imagen original

PNG24.png24

RGB opaco o transparente binario de 24 bits (zlib 1.2.11)

PNG32.png32

RGBA opaco o transparente binario de 32 bits

PNG48.png48

RGB opaco o transparente binario de 48 bits

PNG64.png64

RGBA opaco o transparente binario de 64 bits

PNG8.png8

Índice opaco o transparente binario de 8 bits

PNM.pnm

Anymap portable

PPM.ppm

Formato de mapa de bits portable (color)

PS.ps

Archivo PostScript de Adobe

PSB.psb

Formato de documento grande de Adobe

PSD.psd

Mapa de bits Photoshop de Adobe

RGB.rgb

Muestras de rojo, verde y azul en bruto

RGBA.rgba

Muestras de rojo, verde, azul y alfa en bruto

RGBO.rgbo

Muestras de rojo, verde, azul y opacidad en bruto

SIX.six

Formato de gráficos DEC SIXEL

SUN.sun

Formato Rasterfile de Sun

SVG.svg

Gráficos vectoriales escalables

TIFF.tiff

Formato de archivo de imagen etiquetado

VDA.vda

Imagen Truevision Targa

VIPS.vips

Imagen VIPS

WBMP.wbmp

Imagen inalámbrica Bitmap (nivel 0)

WEBP.webp

Formato de imagen WebP

YUV.yuv

CCIR 601 4:1:1 o 4:2:2

Preguntas frecuentes

¿Cómo funciona esto?

Este convertidor funciona completamente en tu navegador. Cuando seleccionas un archivo, se lee en la memoria y se convierte al formato seleccionado. Luego puedes descargar el archivo convertido.

¿Cuánto tarda en convertir un archivo?

Las conversiones comienzan al instante, y la mayoría de los archivos se convierten en menos de un segundo. Archivos más grandes pueden tardar más.

¿Qué sucede con mis archivos?

Tus archivos nunca se suben a nuestros servidores. Se convierten en tu navegador, y el archivo convertido se descarga luego. Nosotros nunca vemos tus archivos.

¿Qué tipos de archivo puedo convertir?

Soportamos la conversión entre todos los formatos de imagen, incluyendo JPEG, PNG, GIF, WebP, SVG, BMP, TIFF y más.

¿Cuánto cuesta esto?

Este convertidor es completamente gratis, y siempre será gratis. Debido a que funciona en tu navegador, no tenemos que pagar por servidores, así que no necesitamos cobrarte.

¿Puedo convertir múltiples archivos a la vez?

¡Sí! Puedes convertir tantos archivos como quieras a la vez. Sólo selecciona múltiples archivos cuando los agregues.