OCR für jedes J2C

Unbegrenzt Aufgaben. Dateigröße bis zu 2.5GB. Immer kostenlos.

Alles lokal

Unser Konverter läuft in Ihrem Browser, daher sehen wir Ihre Daten nie.

Blitzschnell

Kein Hochladen Ihrer Dateien auf einen Server - Konvertierungen starten sofort.

Standardmäßig sicher

Im Gegensatz zu anderen Konvertern werden Ihre Dateien nie auf unseren Server hochgeladen.

Optische Zeichenerkennung (OCR) wandelt Bilder von Text – Scans, Smartphone-Fotos, PDFs – in maschinenlesbare Zeichenketten und zunehmend in strukturierte Daten um. Moderne OCR ist eine Pipeline, die ein Bild bereinigt, Text findet, ihn liest und umfassende Metadaten exportiert, damit nachgelagerte Systeme Felder suchen, indizieren oder extrahieren können. Zwei weit verbreitete Ausgabestandards sind hOCR, ein HTML-Mikroformat für Text und Layout, und ALTO XML, ein auf Bibliotheken/Archive ausgerichtetes Schema; beide erhalten Positionen, Lesereihenfolge und andere Layout-Hinweise und werden von populären Engines wie Tesseractunterstützt.

Eine kurze Tour durch die Pipeline

Vorverarbeitung. Die OCR-Qualität beginnt mit der Bildbereinigung: Graustufenumwandlung, Entrauschen, Schwellenwertbildung (Binarisierung) und Schräglagenkorrektur. Kanonische OpenCV-Tutorials behandeln globale, adaptive und Otsu Schwellenwertbildung – unerlässlich für Dokumente mit ungleichmäßiger Beleuchtung oder bimodalen Histogrammen. Wenn die Beleuchtung innerhalb einer Seite variiert (denken Sie an Handy-Schnappschüsse), übertreffen adaptive Methoden oft einen einzigen globalen Schwellenwert; Otsu wählt automatisch einen Schwellenwert durch Analyse des Histogramms. Die Neigungskorrektur ist ebenso wichtig: Hough-basierte Schräglagenkorrektur (Hough-Linientransformation) in Verbindung mit Otsu-Binarisierung ist ein gängiges und effektives Rezept in Produktions-Vorverarbeitungspipelines.

Erkennung vs. Erkennung. OCR wird typischerweise in Texterkennung (wo ist der Text?) und Texterkennung (was steht da?) unterteilt. In natürlichen Szenen und vielen Scans sind vollständig konvolutionale Detektoren wie EAST effizient bei der Vorhersage von Vierecken auf Wort- oder Zeilenebene ohne aufwändige Vorschlagsphasen und sind in gängigen Toolkits implementiert (z. B. OpenCVs Tutorial zur Texterkennung). Bei komplexen Seiten (Zeitungen, Formulare, Bücher) sind die Segmentierung von Zeilen/Regionen und die Inferenz der Lesereihenfolge von Bedeutung:Kraken implementiert traditionelle Zonen-/Zeilensegmentierung und neuronale Grundlinien-Segmentierung, mit expliziter Unterstützung für verschiedene Schriften und Richtungen (LTR/RTL/vertikal).

Erkennungsmodelle. Das klassische Open-Source-Arbeitspferd Tesseract (von Google als Open Source veröffentlicht, mit Wurzeln bei HP) entwickelte sich von einem Zeichenklassifikator zu einem LSTM-basierten Sequenz- Erkenner und kann durchsuchbare PDFs, hOCR/ALTO-freundliche Ausgabenund mehr über die CLI ausgeben. Moderne Erkenner setzen auf Sequenzmodellierung ohne vorsegmentierte Zeichen. Connectionist Temporal Classification (CTC) bleibt grundlegend und lernt die Ausrichtungen zwischen Eingabemerkmalfolgen und Ausgabezeichenfolgen; es wird häufig in Handschrift- und Szenentext-Pipelines verwendet.

In den letzten Jahren haben Transformer die OCR neu gestaltet. TrOCR verwendet einen Vision-Transformer-Encoder plus einen Text-Transformer-Decoder, trainiert auf großen synthetischen Korpora und dann feinabgestimmt auf realen Daten, mit starker Leistung bei gedruckten, handschriftlichen und Szenentext-Benchmarks (siehe auch Hugging Face-Dokumentation). Parallel dazu umgehen einige Systeme OCR für das nachgelagerte Verständnis: Donut (Document Understanding Transformer) ist ein OCR-freier Encoder-Decoder, der direkt strukturierte Antworten (wie Schlüssel-Wert-JSON) aus Dokumenten- bildern ausgibt (Repo, Modellkarte), um Fehlerakkumulation zu vermeiden, wenn ein separater OCR-Schritt ein IE-System speist.

Engines und Bibliotheken

Wenn Sie eine umfassende Texterkennung für viele Schriften wünschen, bietet EasyOCR eine einfache API mit über 80 Sprachmodellen, die Boxen, Text und Konfidenzen zurückgibt – praktisch für Prototypen und nicht-lateinische Schriften. Für historische Dokumente glänzt Kraken mit Grundliniensegmentierung und schriftbewusster Lesereihenfolge; für flexibles Training auf Zeilenebene, Calamari baut auf der Ocropy-Linie auf (Ocropy) mit (Multi-)LSTM+CTC-Erkennern und einer CLI zur Feinabstimmung benutzerdefinierter Modelle.

Datensätze und Benchmarks

Generalisierung hängt von Daten ab. Für Handschrift bietet die IAM Handwriting Database schreiberdiverse englische Sätze für Training und Evaluierung; sie ist ein langjähriger Referenzdatensatz für Zeilen- und Worterkennung. Für Szenentext hat COCO-Text umfangreiche Annotationen über MS-COCO gelegt, mit Labels für gedruckt/handschriftlich, lesbar/unlesbar, Schrift und vollständigen Transkriptionen (siehe auch die ursprüngliche Projektseite). Das Feld stützt sich auch stark auf synthetisches Vortraining: SynthText in the Wild rendert Text in Fotografien mit realistischer Geometrie und Beleuchtung und liefert riesige Datenmengen zum Vortrainieren von Detektoren und Erkennern (Referenz Code & Daten).

Wettbewerbe unter dem Dach von ICDARs Robust Reading halten die Evaluierung auf dem Boden. Jüngste Aufgaben betonen die End-to-End-Erkennung/Lesung und umfassen das Verknüpfen von Wörtern zu Phrasen, wobei der offizielle Code Präzision/Recall/F-Score, Intersection-over-Union (IoU) und zeichenbasierte Edit-Distanz-Metriken meldet – was widerspiegelt, was Praktiker verfolgen sollten.

Ausgabeformate und nachgelagerte Nutzung

OCR endet selten bei reinem Text. Archive und digitale Bibliotheken bevorzugen ALTO XML , da es das physische Layout (Blöcke/Zeilen/Wörter mit Koordinaten) neben dem Inhalt kodiert und gut mit METS-Verpackungen harmoniert. Das hOCR Mikroformat hingegen bettet dieselbe Idee in HTML/CSS ein, indem es Klassen wie ocr_line und ocrx_word verwendet, was die Anzeige, Bearbeitung und Transformation mit Web-Werkzeugen erleichtert. Tesseract bietet beides – z. B. die Erzeugung von hOCR oder durchsuchbaren PDFs direkt über die CLI (PDF-Ausgabe-Anleitung); Python-Wrapper wie pytesseract bieten zusätzlichen Komfort. Es gibt Konverter, um zwischen hOCR und ALTO zu übersetzen, wenn Repositories feste Aufnahme- standards haben – siehe diese kuratierte Liste von OCR-Dateiformat-Tools.

Praktische Anleitung

  • Beginnen Sie mit Daten & Sauberkeit. Wenn Ihre Bilder Handyfotos oder Scans gemischter Qualität sind, investieren Sie in Schwellenwertbildung (adaptiv & Otsu) und Schräglagenkorrektur (Hough) vor jeder Modellabstimmung. Sie werden oft mehr von einem robusten Vorverarbeitungsrezept profitieren als vom Austausch von Erkennern.
  • Wählen Sie den richtigen Detektor. Für gescannte Seiten mit regelmäßigen Spalten kann ein Seitensegmentierer (Zonen → Zeilen) ausreichen; für natürliche Bilder sind Single-Shot-Detektoren wie EAST starke Baselines und lassen sich in viele Toolkits integrieren (OpenCV-Beispiel).
  • Wählen Sie einen Erkenner, der zu Ihrem Text passt. Für gedrucktes Latein ist Tesseract (LSTM/OEM) robust und schnell; für Multi-Skript oder schnelle Prototypen ist EasyOCR produktiv; für Handschrift oder historische Schriftarten sollten Sie Kraken oder Calamari in Betracht ziehen und eine Feinabstimmung planen. Wenn Sie eine enge Kopplung an das Dokumentenverständnis benötigen (Schlüssel-Wert-Extraktion, VQA), evaluieren Sie TrOCR (OCR) versus Donut (OCR-frei) auf Ihrem Schema – Donut kann einen ganzen Integrationsschritt entfernen.
  • Messen Sie, was zählt. Für End-to-End-Systeme melden Sie Erkennungs- F-Score und Erkennungs-CER/WER (beide basierend auf Levenshtein- Edit-Distanz; siehe CTC); für layoutlastige Aufgaben verfolgen Sie IoU/Dichtheit und zeichenbasierte normalisierte Edit-Distanz wie in ICDAR RRC Evaluierungskits.
  • Exportieren Sie reichhaltige Ausgaben. Bevorzugen Sie hOCR /ALTO (oder beides), damit Sie Koordinaten und Lesereihenfolge beibehalten – entscheidend für die Hervorhebung von Suchtreffern, Tabellen-/Feld- extraktion und Provenienz. Tesseracts CLI und pytesseract machen dies zu einem Einzeiler.

Blick nach vorn

Der stärkste Trend ist die Konvergenz: Erkennung, Erkennung, Sprachmodellierung und sogar aufgabenspezifische Dekodierung verschmelzen zu einheitlichen Transformer-Stacks. Vortraining auf großen synthetischen Korpora bleibt ein Kraftmultiplikator. OCR-freie Modelle werden aggressiv konkurrieren, wo immer das Ziel strukturierte Ausgaben anstelle von wörtlichen Transkripten sind. Erwarten Sie auch hybride Bereitstellungen: einen leichtgewichtigen Detektor plus einen TrOCR-Stil- Erkenner für Langformtext und ein Donut-Stil-Modell für Formulare und Belege.

Weiterführende Literatur & Tools

Tesseract (GitHub) · Tesseract-Dokumentation · hOCR-Spezifikation · ALTO-Hintergrund · EAST-Detektor · OpenCV-Texterkennung · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM Handschrift · OCR-Dateiformat-Tools · EasyOCR

Häufig gestellte Fragen

Was ist OCR?

Die Optical Character Recognition (OCR) ist eine Technologie, die verwendet wird, um verschiedene Arten von Dokumenten, wie gescannte Papiere, PDF-Dateien oder Bilder, die mit einer Digitalkamera aufgenommen wurden, in bearbeitbare und durchsuchbare Daten umzuwandeln.

Wie funktioniert OCR?

OCR funktioniert, indem es ein Eingabebild oder Dokument scannt, das Bild in einzelne Zeichen segmentiert und jedes Zeichen mit einer Datenbank von Zeichenformen mit Hilfe von Mustererkennung oder Feature-Erkennung vergleicht.

Welches sind einige praktische Anwendungen von OCR?

OCR wird in einer Vielzahl von Bereichen und Anwendungen genutzt, einschließlich der Digitalisierung von gedruckten Dokumenten, der Aktivierung von Text-zu-Sprachdiensten, der Automatisierung von Dateneingabeprozessen und der Unterstützung von sehbehinderten Benutzern bei der Interaktion mit Texten.

Ist OCR immer 100% genau?

Obwohl große Fortschritte in der OCR-Technologie gemacht wurden, ist sie nicht unfehlbar. Die Genauigkeit kann abhängig von der Qualität des Originaldokuments und den Spezifika der verwendeten OCR-Software variieren.

Kann OCR Handschrift erkennen?

Obwohl OCR hauptsächlich für gedruckten Text konzipiert wurde, können einige fortschrittliche OCR-Systeme auch klare und konsistente Handschriften erkennen. Allerdings ist die Handschriftenerkennung in der Regel weniger genau aufgrund der großen Variation in individuellen Schreibstilen.

Kann OCR mehrere Sprachen verarbeiten?

Ja, viele OCR-Software-Systeme können mehrere Sprachen erkennen. Es ist jedoch wichtig zu gewährleisten, dass die spezifische Sprache von der von Ihnen verwendeten Software unterstützt wird.

Was ist der Unterschied zwischen OCR und ICR?

OCR steht für Optical Character Recognition und wird verwendet, um gedruckten Text zu erkennen, während ICR für Intelligent Character Recognition steht und wird zur Fortschrittlicheren Erkennung von handschriftlichen Text verwendet.

Funktioniert OCR mit jeder Schrift- und Textgröße?

OCR funktioniert am besten mit klaren, leicht lesbaren Schriftarten und Standard-Textgrößen. Obwohl es mit verschiedenen Schriftarten und Größen arbeiten kann, neigt die Genauigkeit dazu, zu sinken, wenn man mit ungewöhnlichen Schriftarten oder sehr kleinen Textgrößen umgeht.

Was sind die Grenzen der OCR-Technologie?

OCR kann Probleme haben mit niedrigauflösenden Dokumenten, komplexen Schriftarten, schlecht gedruckten Texten, Handschriften und Dokumenten mit Hintergründen, die den Text stören. Außerdem kann es, obwohl es mit vielen Sprachen arbeiten kann, nicht jede Sprache perfekt abdecken.

Kann OCR farbigen Text oder farbige Hintergründe scannen?

Ja, OCR kann farbigen Text und Hintergründe scannen, obwohl es in der Regel effektiver mit Hochkontrast-Farbkombinationen ist, wie schwarzem Text auf weißem Hintergrund. Die Genauigkeit kann abnehmen, wenn Text und Hintergrundfarben nicht genug Kontrast aufweisen.

Was ist das J2C Format?

JPEG-2000 Codestream

Das J2C-Bildformat, auch bekannt als JPEG 2000 Code Stream, ist Teil der JPEG 2000-Normenreihe. JPEG 2000 selbst ist ein Bildkomprimierungsstandard und ein Codierungssystem, das vom Joint Photographic Experts Group Committee mit der Absicht erstellt wurde, den ursprünglichen JPEG-Standard abzulösen. Der JPEG 2000-Standard wurde mit dem Ziel festgelegt, ein neues Bildcodierungssystem mit hoher Flexibilität und verbesserter Leistung gegenüber JPEG bereitzustellen. Es wurde entwickelt, um einige Einschränkungen des JPEG-Formats zu beheben, wie z. B. schlechte Leistung bei niedrigen Bitraten und mangelnde Skalierbarkeit.

JPEG 2000 verwendet die Wavelet-Transformation im Gegensatz zur diskreten Kosinustransformation (DCT), die im ursprünglichen JPEG-Standard verwendet wird. Die Wavelet-Transformation ermöglicht einen höheren Grad an Skalierbarkeit und die Möglichkeit, eine verlustfreie Komprimierung durchzuführen, was bedeutet, dass das Originalbild aus den komprimierten Daten perfekt rekonstruiert werden kann. Dies ist ein erheblicher Vorteil gegenüber der verlustbehafteten Komprimierung des ursprünglichen JPEG, bei der während des Komprimierungsprozesses dauerhaft einige Bildinformationen verloren gehen.

Das J2C-Dateiformat bezieht sich speziell auf den Codestream von JPEG 2000. Dieser Codestream sind die eigentlichen codierten Bilddaten, die in verschiedene Containerformate wie JP2 (JPEG 2000 Part 1-Dateiformat), JPX (JPEG 2000 Part 2, erweitertes Dateiformat) und MJ2 (Motion JPEG 2000-Dateiformat für Video) eingebettet werden können. Das J2C-Format sind im Wesentlichen die rohen, codierten Bilddaten ohne zusätzliche Metadaten oder Struktur, die von einem Containerformat bereitgestellt werden könnten.

Eine der Hauptfunktionen des J2C-Formats ist die Unterstützung sowohl verlustfreier als auch verlustbehafteter Komprimierung innerhalb derselben Datei. Dies wird durch die Verwendung einer reversiblen Wavelet-Transformation für verlustfreie Komprimierung und einer irreversiblen Wavelet-Transformation für verlustbehaftete Komprimierung erreicht. Die Wahl zwischen verlustfreier und verlustbehafteter Komprimierung kann innerhalb des Bildes pro Kachel getroffen werden, sodass je nach Wichtigkeit des Inhalts eine Mischung aus hochwertigen und minderwertigen Bereichen möglich ist.

Das J2C-Format ist außerdem hochgradig skalierbar und unterstützt eine Funktion, die als „progressive Dekodierung“ bezeichnet wird. Dies bedeutet, dass zuerst eine Version des Bildes mit niedriger Auflösung decodiert und angezeigt werden kann, gefolgt von aufeinanderfolgenden Schichten mit höherer Auflösung, wenn mehr Bilddaten empfangen oder verarbeitet werden. Dies ist besonders nützlich für Netzwerkanwendungen, bei denen die Bandbreite möglicherweise begrenzt ist, da es eine schnelle Vorschau des Bildes ermöglicht, während das vollständige Bild mit hoher Auflösung noch heruntergeladen wird.

Ein weiterer wichtiger Aspekt des J2C-Formats ist die Unterstützung von Regionen von Interesse (ROI). Mit der ROI-Codierung können bestimmte Teile des Bildes in einer höheren Qualität als der Rest des Bildes codiert werden. Dies ist nützlich, wenn bestimmte Bereiche des Bildes wichtiger sind und mit höherer Wiedergabetreue erhalten werden müssen, wie z. B. Gesichter in einem Porträt oder Text in einem Dokument.

Das J2C-Format enthält außerdem ausgeklügelte Fehlertoleranzfunktionen, die es robuster gegen Datenverlust während der Übertragung machen. Dies wird durch die Verwendung von Fehlerkorrekturcodes und die Strukturierung des Codestreams erreicht, sodass verlorene Pakete wiederhergestellt werden können. Dies macht J2C zu einer guten Wahl für die Übertragung von Bildern über unzuverlässige Netzwerke oder die Speicherung von Bildern in einer Weise, die die Auswirkungen potenzieller Datenbeschädigung minimiert.

Die Farbraumbehandlung in J2C ist ebenfalls fortschrittlicher als im ursprünglichen JPEG. Das Format unterstützt eine Vielzahl von Farbräumen, darunter Graustufen, RGB, YCbCr und andere. Es ermöglicht außerdem die Verwendung verschiedener Farbräume in verschiedenen Kacheln desselben Bildes, was zusätzliche Flexibilität bei der Codierung und Darstellung von Bildern bietet.

Die Komprimierungseffizienz des J2C-Formats ist eine weitere Stärke. Durch die Verwendung der Wavelet-Transformation und fortschrittlicher Entropiecodierungstechniken wie der arithmetischen Codierung kann J2C höhere Komprimierungsverhältnisse als das ursprüngliche JPEG erzielen, insbesondere bei niedrigeren Bitraten. Dies macht es zu einer attraktiven Option für Anwendungen, bei denen Speicherplatz oder Bandbreite knapp sind, wie z. B. bei Mobilgeräten oder Webanwendungen.

Trotz seiner vielen Vorteile hat das J2C-Format im Vergleich zum ursprünglichen JPEG-Format keine weit verbreitete Akzeptanz gefunden. Dies liegt zum Teil an der größeren Komplexität des JPEG 2000-Standards, der mehr Rechenressourcen zum Codieren und Decodieren von Bildern benötigt. Darüber hinaus ist das ursprüngliche JPEG-Format in vielen Systemen tief verwurzelt und verfügt über ein umfangreiches Ökosystem an Software- und Hardwareunterstützung, was es für einen neuen Standard schwierig macht, Fuß zu fassen.

In bestimmten Fachgebieten ist das J2C-Format jedoch aufgrund seiner spezifischen Eigenschaften zur bevorzugten Wahl geworden. In der medizinischen Bildgebung beispielsweise machen die Möglichkeit der verlustfreien Komprimierung und die Unterstützung von Bildern mit hohem Dynamikbereich und hoher Bittiefe J2C zu einem idealen Format. In ähnlicher Weise werden in der digitalen Kino- und Videoarchivierung die hohe Qualität bei hohen Komprimierungsverhältnissen und die Skalierbarkeitsfunktionen des Formats sehr geschätzt.

Der Codierungsprozess eines J2C-Bildes umfasst mehrere Schritte. Zuerst wird das Bild in Kacheln unterteilt, die unabhängig voneinander verarbeitet werden können. Diese Kachelung ermöglicht eine parallele Verarbeitung und kann die Effizienz der Codierungs- und Decodierungsprozesse verbessern. Jede Kachel wird dann entweder mit einer reversiblen oder einer irreversiblen Wavelet-Transformation transformiert, je nachdem, ob eine verlustfreie oder verlustbehaftete Komprimierung gewünscht wird.

Nach der Wavelet-Transformation werden die Koeffizienten quantisiert, was die Reduzierung der Genauigkeit der Wavelet-Koeffizienten beinhaltet. Bei verlustfreier Komprimierung wird dieser Schritt übersprungen, da die Quantisierung Fehler einführen würde. Die quantisierten Koeffizienten werden dann mit arithmetischer Codierung entropiecodiert, wodurch die Größe der Daten durch Nutzung der statistischen Eigenschaften des Bildinhalts reduziert wird.

Der letzte Schritt im Codierungsprozess ist die Assemblierung des Codestreams. Die entropiecodierten Daten für jede Kachel werden mit Headerinformationen kombiniert, die das Bild und seine Codierung beschreiben. Dazu gehören Informationen über die Größe des Bildes, die Anzahl der Kacheln, die verwendete Wavelet-Transformation, die Quantisierungsparameter und alle anderen relevanten Daten. Der resultierende Codestream kann dann in einer J2C-Datei gespeichert oder in ein Containerformat eingebettet werden.

Die Decodierung eines J2C-Bildes beinhaltet im Wesentlichen die Umkehrung des Codierungsprozesses. Der Codestream wird geparst, um die Headerinformationen und die entropiecodierten Daten für jede Kachel zu extrahieren. Die entropiecodierten Daten werden dann decodiert, um die quantisierten Wavelet-Koeffizienten wiederherzustellen. Wenn das Bild mit verlustbehafteter Komprimierung komprimiert wurde, werden die Koeffizienten dann dequantisiert, um ihre ursprünglichen Werte anzunähern. Die inverse Wavelet-Transformation wird angewendet, um das Bild aus den Wavelet-Koeffizienten zu rekonstruieren, und die Kacheln werden zusammengefügt, um das endgültige Bild zu bilden.

Zusammenfassend lässt sich sagen, dass das J2C-Bildformat ein leistungsstarkes und flexibles Bildcodierungssystem ist, das gegenüber dem ursprünglichen JPEG-Format mehrere Vorteile bietet, darunter eine bessere Komprimierungseffizienz, Skalierbarkeit und die Möglichkeit, eine verlustfreie Komprimierung durchzuführen. Obwohl es nicht den gleichen Grad an Allgegenwart wie JPEG erreicht hat, eignet es sich gut für Anwendungen, die qualitativ hochwertige Bilder erfordern oder spezifische technische Anforderungen haben. Da sich die Technologie weiterentwickelt und der Bedarf an ausgefeilteren Bildcodierungssystemen wächst, könnte das J2C-Format in verschiedenen Bereichen eine zunehmende Akzeptanz finden.

Unterstützte Formate

AAI.aai

AAI Dune Bild

AI.ai

Adobe Illustrator CS2

AVIF.avif

AV1 Bildformat

AVS.avs

AVS X Bild

BAYER.bayer

Rohes Bayer-Bild

BMP.bmp

Microsoft Windows Bitmap-Bild

CIN.cin

Cineon-Bilddatei

CLIP.clip

Bild-Clip-Maske

CMYK.cmyk

Rohcyan-, Magenta-, Gelb- und Schwarzproben

CMYKA.cmyka

Rohcyan-, Magenta-, Gelb-, Schwarz- und Alpha-Proben

CUR.cur

Microsoft-Symbol

DCX.dcx

ZSoft IBM PC mehrseitige Paintbrush

DDS.dds

Microsoft DirectDraw-Oberfläche

DPX.dpx

SMTPE 268M-2003 (DPX 2.0) Bild

DXT1.dxt1

Microsoft DirectDraw-Oberfläche

EPDF.epdf

Eingekapseltes tragbares Dokumentenformat

EPI.epi

Adobe Encapsulated PostScript Interchange-Format

EPS.eps

Adobe Encapsulated PostScript

EPSF.epsf

Adobe Encapsulated PostScript

EPSI.epsi

Adobe Encapsulated PostScript Interchange-Format

EPT.ept

Eingekapseltes PostScript mit TIFF-Vorschau

EPT2.ept2

Eingekapseltes PostScript Level II mit TIFF-Vorschau

EXR.exr

Bild mit hohem Dynamikbereich (HDR)

FARBFELD.ff

Farbfeld

FF.ff

Farbfeld

FITS.fits

Flexibles Bildtransport-System

GIF.gif

CompuServe-Grafikaustauschformat

GIF87.gif87

CompuServe-Grafikaustauschformat (Version 87a)

GROUP4.group4

Rohes CCITT Group4

HDR.hdr

Bild mit hohem Dynamikbereich (HDR)

HRZ.hrz

Slow Scan TeleVision

ICO.ico

Microsoft-Symbol

ICON.icon

Microsoft-Symbol

IPL.ipl

IP2 Location Image

J2C.j2c

JPEG-2000 Codestream

J2K.j2k

JPEG-2000 Codestream

JNG.jng

JPEG Network Graphics

JP2.jp2

JPEG-2000 Dateiformat Syntax

JPC.jpc

JPEG-2000 Codestream

JPE.jpe

Joint Photographic Experts Group JFIF-Format

JPEG.jpeg

Joint Photographic Experts Group JFIF-Format

JPG.jpg

Joint Photographic Experts Group JFIF-Format

JPM.jpm

JPEG-2000 Dateiformat Syntax

JPS.jps

Joint Photographic Experts Group JPS-Format

JPT.jpt

JPEG-2000 Dateiformat Syntax

JXL.jxl

JPEG XL-Bild

MAP.map

Multi-Resolution Seamless Image Database (MrSID)

MAT.mat

MATLAB-Level-5-Bildformat

PAL.pal

Palm-Pixmap

PALM.palm

Palm-Pixmap

PAM.pam

Allgemeines zweidimensionales Bitmap-Format

PBM.pbm

Portable Bitmap-Format (schwarz-weiß)

PCD.pcd

Photo-CD

PCDS.pcds

Photo-CD

PCT.pct

Apple Macintosh QuickDraw/PICT

PCX.pcx

ZSoft IBM PC Paintbrush

PDB.pdb

Palm Database ImageViewer-Format

PDF.pdf

Portable Document Format

PDFA.pdfa

Portable Document Archive-Format

PFM.pfm

Portable Float-Format

PGM.pgm

Portable Graymap-Format (Graustufen)

PGX.pgx

JPEG-2000 unkomprimiertes Format

PICON.picon

Persönliches Icon

PICT.pict

Apple Macintosh QuickDraw/PICT

PJPEG.pjpeg

Joint Photographic Experts Group JFIF-Format

PNG.png

Portable Network Graphics

PNG00.png00

PNG mit Bit-Tiefe und Farbtyp vom Originalbild erben

PNG24.png24

Opakes oder binäres transparentes 24-Bit-RGB (zlib 1.2.11)

PNG32.png32

Opakes oder binäres transparentes 32-Bit-RGBA

PNG48.png48

Opakes oder binäres transparentes 48-Bit-RGB

PNG64.png64

Opakes oder binäres transparentes 64-Bit-RGBA

PNG8.png8

Opakes oder binäres transparentes 8-Bit-Indexed

PNM.pnm

Portable Anymap

PPM.ppm

Portable Pixmap-Format (Farbe)

PS.ps

Adobe PostScript-Datei

PSB.psb

Adobe Large Document-Format

PSD.psd

Adobe Photoshop-Bitmap

RGB.rgb

Rohdaten für rote, grüne und blaue Proben

RGBA.rgba

Rohdaten für rote, grüne, blaue und Alpha-Proben

RGBO.rgbo

Rohdaten für rote, grüne, blaue und Opazität-Proben

SIX.six

DEC SIXEL-Grafikformat

SUN.sun

Sun Rasterfile

SVG.svg

Skalierbare Vektorgrafiken

SVGZ.svgz

Komprimierte skalierbare Vektorgrafiken

TIFF.tiff

Tagged Image File Format

VDA.vda

Truevision-Targa-Bild

VIPS.vips

VIPS-Bild

WBMP.wbmp

Wireless Bitmap (Level 0) Bild

WEBP.webp

WebP-Bildformat

YUV.yuv

CCIR 601 4:1:1 oder 4:2:2

Häufig gestellte Fragen

Wie funktioniert das?

Dieser Konverter läuft vollständig in Ihrem Browser. Wenn Sie eine Datei auswählen, wird sie in den Speicher geladen und in das ausgewählte Format konvertiert. Sie können dann die konvertierte Datei herunterladen.

Wie lange dauert es, eine Datei zu konvertieren?

Konvertierungen starten sofort und die meisten Dateien werden in weniger als einer Sekunde konvertiert. Größere Dateien können länger dauern.

Was passiert mit meinen Dateien?

Ihre Dateien werden niemals auf unsere Server hochgeladen. Sie werden in Ihrem Browser konvertiert und die konvertierte Datei wird dann heruntergeladen. Wir sehen Ihre Dateien nie.

Welche Dateitypen kann ich konvertieren?

Wir unterstützen die Konvertierung zwischen allen Bildformaten, einschließlich JPEG, PNG, GIF, WebP, SVG, BMP, TIFF und mehr.

Wie viel kostet das?

Dieser Konverter ist komplett kostenlos und wird immer kostenlos sein. Da er in Ihrem Browser läuft, müssen wir keine Server bezahlen, daher müssen wir Ihnen keine Gebühren berechnen.

Kann ich mehrere Dateien gleichzeitig konvertieren?

Ja! Sie können so viele Dateien gleichzeitig konvertieren, wie Sie möchten. Wählen Sie einfach mehrere Dateien aus, wenn Sie sie hinzufügen.