Das PKZ-Archivformat ist ein proprietäres komprimiertes Archivformat, das von PKWARE, Inc. für das Packen und Komprimieren von Dateien und Verzeichnissen entwickelt wurde. Es wird häufig auf Microsoft Windows-Systemen verwendet, kann aber auch auf anderen Plattformen eingesetzt werden. Das Format verwendet eine Kombination aus DEFLATE-Komprimierung und verschiedenen Vorverarbeitungsfiltern, um eine hohe Komprimierungsrate bei gleichzeitiger Ausgewogenheit von Geschwindigkeit und Speichernutzung zu erreichen.
Ein PKZ-Archiv besteht aus einer Reihe von „lokalen Dateiheadern“ für jede Datei, optionalen Archiventschlüsselungs-/Verschlüsselungsheadern, komprimierten Dateidatenblöcken, einer zentralen Verzeichnisstruktur und einem End-of-Central-Directory-Eintrag. Dies ermöglicht einen schnellen Zugriff auf einzelne komprimierte Dateien, optionale Verschlüsselung, Datenintegritätsprüfungen und die Möglichkeit, Metadaten zu den archivierten Dateien zu speichern.
Jeder lokale Dateiheader enthält Informationen über die Datei, wie z. B. Name, Größe, Zeitstempel, CRC-32-Prüfsumme und verwendete Komprimierungsmethode. Der Header gibt auch optionale Funktionen an, die auf die Datei angewendet werden, wie z. B. Verschlüsselung, Vorverarbeitungsfilter, Patching oder Aufteilung der Daten über mehrere Archive. Dem lokalen Header folgen die komprimierten oder gespeicherten Dateidaten.
PKZ unterstützt mehrere Komprimierungsmethoden, wobei DEFLATE die gängigste ist. DEFLATE ist ein verlustfreier Datenkomprimierungsalgorithmus, der LZ77-Komprimierung und Huffman-Codierung kombiniert. PKZIP kann Dateien auf Wunsch auch ohne Komprimierung speichern. In seltenen Fällen können andere ältere Komprimierungsmethoden verwendet werden, wie z. B. LZMA oder Bzip2.
Vor dem Komprimieren einer Datei mit DEFLATE können verschiedene Vorverarbeitungsfilter angewendet werden, um die Komprimierung zu verbessern. Dazu gehören Methoden wie die Reduzierung der Symbolgröße, das Austauschen von Bytes zur Erhöhung der Redundanz, BCJ-Filter für ausführbare Dateien und Deltafilter für inkrementelle Updates oder Patching. Die Filter werden als Teil des Komprimierungsprozesses angewendet, bevor die Daten an den DEFLATE-Kompressor übergeben werden.
Zur Validierung der Datenintegrität zeichnet jede Datei eine CRC-32-Prüfsumme der unkomprimierten Daten in ihrem lokalen Header auf. Dieselbe Prüfsumme wird im zentralen Verzeichniseintrag für die Datei aufgezeichnet. Dies ermöglicht die Überprüfung, ob eine Datei korrekt komprimiert und dekomprimiert wurde, ohne dass Daten beschädigt wurden.
PKZ-Archive können optional Dateidaten und Header mithilfe symmetrischer Verschlüsselung verschlüsseln. Ältere Versionen verwendeten ZipCrypto, während neuere Versionen die AES-Verschlüsselung verwenden. Bei der Verschlüsselung wird die ausgewählte Verschlüsselungsmethode im Archiv aufgezeichnet und jede Datei kann ihr eigenes Passwort angeben. Die authentifizierte Verschlüsselung wird verwendet, um Manipulationen oder Beschädigungen der verschlüsselten Daten zu erkennen.
Das zentrale Verzeichnis folgt den komprimierten Dateidaten und fungiert als Inhaltsverzeichnis für das Archiv. Es enthält einen Dateiheadereintrag für jede Datei mit ihren Metadaten, Offsets zu lokalen Headern und anderen Informationen, die zum Dekomprimieren von Dateien erforderlich sind. Die Einträge werden nach Dateiname sortiert. Eine optionale digitale Signatur kann auf das zentrale Verzeichnis angewendet werden, um es weiter vor Manipulationen zu schützen.
Schließlich markiert der End-of-Central-Directory-Eintrag das Ende der Archivdatei. Es speichert die Anzahl der Einträge im zentralen Verzeichnis, seine Größe und seinen Offset sowie ein Kommentarfeld. Bei Archiven, die in mehrere Dateien aufgeteilt sind, enthält es auch Informationen darüber, wie die anderen Archivdateien gefunden werden können.
Das PKZ-Format ermöglicht einen effizienten wahlfreien Zugriff auf einzelne Dateien innerhalb eines Archivs, ohne das gesamte Archiv dekomprimieren zu müssen. Dies geschieht durch Lesen des zentralen Verzeichnisses, Auffinden des gewünschten Dateieintrags und anschließendes Lesen und Dekomprimieren des spezifischen lokalen Dateiblocks von seinem Offset. Es können auch mehrere Dateien gleichzeitig geöffnet und dekomprimiert werden.
Um ein PKZ-Archiv zu erstellen, werden Dateien zunächst gefiltert und einzeln in lokale Dateiblöcke komprimiert. Die zentralen Verzeichniseinträge werden aus den lokalen Headern und Dateimetadaten generiert. Das zentrale Verzeichnis wird dann bei Bedarf digital signiert. Schließlich wird der End-of-Central-Directory-Eintrag geschrieben, der auf das zentrale Verzeichnis verweist.
Das Extrahieren eines PKZ-Archivs beginnt mit dem Lesen des End-of-Central-Directory, um die zentralen Verzeichniseinträge zu finden. Die Einträge der gewünschten Dateien werden gefunden und jede wird dekomprimiert, indem ihr lokaler Header und ihre komprimierten Daten von den angegebenen Offsets gelesen werden. Jegliche Verschlüsselung wird entfernt und vorverarbeitete Filter werden umgekehrt, um den ursprünglichen Dateiinhalt zu erhalten.
Einige weitere Funktionen des PKZ-Formats sind: Aufteilen von Archiven in mehrere Dateien, Volumes oder Segmente; Unterstützung für Unicode-Dateinamen; NTFS-Dateisystemberechtigungen und -attribute; integrierte Update-/Patching-Funktionalität; und erweiterbare Metadaten wie digitale Signaturen, Hash-Digests und anwendungsspezifische Daten.
Insgesamt ist das PKZ-Format ein effizientes und flexibles Archivformat zum Komprimieren und Packen von Dateien. Seine Fähigkeit, Dateien einzeln zu komprimieren, Vorverarbeitungsfilter anzuwenden und bestimmte Dateien schnell zu extrahieren, ohne das gesamte Archiv zu verarbeiten, macht es gut geeignet für das Packen von Softwareinstallern, Firmware-Updates, Dokumenten und mehr. Die Unterstützung von Verschlüsselung, Datenintegritätsprüfungen und digitalen Signaturen ermöglicht es außerdem, bei Bedarf ein hohes Maß an Sicherheit zu bieten.
Die Dateikomprimierung reduziert Redundanzen, damit dieselben Informationen mit weniger Bits auskommen. Die Obergrenze wird von der Informationstheorie gesetzt: Bei verlustfreier Komprimierung bestimmt die Entropie der Quelle das Limit (siehe Shannons Source-Coding-Theorem und seinen ursprünglichen Aufsatz von 1948 „A Mathematical Theory of Communication“). Bei verlustbehafteter Komprimierung beschreibt die Rate-Distortion-Theorie den Kompromiss zwischen Bitrate und Qualität.
Die meisten Kompressoren arbeiten in zwei Phasen. Zuerst sagt ein Modell Struktur in den Daten voraus oder legt sie frei. Danach wandelt ein Coder diese Vorhersagen in nahezu optimale Bitmuster um. Eine klassische Modellfamilie ist Lempel–Ziv LZ77 (1977) und LZ78 (1978) entdecken wiederholte Teilstrings und geben Referenzen statt Rohbytes aus. Auf der Codierungsseite weist die Huffman-Codierung (den Originalartikel finden Sie 1952) wahrscheinlicheren Symbolen kürzere Codes zu. Arithmetische Codierung und Range Coding arbeiten noch feiner und rücken näher an die Entropiegrenze, während moderne Asymmetric Numeral Systems (ANS) ähnliche Raten mit tabellengesteuerten Implementierungen erreichen.
DEFLATE (verwendet von gzip, zlib und ZIP) kombiniert LZ77 mit Huffman-Codierung. Die Spezifikationen sind öffentlich: DEFLATE RFC 1951, der zlib-Wrapper RFC 1950und das gzip-Dateiformat RFC 1952. Gzip ist für Streaming ausgelegt und garantiert ausdrücklich keinen zufälligen Zugriff. PNG-Bilder standardisieren DEFLATE als einzige Komprimierungsmethode (mit maximal 32 KiB Fenster) laut der PNG-Spezifikation „Compression method 0… deflate/inflate… at most 32768 bytes“ und W3C/ISO PNG 2nd Edition.
Zstandard (zstd): ein neuer Allzweckkompressor für hohe Raten bei sehr schneller Dekompression. Das Format ist dokumentiert in RFC 8878 (und dem HTML-Spiegel) sowie der Referenzspezifikation auf GitHub. Wie gzip zielt der Basis-Frame nicht auf zufälligen Zugriff. Eine der Superkräfte von zstd sind Wörterbücher: kleine Proben aus Ihrem Korpus, die viele kleine oder ähnliche Dateien deutlich besser komprimieren (siehe python-zstandard Wörterbuch-Dokumentation und Nigel Taos Beispiel). Implementierungen akzeptieren sowohl „unstrukturierte“ als auch „strukturierte“ Wörterbücher (Diskussion).
Brotli: optimiert für Web-Inhalte (z. B. WOFF2-Fonts, HTTP). Es kombiniert ein statisches Wörterbuch mit einem DEFLATE-ähnlichen LZ+Entropie-Kern. Die Spezifikation ist RFC 7932, der auch ein Gleitfenster von 2WBITS−16 mit WBITS in [10, 24] (1 KiB−16 B bis 16 MiB−16 B) beschreibt und festhält, dass es keinen zufälligen Zugriff bereitstellt. Brotli schlägt gzip bei Webtext oft und dekodiert trotzdem schnell.
ZIP-Container: ZIP ist ein Datei-Archiv, das Einträge mit verschiedenen Komprimierungsmethoden (deflate, store, zstd usw.) speichern kann. Der De-facto-Standard ist PKWAREs APPNOTE (siehe APPNOTE-Portal, eine gehostete Kopieund die LC-Überblicke ZIP File Format (PKWARE) / ZIP 6.3.3).
LZ4 zielt auf pure Geschwindigkeit bei moderaten Raten. Siehe die Projektseite („extremely fast compression“) und das Frame-Format. Ideal für In-Memory-Caches, Telemetrie oder Hot Paths, in denen Dekompression nahezu RAM-Geschwindigkeit erreichen muss.
XZ / LZMA strebt hohe Dichte (große Raten) mit relativ langsamer Kompression an. XZ ist ein Container; die Schwerarbeit leisten typischerweise LZMA/LZMA2 (LZ77-ähnliche Modellierung + Range Coding). Siehe .xz-Dateiformat, die LZMA-Spezifikation (Pavlov)und Linux-Hinweise zu XZ Embedded. XZ komprimiert meist besser als gzip und konkurriert oft mit modernen Hochratencodecs, braucht aber längere Encode-Zeiten.
bzip2 setzt auf die Burrows–Wheeler-Transformation (BWT), Move-to-Front, RLE und Huffman-Codierung. Typisch kleiner als gzip, aber langsamer; siehe das offizielle Handbuch und die Manpages (Linux).
Die „Fenstergröße“ zählt. DEFLATE-Referenzen können nur 32 KiB zurückblicken (RFC 1951) sowie das PNG-Limit von 32 KiB hier erläutert. Brotli deckt Fenster von etwa 1 KiB bis 16 MiB ab (RFC 7932). Zstd passt Fenster und Suchtiefe über die Level an (RFC 8878). Basis-Streams von gzip/zstd/brotli sind für sequentielles Dekodieren gebaut; die Grundformate versprechen keinen zufälligen Zugriff, obwohl Container (z. B. Tar-Indizes, Chunked Framing oder format-spezifische Indizes) ihn nachrüsten können.
Die oben genannten Formate sind verlustfrei: Sie rekonstruieren exakt dieselben Bytes. Medien-Codecs sind oft verlustbehaftet: Sie verwerfen unmerkliche Details, um niedrigere Bitraten zu erreichen. Bei Bildern ist klassisches JPEG (DCT, Quantisierung, Entropiecodierung) in ITU-T T.81 / ISO/IEC 10918-1standardisiert. In Audio nutzen MP3 (MPEG-1 Layer III) und AAC (MPEG-2/4) Wahrnehmungsmodelle und MDCT-Transformationen (siehe ISO/IEC 11172-3, ISO/IEC 13818-7und eine MDCT-Übersicht hier). Verlustbehaftet und verlustfrei können koexistieren (z. B. PNG für UI-Assets; Web-Codecs für Bilder/Video/Audio).
Theorie Shannon 1948 · Rate–distortion · Codierung Huffman 1952 · Arithmetische Codierung · Range Coding · ANS. Formate DEFLATE · zlib · gzip · Zstandard · Brotli · LZ4 frame · XZ format. BWT-Stack Burrows–Wheeler (1994) · bzip2 manual. Medien JPEG T.81 · MP3 ISO/IEC 11172-3 · AAC ISO/IEC 13818-7 · MDCT.
Fazit: Wählen Sie einen Kompressor, der zu Ihren Daten und Randbedingungen passt, messen Sie auf echten Eingaben und vergessen Sie nicht die Gewinne durch Wörterbücher und clevere Frames. Mit der richtigen Kombination erhalten Sie kleinere Dateien, schnellere Übertragungen und reaktionsschnellere Apps – ohne Korrektheit oder Portabilität zu opfern.
Dateikompression ist ein Prozess, der die Größe einer Datei oder Dateien reduziert, normalerweise um Speicherplatz zu sparen oder die Übertragung über ein Netzwerk zu beschleunigen.
Die Dateikompression funktioniert, indem sie Redundanzen in den Daten identifiziert und entfernt. Sie verwendet Algorithmen, um die ursprünglichen Daten in einem kleineren Raum zu kodieren.
Die beiden primären Arten der Dateikompression sind verlustfreie und verlustbehaftete Kompression. Verlustfreie Kompression ermöglicht die perfekte Wiederherstellung der Originaldatei, während verlustbehaftete Kompression eine größere Größenreduktion ermöglicht, dies jedoch auf Kosten eines Qualitätsverlusts bei den Daten.
Ein populäres Beispiel für ein Dateikompressionstool ist WinZip, das mehrere Kompressionsformate unterstützt, darunter ZIP und RAR.
Bei verlustfreier Kompression bleibt die Qualität unverändert. Bei verlustbehafteter Kompression kann es jedoch zu einem spürbaren Qualitätsverlust kommen, da weniger wichtige Daten zur Reduzierung der Dateigröße stärker eliminiert werden.
Ja, die Dateikompression ist sicher in Bezug auf die Datenintegrität, insbesondere bei der verlustfreien Kompression. Wie alle Dateien können jedoch auch komprimierte Dateien von Malware oder Viren angegriffen werden. Daher ist es immer wichtig, eine seriöse Sicherheitssoftware zu haben.
Fast alle Arten von Dateien können komprimiert werden, einschließlich Textdateien, Bilder, Audio, Video und Softwaredateien. Das erreichbare Kompressionsniveau kann jedoch zwischen den Dateitypen erheblich variieren.
Eine ZIP-Datei ist ein Dateiformat, das verlustfreie Kompression verwendet, um die Größe einer oder mehrerer Dateien zu reduzieren. Mehrere Dateien in einer ZIP-Datei werden effektiv zu einer einzigen Datei gebündelt, was das Teilen einfacher macht.
Technisch ja, obwohl die zusätzliche Größenreduktion minimal oder sogar kontraproduktiv sein könnte. Das Komprimieren einer bereits komprimierten Datei kann manchmal deren Größe erhöhen, aufgrund der durch den Kompressionsalgorithmus hinzugefügten Metadaten.
Um eine Datei zu dekomprimieren, benötigen Sie in der Regel ein Dekompressions- oder Entzip-Tool, wie WinZip oder 7-Zip. Diese Tools können die Originaldateien aus dem komprimierten Format extrahieren.