Hintergrundentfernung trennt ein Motiv von seiner Umgebung, sodass Sie es auf Transparenz platzieren, die Szene austauschen oder es in ein neues Design komponieren können. Unter der Haube schätzen Sie eine Alpha-Matte – eine pro-Pixel-Deckkraft von 0 bis 1 – und dann den Vordergrund mittels Alpha-Compositing über etwas anderem legen. Dies ist die Mathematik von Porter–Duff und die Ursache für typische Fallstricke wie „Ränder“ und gerades vs. vormultipliziertes Alpha. Praktische Anleitungen zur Vormultiplikation und linearen Farbe finden Sie in Microsofts Win2D-Notizen, Søren Sandmann und Lomonts Beitrag zum linearen Blending.
Wenn Sie die Aufnahme steuern können, malen Sie den Hintergrund in einer Volltonfarbe (oft grün) und keyen Sie diesen Farbton aus. Es ist schnell, in Film und Fernsehen bewährt und ideal für Videos. Die Kompromisse sind Beleuchtung und Garderobe: farbiges Licht schwappt auf die Ränder (besonders Haare), daher verwenden Sie Despill-Werkzeuge, um die Kontamination zu neutralisieren. Gute Einführungen umfassen Nukes Dokumentation, Mixing Light und eine praktische Fusion-Demo.
Bei Einzelbildern mit unordentlichen Hintergründen benötigen interaktive Algorithmen einige Benutzerhinweise – z. B. ein lockeres Rechteck oder Kritzeleien – und erzeugen eine scharfe Maske. Die kanonische Methode ist GrabCut (Buchkapitel), das Farbmodelle für Vordergrund/Hintergrund lernt und Graphenschnitte iterativ verwendet, um sie zu trennen. Ähnliche Ideen finden Sie in GIMPs Vordergrundauswahl basierend auf SIOX (ImageJ-Plugin).
Matting löst die fraktionierte Transparenz an feinen Grenzen (Haare, Fell, Rauch, Glas). Klassisches Closed-Form-Matting nimmt eine Trimap (eindeutig-Vordergrund/eindeutig-Hintergrund/unbekannt) und löst ein lineares System für Alpha mit starker Kantentreue. Modernes Deep Image Matting trainiert neuronale Netze auf dem Adobe Composition-1K-Datensatz (MMEditing-Dokumentation) und wird mit Metriken wie SAD, MSE, Gradient und Konnektivität bewertet (Benchmark-Erklärung).
Verwandte Segmentierungsarbeiten sind ebenfalls nützlich: DeepLabv3+ verfeinert Grenzen mit einem Encoder-Decoder und atrousen Faltungen (PDF); Mask R-CNN liefert instanzspezifische Masken (PDF); und SAM (Segment Anything) ist ein durch Prompts steuerbares Grundlagenmodell, das Zero-Shot-Masken auf unbekannten Bildern erzeugt.
Akademische Arbeiten berichten über SAD-, MSE-, Gradienten- und Konnektivitäts-Fehler auf Composition-1K. Wenn Sie ein Modell auswählen, suchen Sie nach diesen Metriken (Metrikdefinitionen; Metrikabschnitt von Background Matting). Für Porträts/Videos sind MODNet und Background Matting V2 leistungsstark; für allgemeine „saliente Objekt“-Bilder ist U2-Net eine solide Grundlage; für schwierige Transparenz kann FBA sauberer sein.
Dieser Konverter läuft vollständig in Ihrem Browser. Wenn Sie eine Datei auswählen, wird sie in den Speicher geladen und in das ausgewählte Format konvertiert. Sie können dann die konvertierte Datei herunterladen.
Konvertierungen starten sofort und die meisten Dateien werden in weniger als einer Sekunde konvertiert. Größere Dateien können länger dauern.
Ihre Dateien werden niemals auf unsere Server hochgeladen. Sie werden in Ihrem Browser konvertiert und die konvertierte Datei wird dann heruntergeladen. Wir sehen Ihre Dateien nie.
Wir unterstützen die Konvertierung zwischen allen Bildformaten, einschließlich JPEG, PNG, GIF, WebP, SVG, BMP, TIFF und mehr.
Dieser Konverter ist komplett kostenlos und wird immer kostenlos sein. Da er in Ihrem Browser läuft, müssen wir keine Server bezahlen, daher müssen wir Ihnen keine Gebühren berechnen.
Ja! Sie können so viele Dateien gleichzeitig konvertieren, wie Sie möchten. Wählen Sie einfach mehrere Dateien aus, wenn Sie sie hinzufügen.