Usuwanie tła oddziela obiekt od otoczenia, dzięki czemu można go umieścić na przezroczystości, zamienić scenę lub wkomponować w nowy projekt. Pod maską szacujesz maskę alfa — nieprzezroczystość na piksel od 0 do 1 — a następnie komponujesz pierwszy plan z użyciem kanału alfa na czymś innym. To jest matematyka z Porter–Duff i przyczyna typowych pułapek, takich jak „frędzle” i alfa prosta a premultiplikowana. Praktyczne wskazówki dotyczące premultiplikacji i koloru liniowego można znaleźć w notatkach Win2D firmy Microsoft, Sørena Sandmanna i opracowaniu Lomonta na temat mieszania liniowego.
Jeśli możesz kontrolować przechwytywanie, pomaluj tło na jednolity kolor (często zielony) i wyklucz ten odcień. Jest to szybkie, sprawdzone w filmie i telewizji oraz idealne do wideo. Kompromisy to oświetlenie i garderoba: kolorowe światło rozlewa się na krawędzie (zwłaszcza włosy), więc użyjesz narzędzi do usuwania rozlania, aby zneutralizować zanieczyszczenie. Dobre wprowadzenia obejmują dokumentację Nuke, Mixing Light i praktyczne demo Fusion.
W przypadku pojedynczych obrazów z nieuporządkowanym tłem, algorytmy interaktywne potrzebują kilku wskazówek od użytkownika — np. luźnego prostokąta lub gryzmołów — i tworzą ostrą maskę. Kanoniczną metodą jest GrabCut (rozdział książki), który uczy się modeli kolorów dla pierwszego planu/tła i iteracyjnie wykorzystuje cięcia grafowe do ich rozdzielenia. Podobne pomysły zobaczysz w Zaznaczaniu pierwszego planu w GIMP opartym na SIOX (wtyczka ImageJ).
Matowanie rozwiązuje problem częściowej przezroczystości na delikatnych granicach (włosy, futro, dym, szkło). Klasyczne matowanie w formie zamkniętej przyjmuje trimapę (zdecydowanie-pierwszy plan/zdecydowanie-tło/nieznane) i rozwiązuje układ liniowy dla alfy z dużą dokładnością krawędzi. Nowoczesne głębokie matowanie obrazu uczy sieci neuronowe na zbiorze danych Adobe Composition-1K (dokumentacja MMEditing) i jest oceniane za pomocą metryk takich jak SAD, MSE, Gradient i Connectivity (wyjaśnienie benchmarku).
Powiązane prace nad segmentacją są również przydatne: DeepLabv3+ udoskonala granice za pomocą kodera-dekodera i splotów atrous (PDF); Mask R-CNN generuje maski dla poszczególnych instancji (PDF); a SAM (Segment Anything) to sterowany promptami model podstawowy, który generuje maski w trybie zero-shot na nieznanych obrazach.
Prace akademickie raportują błędy SAD, MSE, Gradient i Connectivity na Composition-1K. Jeśli wybierasz model, szukaj tych metryk (definicje metryk; sekcja metryk Background Matting). W przypadku portretów/wideo MODNet i Background Matting V2 są skuteczne; w przypadku ogólnych obrazów „obiektów wyróżniających się”, U2-Net jest solidną podstawą; w przypadku trudnej przezroczystości FBA daje lepsze rezultaty.
Ten konwerter działa w całości w Twojej przeglądarce. Po wybraniu pliku jest on wczytywany do pamięci i konwertowany do wybranego formatu. Następnie możesz pobrać przekonwertowany plik.
Konwersje rozpoczynają się natychmiast, a większość plików jest konwertowana w mniej niż sekundę. Większe pliki mogą zająć więcej czasu.
Twoje pliki nigdy nie są przesyłane na nasze serwery. Są one konwertowane w Twojej przeglądarce, a następnie pobierany jest przekonwertowany plik. Nigdy nie widzimy Twoich plików.
Obsługujemy konwersję między wszystkimi formatami obrazów, w tym JPEG, PNG, GIF, WebP, SVG, BMP, TIFF i innymi.
Ten konwerter jest całkowicie darmowy i zawsze będzie darmowy. Ponieważ działa w Twojej przeglądarce, nie musimy płacić za serwery, więc nie musimy pobierać od Ciebie opłat.
Tak! Możesz konwertować dowolną liczbę plików jednocześnie. Wystarczy wybrać wiele plików podczas ich dodawania.