Il Riconoscimento Ottico dei Caratteri (OCR) trasforma le immagini di testo—scansioni, foto da smartphone, PDF—in stringhe leggibili dalla macchina e, sempre più, in dati strutturati. L'OCR moderno è una pipeline che pulisce un'immagine, trova il testo, lo legge ed esporta metadati ricchi in modo che i sistemi a valle possano cercare, indicizzare o estrarre campi. Due standard di output ampiamente utilizzati sono hOCR, un microformato HTML per testo e layout, e ALTO XML, uno schema orientato a biblioteche/archivi; entrambi conservano posizioni, ordine di lettura e altri spunti di layout e sono supportati da motori popolari come Tesseract.
Pre-elaborazione. La qualità dell'OCR inizia con la pulizia dell'immagine: conversione in scala di grigi, denoising, sogliatura (binarizzazione) e raddrizzamento. I tutorial canonici di OpenCV coprono la sogliatura globale, adattiva e di Otsu —punti fermi per documenti con illuminazione non uniforme o istogrammi bimodali. Quando l'illuminazione varia all'interno di una pagina (pensa agli scatti del telefono), i metodi adattivi spesso superano una singola soglia globale; Otsu sceglie automaticamente una soglia analizzando l'istogramma. La correzione dell'inclinazione è altrettanto importante: il raddrizzamento basato su Hough (Trasformata di Hough) abbinato alla binarizzazione di Otsu è una ricetta comune ed efficace nelle pipeline di pre-elaborazione di produzione.
Rilevamento vs. riconoscimento. L'OCR è tipicamente suddiviso in rilevamento del testo (dov'è il testo?) e riconoscimento del testo (cosa dice?). Nelle scene naturali e in molte scansioni, i rilevatori completamente convoluzionali come EAST prevedono in modo efficiente quadrilateri a livello di parola o riga senza pesanti fasi di proposta e sono implementati in toolkit comuni (ad es. tutorial sul rilevamento del testo di OpenCV). Su pagine complesse (giornali, moduli, libri), la segmentazione di righe/regioni e l'inferenza dell'ordine di lettura sono importanti:Kraken implementa la segmentazione tradizionale di zone/righe e la segmentazione neurale della linea di base, con supporto esplicito per diversi script e direzioni (LTR/RTL/verticale).
Modelli di riconoscimento. Il classico cavallo di battaglia open-source Tesseract (reso open-source da Google, con radici in HP) si è evoluto da un classificatore di caratteri in un riconoscitore di sequenze basato su LSTM e può emettere PDF ricercabili, output compatibili con hOCR/ALTOe altro dalla CLI. I riconoscitori moderni si basano sulla modellazione di sequenze senza caratteri pre-segmentati. Connectionist Temporal Classification (CTC) rimane fondamentale, imparando gli allineamenti tra le sequenze di feature di input e le stringhe di etichette di output; è ampiamente utilizzato nelle pipeline di scrittura a mano e di testo di scena.
Negli ultimi anni, i Transformer hanno rimodellato l'OCR. TrOCR utilizza un encoder Vision Transformer più un decoder Text Transformer, addestrato su grandi corpora sintetici e poi messo a punto su dati reali, con ottime prestazioni su benchmark di testo stampato, scritto a mano e di scena (vedi anche documentazione di Hugging Face). In parallelo, alcuni sistemi eludono l'OCR per la comprensione a valle: Donut (Document Understanding Transformer) è un encoder-decoder senza OCR che produce direttamente risposte strutturate (come JSON chiave-valore) da immagini di documenti (repo, scheda del modello), evitando l'accumulo di errori quando un passaggio OCR separato alimenta un sistema IE.
Se si desidera una lettura del testo "batterie incluse" su molti script, EasyOCR offre una semplice API con oltre 80 modelli linguistici, restituendo riquadri, testo e confidenze, utile per prototipi e script non latini. Per i documenti storici, Kraken brilla con la segmentazione della linea di base e l'ordine di lettura consapevole dello script; per un addestramento flessibile a livello di riga, Calamari si basa sulla discendenza di Ocropy (Ocropy) con riconoscitori (multi-)LSTM+CTC e una CLI for la messa a punto di modelli personalizzati.
La generalizzazione dipende dai dati. Per la scrittura a mano, il Database di scrittura a mano IAM fornisce frasi in inglese diverse per scrittore per l'addestramento e la valutazione; è un set di riferimento di lunga data per il riconoscimento di righe e parole. Per il testo di scena, COCO-Text ha stratificato annotazioni estese su MS-COCO, con etichette per stampato/scritto a mano, leggibile/illeggibile, script e trascrizioni complete (vedi anche la pagina del progetto originale). Il campo si basa anche pesantemente sul pre-addestramento sintetico: SynthText in the Wild renderizza il testo in fotografie con geometria e illuminazione realistiche, fornendo enormi volumi di dati per pre-addestrare rilevatori e riconoscitori (riferimento codice e dati).
Le competizioni sotto l'ombrello Robust Reading di ICDAR mantengono la valutazione fondata. I compiti recenti enfatizzano il rilevamento/lettura end-to-end e includono il collegamento di parole in frasi, con il codice ufficiale che riporta precisione/richiamo/F-score, intersection-over-union (IoU) e metriche di distanza di modifica a livello di carattere, rispecchiando ciò che i professionisti dovrebbero monitorare.
L'OCR raramente termina con testo semplice. Archivi e biblioteche digitali preferiscono ALTO XML perché codifica il layout fisico (blocchi/righe/parole con coordinate) insieme al contenuto, e si abbina bene con il packaging METS. Il hOCR microformato, al contrario, incorpora la stessa idea in HTML/CSS usando classi come ocr_line e ocrx_word, rendendo facile visualizzare, modificare e trasformare con strumenti web. Tesseract espone entrambi, ad es. generando hOCR o PDF ricercabili direttamente dalla CLI (guida all'output PDF); wrapper Python come pytesseract aggiungono convenienza. Esistono convertitori per tradurre tra hOCR e ALTO quando i repository hanno standard di ingestione fissi —vedi questo elenco curato di strumenti per formati di file OCR.
La tendenza più forte è la convergenza: rilevamento, riconoscimento, modellazione del linguaggio e persino la decodifica specifica del compito si stanno fondendo in stack Transformer unificati. Il pre-addestramento su grandi corpora sintetici rimane un moltiplicatore di forza. I modelli senza OCR competeranno aggressivamente ovunque l'obiettivo siano output strutturati piuttosto che trascrizioni letterali. Aspettatevi anche implementazioni ibride: un rilevatore leggero più un riconoscitore in stile TrOCR per testo lungo, e un modello in stile Donut per moduli e ricevute.
Tesseract (GitHub) · Documentazione di Tesseract · Specifiche hOCR · Sfondo ALTO · Rilevatore EAST · Rilevamento del testo OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Scrittura a mano IAM · Strumenti per formati di file OCR · EasyOCR
L'Optical Character Recognition (OCR) è una tecnologia utilizzata per convertire vari tipi di documenti, come documenti cartacei scansionati, file PDF o immagini catturate da una fotocamera digitale, in dati modificabili e ricercabili.
L'OCR funziona analizzando l'immagine o il documento in ingresso, segmentando l'immagine in singoli caratteri, e confrontando ciascun carattere con un database di forme carattere utilizzando il riconoscimento di pattern o il riconoscimento delle caratteristiche.
L'OCR viene utilizzato in vari settori e applicazioni, tra cui la digitalizzazione di documenti stampati, l'attivazione di servizi di testo in voce, l'automazione dei processi di inserimento dati, e l'aiuto agli utenti con problemi di vista a interagire in modo più efficace con il testo.
Nonostante ci siano stati notevoli progressi nella tecnologia OCR, non è infallibile. L'accuratezza può variare a seconda della qualità del documento originale e delle specifiche del software OCR utilizzato.
Sebbene l'OCR sia principalmente progettato per il testo stampato, alcuni sistemi OCR avanzati sono anche in grado di riconoscere la scrittura a mano chiara e coerente. Tuttavia, il riconoscimento della scrittura a mano è generalmente meno preciso a causa della grande varietà di stili di scrittura individuali.
Sì, molti sistemi software OCR possono riconoscere più lingue. Tuttavia, è importante assicurarsi che la lingua specifica sia supportata dal software che si utilizza.
L'OCR sta per Optical Character Recognition ed è usato per riconoscere il testo stampato, mentre l'ICR, o Intelligent Character Recognition, è più avanzato ed è usato per riconoscere il testo scritto a mano.
L'OCR funziona meglio con font chiari, facilmente leggibili e dimensioni standard del testo. Anche se può lavorare con vari font e dimensioni, l'accuratezza tende a diminuire quando si tratta di font insoliti o dimensioni del testo molto piccole.
L'OCR può avere difficoltà con documenti a bassa risoluzione, font complessi, testi stampati male, scrittura a mano, e documenti con sfondi che interferiscono con il testo. Inoltre, anche se può lavorare con molte lingue, potrebbe non coprire ogni lingua perfettamente.
Sì, l'OCR può eseguire la scansione di testi colorati e sfondi colorati, sebbene generalmente sia più efficace con combinazioni di colori ad alto contrasto, come il testo nero su sfondo bianco. L'accuratezza può diminuire quando il colore del testo e dello sfondo non ha un contrasto sufficiente.
Il formato immagine JPEG (Joint Photographic Experts Group), comunemente noto come JPG, è un metodo di compressione con perdita ampiamente utilizzato per le immagini digitali, in particolare per quelle prodotte dalla fotografia digitale. Il grado di compressione può essere regolato, consentendo un compromesso selezionabile tra dimensioni di archiviazione e qualità dell'immagine. JPEG in genere raggiunge una compressione 10:1 con una perdita di qualità dell'immagine poco percettibile.
La compressione JPEG viene utilizzata in numerosi formati di file immagine. JPEG/Exif è il formato immagine più comune utilizzato dalle fotocamere digitali e da altri dispositivi di acquisizione di immagini fotografiche; insieme a JPEG/JFIF, è il formato più comune per l'archiviazione e la trasmissione di immagini fotografiche sul World Wide Web. Queste varianti di formato spesso non vengono distinte e vengono semplicemente chiamate JPEG.
Il formato JPEG include una varietà di standard, tra cui JPEG/Exif, JPEG/JFIF e JPEG 2000, che è uno standard più recente che offre una migliore efficienza di compressione con una maggiore complessità computazionale. Lo standard JPEG è complesso, con varie parti e profili, ma lo standard JPEG più comunemente utilizzato è il JPEG di base, che è ciò a cui la maggior parte delle persone si riferisce quando menziona le immagini "JPEG".
L'algoritmo di compressione JPEG è al suo interno una tecnica di compressione basata sulla trasformata discreta del coseno (DCT). La DCT è una trasformata correlata a Fourier simile alla trasformata discreta di Fourier (DFT), ma utilizza solo funzioni coseno. La DCT viene utilizzata perché ha la proprietà di concentrare la maggior parte del segnale nella regione di frequenza inferiore dello spettro, che si correla bene con le proprietà delle immagini naturali.
Il processo di compressione JPEG prevede diversi passaggi. Inizialmente, l'immagine viene convertita dal suo spazio colore originale (solitamente RGB) a uno spazio colore diverso noto come YCbCr. Lo spazio colore YCbCr separa l'immagine in una componente di luminanza (Y), che rappresenta i livelli di luminosità, e due componenti di crominanza (Cb e Cr), che rappresentano le informazioni sul colore. Questa separazione è vantaggiosa perché l'occhio umano è più sensibile alle variazioni di luminosità rispetto al colore, consentendo una compressione più aggressiva delle componenti di crominanza senza influire in modo significativo sulla qualità dell'immagine percepita.
Dopo la conversione dello spazio colore, l'immagine viene suddivisa in blocchi, in genere di dimensioni 8x8 pixel. Ogni blocco viene quindi elaborato separatamente. Per ciascun blocco, viene applicata la DCT, che trasforma i dati del dominio spaziale in dati del dominio di frequenza. Questo passaggio è cruciale poiché rende i dati dell'immagine più adatti alla compressione, poiché le immagini naturali tendono ad avere componenti a bassa frequenza che sono più significative delle componenti ad alta frequenza.
Una volta applicata la DCT, i coefficienti risultanti vengono quantizzati. La quantizzazione è il processo di mappatura di un ampio insieme di valori di input su un insieme più piccolo, riducendo efficacemente il numero di bit necessari per archiviarli. Questa è la fonte primaria di perdita nella compressione JPEG. Il passaggio di quantizzazione è controllato da una tabella di quantizzazione, che determina quanta compressione viene applicata a ciascun coefficiente DCT. Regolando la tabella di quantizzazione, gli utenti possono bilanciare la qualità dell'immagine e le dimensioni del file.
Dopo la quantizzazione, i coefficienti vengono linearizzati mediante scansione a zig-zag, che li ordina in base alla frequenza crescente. Questo passaggio è importante perché raggruppa insieme coefficienti a bassa frequenza che hanno maggiori probabilità di essere significativi e coefficienti ad alta frequenza che hanno maggiori probabilità di essere zero o quasi zero dopo la quantizzazione. Questo ordinamento facilita il passaggio successivo, che è la codifica dell'entropia.
La codifica dell'entropia è un metodo di compressione senza perdita che viene applicato ai coefficienti DCT quantizzati. La forma più comune di codifica dell'entropia utilizzata in JPEG è la codifica Huffman, sebbene la codifica aritmetica sia anche supportata dallo standard. La codifica Huffman funziona assegnando codici più brevi a elementi più frequenti e codici più lunghi a elementi meno frequenti. Poiché le immagini naturali tendono ad avere molti coefficienti zero o quasi zero dopo la quantizzazione, specialmente nella regione ad alta frequenza, la codifica Huffman può ridurre significativamente le dimensioni dei dati compressi.
Il passaggio finale nel processo di compressione JPEG consiste nell'archiviare i dati compressi in un formato di file. Il formato più comune è il JPEG File Interchange Format (JFIF), che definisce come rappresentare i dati compressi e i metadati associati, come le tabelle di quantizzazione e le tabelle dei codici Huffman, in un file che può essere decodificato da un'ampia gamma di software. Un altro formato comune è il formato file immagine scambiabile (Exif), che viene utilizzato dalle fotocamere digitali e include metadati come le impostazioni della fotocamera e le informazioni sulla scena.
I file JPEG includono anche marcatori, che sono sequenze di codice che definiscono determinati parametri o azioni nel file. Questi marcatori possono indicare l'inizio di un'immagine, la fine di un'immagine, definire tabelle di quantizzazione, specificare tabelle di codici Huffman e altro ancora. I marcatori sono essenziali per la corretta decodifica dell'immagine JPEG, poiché forniscono le informazioni necessarie per ricostruire l'immagine dai dati compressi.
Una delle caratteristiche principali di JPEG è il suo supporto per la codifica progressiva. In JPEG progressivo, l'immagine viene codificata in più passaggi, ognuno dei quali migliora la qualità dell'immagine. Ciò consente di visualizzare una versione di bassa qualità dell'immagine mentre il file viene ancora scaricato, il che può essere particolarmente utile per le immagini web. I file JPEG progressivi sono generalmente più grandi dei file JPEG di base, ma la differenza di qualità durante il caricamento può migliorare l'esperienza dell'utente.
Nonostante il suo uso diffuso, JPEG presenta alcune limitazioni. La natura con perdita della compressione può portare ad artefatti come il blocco, in cui l'immagine può mostrare quadrati visibili, e il "ringing", in cui i bordi possono essere accompagnati da oscillazioni spurie. Questi artefatti sono più evidenti a livelli di compressione più elevati. Inoltre, JPEG non è adatto per immagini con bordi nitidi o testo ad alto contrasto, poiché l'algoritmo di compressione può sfocare i bordi e ridurre la leggibilità.
Per affrontare alcune delle limitazioni dello standard JPEG originale, è stato sviluppato JPEG 2000. JPEG 2000 offre diversi miglioramenti rispetto a JPEG di base, tra cui una migliore efficienza di compressione, il supporto per la compressione senza perdita e la capacità di gestire efficacemente una gamma più ampia di tipi di immagine. Tuttavia, JPEG 2000 non ha visto un'adozione diffusa rispetto allo standard JPEG originale, in gran parte a causa della maggiore complessità computazionale e della mancanza di supporto in alcuni software e browser web.
In conclusione, il formato immagine JPEG è un metodo complesso ma efficiente per comprimere immagini fotografiche. La sua ampia adozione è dovuta alla sua flessibilità nel bilanciare la qualità dell'immagine con le dimensioni del file, rendendolo adatto per una varietà di applicazioni, dalla grafica web alla fotografia professionale. Sebbene abbia i suoi inconvenienti, come la suscettibilità agli artefatti di compressione, la sua facilità d'uso e il supporto su un'ampia gamma di dispositivi e software lo rendono uno dei formati di immagine più popolari in uso oggi.
Questo convertitore funziona interamente nel tuo browser. Quando selezioni un file, viene letto in memoria e convertito nel formato selezionato. Puoi quindi scaricare il file convertito.
Le conversioni iniziano istantaneamente e la maggior parte dei file viene convertita in meno di un secondo. I file più grandi potrebbero richiedere più tempo.
I tuoi file non vengono mai caricati sui nostri server. Vengono convertiti nel tuo browser e il file convertito viene quindi scaricato. Non vediamo mai i tuoi file.
Supportiamo la conversione tra tutti i formati di immagine, inclusi JPEG, PNG, GIF, WebP, SVG, BMP, TIFF e altro ancora.
Questo convertitore è completamente gratuito e lo sarà sempre. Poiché funziona nel tuo browser, non dobbiamo pagare per i server, quindi non dobbiamo addebitarti alcun costo.
Sì! Puoi convertire tutti i file che vuoi in una volta. Basta selezionare più file quando li aggiungi.