Nhận dạng ký tự quang học (OCR) biến hình ảnh văn bản—bản quét, ảnh chụp từ điện thoại thông minh, PDF—thành các chuỗi máy có thể đọc được và, ngày càng nhiều, dữ liệu có cấu trúc. OCR hiện đại là một quy trình làm sạch hình ảnh, tìm văn bản, đọc nó và xuất siêu dữ liệu phong phú để các hệ thống hạ nguồn có thể tìm kiếm, lập chỉ mục hoặc trích xuất các trường. Hai tiêu chuẩn đầu ra được sử dụng rộng rãi là hOCR, một định dạng vi mô HTML cho văn bản và bố cục, và ALTO XML, một lược đồ hướng thư viện/lưu trữ; cả hai đều bảo toàn vị trí, thứ tự đọc và các tín hiệu bố cục khác và được hỗ trợ bởi các công cụ phổ biến như Tesseract.
Tiền xử lý. Chất lượng OCR bắt đầu bằng việc dọn dẹp hình ảnh: chuyển đổi thang độ xám, khử nhiễu, ngưỡng (nhị phân hóa), và chỉnh lệch. Các hướng dẫn OpenCV kinh điển bao gồm toàn cục, thích ứng và Otsu ngưỡng—những yếu tố chính cho các tài liệu có ánh sáng không đồng đều hoặc biểu đồ hai mode. Khi độ sáng thay đổi trong một trang (hãy nghĩ đến ảnh chụp bằng điện thoại), các phương pháp thích ứng thường hoạt động tốt hơn một ngưỡng toàn cục duy nhất; Otsu tự động chọn một ngưỡng bằng cách phân tích biểu đồ. Chỉnh sửa độ nghiêng cũng quan trọng không kém: chỉnh lệch dựa trên Hough (Biến đổi dòng Hough) kết hợp với nhị phân hóa Otsu là một công thức phổ biến và hiệu quả trong các quy trình tiền xử lý sản xuất.
Phát hiện và nhận dạng. OCR thường được chia thành phát hiện văn bản (văn bản ở đâu ?) và nhận dạng văn bản (nó nói gì?). Trong các cảnh tự nhiên và nhiều bản quét, các bộ phát hiện tích chập hoàn toàn như EAST dự đoán hiệu quả các tứ giác ở cấp độ từ hoặc dòng mà không cần các giai đoạn đề xuất nặng nề và được triển khai trong các bộ công cụ phổ biến (ví dụ: hướng dẫn phát hiện văn bản của OpenCV). Trên các trang phức tạp (báo, biểu mẫu, sách), việc phân đoạn các dòng/vùng và suy luận thứ tự đọc rất quan trọng:Kraken triển khai phân đoạn vùng/dòng truyền thống và phân đoạn đường cơ sở thần kinh, với sự hỗ trợ rõ ràng cho các tập lệnh và hướng khác nhau (LTR/RTL/dọc).
Mô hình nhận dạng. Công cụ mã nguồn mở cổ điển Tesseract (do Google mở nguồn, có nguồn gốc từ HP) đã phát triển từ một bộ phân loại ký tự thành một bộ nhận dạng chuỗi dựa trên LSTM và có thể phát hành các tệp PDF có thể tìm kiếm, đầu ra thân thiện với hOCR/ALTO, và nhiều hơn nữa từ CLI. Các bộ nhận dạng hiện đại dựa vào mô hình hóa chuỗi mà không cần các ký tự được phân đoạn trước. Phân loại thời gian kết nối (CTC) vẫn là nền tảng, học các sự sắp xếp giữa các chuỗi đặc trưng đầu vào và chuỗi nhãn đầu ra; nó được sử dụng rộng rãi trong các quy trình xử lý chữ viết tay và văn bản cảnh.
Trong vài năm qua, Transformers đã định hình lại OCR. TrOCR sử dụng một bộ mã hóa Vision Transformer cộng với một bộ giải mã Text Transformer, được đào tạo trên các kho ngữ liệu tổng hợp lớn sau đó được tinh chỉnh trên dữ liệu thực, với hiệu suất mạnh mẽ trên các tiêu chuẩn văn bản in, viết tay và cảnh (xem thêm tài liệu Hugging Face). Song song đó, một số hệ thống bỏ qua OCR để hiểu biết hạ nguồn: Donut (Document Understanding Transformer) là một bộ mã hóa-giải mã không có OCR, trực tiếp xuất ra các câu trả lời có cấu trúc (như JSON khóa-giá trị) từ tài liệu hình ảnh (repo, thẻ mô hình), tránh tích lũy lỗi khi một bước OCR riêng biệt cung cấp cho một hệ thống IE.
Nếu bạn muốn đọc văn bản có sẵn trên nhiều tập lệnh, EasyOCR cung cấp một API đơn giản với hơn 80 mô hình ngôn ngữ, trả về các hộp, văn bản và độ tin cậy—tiện dụng cho các nguyên mẫu và các tập lệnh không phải tiếng Latinh. Đối với các tài liệu lịch sử, Kraken tỏa sáng với phân đoạn đường cơ sở và thứ tự đọc nhận biết tập lệnh; để đào tạo cấp dòng linh hoạt, Calamari xây dựng trên dòng dõi Ocropy (Ocropy) với các bộ nhận dạng (đa)LSTM+CTC và một CLI để tinh chỉnh các mô hình tùy chỉnh.
Sự khái quát hóa phụ thuộc vào dữ liệu. Đối với chữ viết tay, Cơ sở dữ liệu chữ viết tay IAM cung cấp các câu tiếng Anh đa dạng về người viết để đào tạo và đánh giá; đó là một bộ tham chiếu lâu đời cho nhận dạng dòng và từ. Đối với văn bản cảnh, COCO-Text đã xếp lớp các chú thích mở rộng trên MS-COCO, với các nhãn cho văn bản in/viết tay, dễ đọc/khó đọc, tập lệnh và bản ghi đầy đủ (xem thêm trang dự án ban đầu). Lĩnh vực này cũng phụ thuộc nhiều vào việc đào tạo trước tổng hợp: SynthText in the Wild kết xuất văn bản thành các bức ảnh với hình học và ánh sáng thực tế, cung cấp khối lượng dữ liệu khổng lồ để đào tạo trước các bộ phát hiện và nhận dạng (tham khảo mã và dữ liệu).
Các cuộc thi dưới chiếc ô Đọc mạnh mẽ của ICDAR giữ cho việc đánh giá có cơ sở. Các nhiệm vụ gần đây nhấn mạnh việc phát hiện/đọc từ đầu đến cuối và bao gồm việc liên kết các từ thành các cụm từ, với mã chính thức báo cáo độ chính xác/độ thu hồi/F-score, giao nhau trên hợp nhất (IoU), và các số liệu khoảng cách chỉnh sửa cấp ký tự—phản ánh những gì các nhà thực hành nên theo dõi.
OCR hiếm khi kết thúc ở văn bản thuần túy. Các kho lưu trữ và thư viện số thích ALTO XML vì nó mã hóa bố cục vật lý (các khối/dòng/từ có tọa độ) cùng với nội dung, và nó kết hợp tốt với bao bì METS. hOCR định dạng vi mô, ngược lại, nhúng cùng một ý tưởng vào HTML/CSS bằng cách sử dụng các lớp như ocr_line và ocrx_word, giúp dễ dàng hiển thị, chỉnh sửa và chuyển đổi bằng các công cụ web. Tesseract phơi bày cả hai—ví dụ: tạo hOCR hoặc PDF có thể tìm kiếm trực tiếp từ CLI (hướng dẫn xuất PDF); Các trình bao bọc Python như pytesseract thêm sự tiện lợi. Các bộ chuyển đổi tồn tại để dịch giữa hOCR và ALTO khi các kho lưu trữ có các tiêu chuẩn nhập liệu cố định —xem danh sách được tuyển chọn này của công cụ định dạng tệp OCR.
Xu hướng mạnh mẽ nhất là sự hội tụ: phát hiện, nhận dạng, mô hình hóa ngôn ngữ và thậm chí cả giải mã cho tác vụ cụ thể đang hợp nhất thành các ngăn xếp Transformer thống nhất. Đào tạo trước trên các kho ngữ liệu tổng hợp lớn vẫn là một hệ số nhân. Các mô hình không có OCR sẽ cạnh tranh quyết liệt ở bất cứ đâu mục tiêu là các đầu ra có cấu trúc thay vì các bản ghi nguyên văn. Cũng mong đợi các triển khai kết hợp: một bộ phát hiện nhẹ cộng với một bộ nhận dạng kiểu TrOCR cho văn bản dạng dài, và một mô hình kiểu Donut cho các biểu mẫu và biên lai.
Tesseract (GitHub) · Tài liệu Tesseract · Thông số kỹ thuật hOCR · Nền tảng ALTO · Bộ phát hiện EAST · Phát hiện văn bản OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Chữ viết tay IAM · Công cụ định dạng tệp OCR · EasyOCR
Optical Character Recognition (OCR) là một công nghệ được sử dụng để chuyển đổi các loại tài liệu khác nhau, như tài liệu giấy đã quét, tệp PDF hoặc hình ảnh được chụp bằng máy ảnh số, thành dữ liệu có thể chỉnh sửa và tìm kiếm.
OCR hoạt động bằng cách quét hình ảnh hoặc tài liệu đầu vào, phân đoạn hình ảnh thành các ký tự riêng lẻ, và so sánh từng ký tự với cơ sở dữ liệu hình dạng ký tự bằng cách sử dụng nhận dạng mô hình hoặc nhận dạng đặc trưng.
OCR được sử dụng trong nhiều lĩnh vực và ứng dụng, bao gồm số hóa tài liệu in, kích hoạt các dịch vụ văn bản thành giọng nói, tự động hóa quá trình nhập dữ liệu, và hỗ trợ người dùng khiếm thị tương tác tốt hơn với văn bản.
Mặc dù đã có những tiến bộ vượt bậc trong công nghệ OCR, nhưng nó không phải lúc nào cũng hoàn hảo. Độ chính xác có thể thay đổi tùy thuộc vào chất lượng của tài liệu gốc và chi tiết của phần mềm OCR đang được sử dụng.
Mặc dù OCR chủ yếu được thiết kế cho văn bản in, một số hệ thống OCR tiên tiến cũng có thể nhận dạng được chữ viết tay rõ ràng, nhất quán. Tuy nhiên, nhận dạng chữ viết tay thường kém chính xác hơn do sự biến đổi lớn trong các kiểu viết của mỗi người.
Có, nhiều hệ thống phần mềm OCR có thể nhận dạng được nhiều ngôn ngữ. Tuy nhiên, điều quan trọng là phải đảm bảo rằng ngôn ngữ cụ thể đó được hỗ trợ bởi phần mềm bạn đang sử dụng.
OCR là viết tắt của Optical Character Recognition và được sử dụng để nhận dạng văn bản in, trong khi ICR, hoặc Intelligent Character Recognition, tiên tiến hơn và được sử dụng để nhận dạng văn bản viết tay.
OCR hoạt động tốt nhất với các phông chữ rõ ràng, dễ đọc và kích cỡ văn bản chuẩn. Mặc dù nó có thể hoạt động với các phông chữ và kích cỡ khác nhau, độ chính xác thường giảm khi đối phó với phông chữ không thông thường hoặc kích cỡ văn bản rất nhỏ.
OCR có thể gặp khó khăn với các tài liệu độ phân giải thấp, phông chữ phức tạp, văn bản in kém, chữ viết tay, và các tài liệu có nền gây ra sự can thiệp với văn bản. Ngoài ra, mặc dù nó có thể hoạt động với nhiều ngôn ngữ, nó có thể không bao phủ hoàn hảo mọi ngôn ngữ.
Có, OCR có thể quét văn bản màu và nền màu, mặc dù nó thường hiệu quả hơn với các sự kết hợp màu đối lập cao, như văn bản đen trên nền trắng. Độ chính xác có thể giảm khi màu văn bản và màu nền không có đủ độ tương phản.
JPEG (Joint Photographic Experts Group) là định dạng hình ảnh, thường được gọi là JPG, là phương pháp nén mất dữ liệu được sử dụng rộng rãi cho hình ảnh kỹ thuật số, đặc biệt là đối với nh ững hình ảnh được tạo ra bằng nhiếp ảnh kỹ thuật số. Mức độ nén có thể được điều chỉnh, cho phép lựa chọn giữa kích thước lưu trữ và chất lượng hình ảnh. JPEG thường đạt tỷ lệ nén 10:1 với ít mất mát đáng kể về chất lượng hình ảnh.
Nén JPEG được sử dụng trong một số định dạng tệp hình ảnh. JPEG/Exif là định dạng hình ảnh phổ biến nhất được sử dụng bởi máy ảnh kỹ thuật số và các thiết bị chụp ảnh khác; cùng với JPEG/JFIF, đây là định dạng phổ biến nhất để lưu trữ và truyền hình ảnh trên World Wide Web. Các biến thể định dạng này thường không được phân biệt và chỉ được gọi đơn giản là JPEG.
Định dạng JPEG bao gồm nhiều tiêu chuẩn, bao gồm JPEG/Exif, JPEG/JFIF và JPEG 2000, là tiêu chuẩn mới hơn cung cấp hiệu quả nén tốt hơn với độ phức tạp tính toán cao hơn. Tiêu chuẩn JPEG rất phức tạp, với nhiều phần và cấu hình khác nhau, nhưng tiêu chuẩn JPEG được sử dụng phổ biến nhất là JPEG cơ bản, đây là tiêu chuẩn mà hầu hết mọi người đều nhắc đến khi đề cập đến hình ảnh 'JPEG'.
Thuật toán nén JPEG về cơ bản là kỹ thuật nén dựa trên biến đổi cosin rời rạc (DCT). DCT là biến đổi liên quan đến Fourier tương tự như biến đổi Fourier rời rạc (DFT), nhưng chỉ sử dụng các hàm cosin. DCT được sử dụng vì nó có đặc tính tập trung hầu hết tín hiệu ở vùng tần số thấp hơn của phổ, tương quan tốt với các đặc tính của hình ảnh tự nhiên.
Quá trình nén JPEG bao gồm một số bước. Ban đầu, hình ảnh được chuyển đổi từ không gian màu gốc (thường là RGB) sang một không gian màu khác được gọi là YCbCr. Không gian màu YCbCr tách hình ảnh thành một thành phần độ sáng (Y), biểu thị mức độ sáng và hai thành phần sắc độ (Cb và Cr), biểu thị thông tin màu sắc. Sự tách biệt này có lợi vì mắt người nhạy cảm hơn với sự thay đổi về độ sáng so với màu sắc, cho phép nén mạnh hơn các thành phần sắc độ mà không ảnh hưởng đáng kể đến chất lượng hình ảnh được nhận thức.
Sau khi chuyển đổi không gian màu, hình ảnh được chia thành các khối, thường có kích thước 8x8 pixel. Sau đó, mỗi khối được xử lý riêng biệt. Đối với mỗi khối, DCT được áp dụng, biến đổi dữ liệu miền không gian thành dữ liệu miền tần số. Bước này rất quan trọng vì nó làm cho dữ liệu hình ảnh dễ nén hơn, vì hình ảnh tự nhiên có xu hướng có các thành phần tần số thấp quan trọng hơn các thành phần tần số cao.
Sau khi áp dụng DCT, các hệ số kết quả được lượng tử hóa. Lượng tử hóa là quá trình ánh xạ một tập hợp lớn các giá trị đầu vào thành một tập hợp nhỏ hơn, giúp giảm hiệu quả số bit cần thiết để lưu trữ chúng. Đây là nguồn mất mát chính trong nén JPEG. Bước lượng tử hóa được điều khiển bởi bảng lượng tử hóa, bảng này xác định mức độ nén được áp dụng cho từng hệ số DCT. Bằng cách điều chỉnh bảng lượng tử hóa, người dùng có thể cân bằng giữa chất lượng hình ảnh và kích thước tệp.
Sau khi lượng tử hóa, các hệ số được tuyến tính hóa bằng cách quét ziczac, sắp xếp chúng theo tần số tăng dần. Bước này rất quan trọng vì nó nhóm các hệ số tần số thấp có khả năng quan trọng hơn và các hệ số tần số cao có khả năng bằng hoặc gần bằng không sau khi lượng tử hóa. Thứ tự này tạo điều kiện thuận lợi cho bước tiếp theo, đó là mã hóa entropy.
Mã hóa entropy là một phương pháp nén không mất dữ liệu được áp dụng cho các hệ số DCT đã được lượng tử hóa. Hình thức mã hóa entropy phổ biến nhất được sử dụng trong JPEG là mã hóa Huffman, mặc dù mã hóa số học cũng được tiêu chuẩn hỗ trợ. Mã hóa Huffman hoạt động bằng cách gán các mã ngắn hơn cho các phần tử thường xuyên hơn và các mã dài hơn cho các phần tử ít thường xuyên hơn. Vì hình ảnh tự nhiên có xu hướng có nhiều hệ số bằng hoặc gần bằng không sau khi lượng tử hóa, đặc biệt là ở vùng tần số cao, nên mã hóa Huffman có thể giảm đáng kể kích thước của dữ liệu đã nén.
Bước cuối cùng trong quá trình nén JPEG là lưu trữ dữ liệu đã nén trong một định dạng tệp. Định dạng phổ biến nhất là Định dạng trao đổi tệp JPEG (JFIF), định nghĩa cách biểu diễn dữ liệu đã nén và siêu dữ liệu liên quan, chẳng hạn như bảng lượng tử hóa và bảng mã Huffman, trong một tệp có thể được giải mã bởi nhiều phần mềm khác nhau. Một định dạng phổ biến khác là Định dạng tệp hình ảnh có thể trao đổi (Exif), được sử dụng bởi máy ảnh kỹ thuật số và bao gồm siêu dữ liệu như cài đặt máy ảnh và thông tin cảnh.
Tệp JPEG cũng bao gồm các điểm đánh dấu, là các chuỗi mã xác định các tham số hoặc hành động nhất định trong tệp. Các điểm đánh dấu này có thể chỉ ra điểm bắt đầu của một hình ảnh, điểm kết thúc của một hình ảnh, xác định các bảng lượng tử hóa, chỉ định các bảng mã Huffman, v.v. Các điểm đánh dấu rất c ần thiết để giải mã đúng hình ảnh JPEG, vì chúng cung cấp thông tin cần thiết để tái tạo hình ảnh từ dữ liệu đã nén.
Một trong những tính năng chính của JPEG là hỗ trợ mã hóa tiến bộ. Trong JPEG tiến bộ, hình ảnh được mã hóa trong nhiều lần, mỗi lần cải thiện chất lượng hình ảnh. Điều này cho phép hiển thị phiên bản chất lượng thấp của hình ảnh trong khi tệp vẫn đang được tải xuống, điều này có thể đặc biệt hữu ích cho hình ảnh trên web. Tệp JPEG tiến bộ thường lớn hơn tệp JPEG cơ bản, nhưng sự khác biệt về chất lượng trong quá trình tải có thể cải thiện trải nghiệm của người dùng.
Mặc dù được sử dụng rộng rãi, JPEG vẫn có một số hạn chế. Bản chất mất dữ liệu của quá trình nén có thể dẫn đến các hiện tượng như chặn, trong đó hình ảnh có thể hiển thị các hình vuông có thể nhìn thấy và 'rung', trong đó các cạnh có thể đi kèm với các dao động giả. Các hiện tượng này dễ nhận thấy hơn ở mức nén cao hơn. Ngoài ra, JPEG không phù hợp với hình ảnh có các cạnh sắc nét hoặc văn bản có độ tương phản cao, vì thuật toán nén có thể làm mờ các cạnh và giảm khả năng đọc.
Để giải quyết một số hạn chế của tiêu chuẩn JPEG ban đầu, JPEG 2000 đã được phát triển. JPEG 2000 cung cấp một số cải tiến so với JPEG cơ bản, bao gồm hiệu quả nén tốt hơn, hỗ trợ nén không mất dữ liệu và khả năng xử lý hiệu quả nhiều loại hình ảnh hơn. Tuy nhiên, JPEG 2000 chưa được áp dụng rộng rãi so với tiêu chuẩn JPEG ban đầu, chủ yếu là do độ phức tạp tính toán tăng lên và thiếu hỗ trợ trong một số phần mềm và trình duyệt web.
Tóm lại, định dạng hình ảnh JPEG là một phương pháp phức tạp nhưng hiệu quả để nén hình ảnh chụp ảnh. Việc áp dụng rộng rãi của nó là do tính linh hoạt trong việc cân bằng chất lượng hình ảnh với kích thước tệp, khiến nó phù hợp với nhiều ứng dụng khác nhau, từ đồ họa web đến nhiếp ảnh chuyên nghiệp. Mặc dù có những nhược điểm như dễ bị hiện tượng nén, nhưng tính dễ sử dụng và hỗ trợ trên nhiều thiết bị và phần mềm khác nhau khiến nó trở thành một trong những định dạng hình ảnh phổ biến nhất hiện nay.
Bộ chuyển đổi này chạy hoàn toàn trong trình duyệt của bạn. Khi bạn chọn một tệp, nó sẽ được đọc vào bộ nhớ và chuyển đổi sang định dạng đã chọn. Sau đó, bạn có thể tải xuống tệp đã chuyển đổi.
Việc chuyển đổi bắt đầu ngay lập tức và hầu hết các tệp được chuyển đổi trong vòng chưa đầy một giây. Các tệp lớn hơn có thể mất nhiều thời gian hơn.
Các tệp của bạn không bao giờ được tải lên máy chủ của chúng tôi. Chúng được chuyển đổi trong trình duyệt của bạn và sau đó tệp đã chuyển đổi sẽ được tải xuống. Chúng tôi không bao giờ thấy các tệp của bạn.
Chúng tôi hỗ trợ chuyển đổi giữa tất cả các định dạng hình ảnh, bao gồm JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, v.v.
Bộ chuyển đổi này hoàn toàn miễn phí và sẽ luôn miễn phí. Bởi vì nó chạy trong trình duyệt của bạn, chúng tôi không phải trả tiền cho máy chủ, vì vậy chúng tôi không cần tính phí bạn.
Đúng! Bạn có thể chuyển đổi bao nhiêu tệp tùy thích cùng một lúc. Chỉ cần chọn nhiều tệp khi bạn thêm chúng.