Nhận dạng ký tự quang học (OCR) biến hình ảnh văn bản—bản quét, ảnh chụp từ điện thoại thông minh, PDF—thành các chuỗi máy có thể đọc được và, ngày càng nhiều, dữ liệu có cấu trúc. OCR hiện đại là một quy trình làm sạch hình ảnh, tìm văn bản, đọc nó và xuất siêu dữ liệu phong phú để các hệ thống hạ nguồn có thể tìm kiếm, lập chỉ mục hoặc trích xuất các trường. Hai tiêu chuẩn đầu ra được sử dụng rộng rãi là hOCR, một định dạng vi mô HTML cho văn bản và bố cục, và ALTO XML, một lược đồ hướng thư viện/lưu trữ; cả hai đều bảo toàn vị trí, thứ tự đọc và các tín hiệu bố cục khác và được hỗ trợ bởi các công cụ phổ biến như Tesseract.
Tiền xử lý. Chất lượng OCR bắt đầu bằng việc dọn dẹp hình ảnh: chuyển đổi thang độ xám, khử nhiễu, ngưỡng (nhị phân hóa), và chỉnh lệch. Các hướng dẫn OpenCV kinh điển bao gồm toàn cục, thích ứng và Otsu ngưỡng—những yếu tố chính cho các tài liệu có ánh sáng không đồng đều hoặc biểu đồ hai mode. Khi độ sáng thay đổi trong một trang (hãy nghĩ đến ảnh chụp bằng điện thoại), các phương pháp thích ứng thường hoạt động tốt hơn một ngưỡng toàn cục duy nhất; Otsu tự động chọn một ngưỡng bằng cách phân tích biểu đồ. Chỉnh sửa độ nghiêng cũng quan trọng không kém: chỉnh lệch dựa trên Hough (Biến đổi dòng Hough) kết hợp với nhị phân hóa Otsu là một công thức phổ biến và hiệu quả trong các quy trình tiền xử lý sản xuất.
Phát hiện và nhận dạng. OCR thường được chia thành phát hiện văn bản (văn bản ở đâu ?) và nhận dạng văn bản (nó nói gì?). Trong các cảnh tự nhiên và nhiều bản quét, các bộ phát hiện tích chập hoàn toàn như EAST dự đoán hiệu quả các tứ giác ở cấp độ từ hoặc dòng mà không cần các giai đoạn đề xuất nặng nề và được triển khai trong các bộ công cụ phổ biến (ví dụ: hướng dẫn phát hiện văn bản của OpenCV). Trên các trang phức tạp (báo, biểu mẫu, sách), việc phân đoạn các dòng/vùng và suy luận thứ tự đọc rất quan trọng:Kraken triển khai phân đoạn vùng/dòng truyền thống và phân đoạn đường cơ sở thần kinh, với sự hỗ trợ rõ ràng cho các tập lệnh và hướng khác nhau (LTR/RTL/dọc).
Mô hình nhận dạng. Công cụ mã nguồn mở cổ điển Tesseract (do Google mở nguồn, có nguồn gốc từ HP) đã phát triển từ một bộ phân loại ký tự thành một bộ nhận dạng chuỗi dựa trên LSTM và có thể phát hành các tệp PDF có thể tìm kiếm, đầu ra thân thiện với hOCR/ALTO, và nhiều hơn nữa từ CLI. Các bộ nhận dạng hiện đại dựa vào mô hình hóa chuỗi mà không cần các ký tự được phân đoạn trước. Phân loại thời gian kết nối (CTC) vẫn là nền tảng, học các sự sắp xếp giữa các chuỗi đặc trưng đầu vào và chuỗi nhãn đầu ra; nó được sử dụng rộng rãi trong các quy trình xử lý chữ viết tay và văn bản cảnh.
Trong vài năm qua, Transformers đã định hình lại OCR. TrOCR sử dụng một bộ mã hóa Vision Transformer cộng với một bộ giải mã Text Transformer, được đào tạo trên các kho ngữ liệu tổng hợp lớn sau đó được tinh chỉnh trên dữ liệu thực, với hiệu suất mạnh mẽ trên các tiêu chuẩn văn bản in, viết tay và cảnh (xem thêm tài liệu Hugging Face). Song song đó, một số hệ thống bỏ qua OCR để hiểu biết hạ nguồn: Donut (Document Understanding Transformer) là một bộ mã hóa-giải mã không có OCR, trực tiếp xuất ra các câu trả lời có cấu trúc (như JSON khóa-giá trị) từ tài liệu hình ảnh (repo, thẻ mô hình), tránh tích lũy lỗi khi một bước OCR riêng biệt cung cấp cho một hệ thống IE.
Nếu bạn muốn đọc văn bản có sẵn trên nhiều tập lệnh, EasyOCR cung cấp một API đơn giản với hơn 80 mô hình ngôn ngữ, trả về các hộp, văn bản và độ tin cậy—tiện dụng cho các nguyên mẫu và các tập lệnh không phải tiếng Latinh. Đối với các tài liệu lịch sử, Kraken tỏa sáng với phân đoạn đường cơ sở và thứ tự đọc nhận biết tập lệnh; để đào tạo cấp dòng linh hoạt, Calamari xây dựng trên dòng dõi Ocropy (Ocropy) với các bộ nhận dạng (đa)LSTM+CTC và một CLI để tinh chỉnh các mô hình tùy chỉnh.
Sự khái quát hóa phụ thuộc vào dữ liệu. Đối với chữ viết tay, Cơ sở dữ liệu chữ viết tay IAM cung cấp các câu tiếng Anh đa dạng về người viết để đào tạo và đánh giá; đó là một bộ tham chiếu lâu đời cho nhận dạng dòng và từ. Đối với văn bản cảnh, COCO-Text đã xếp lớp các chú thích mở rộng trên MS-COCO, với các nhãn cho văn bản in/viết tay, dễ đọc/khó đọc, tập lệnh và bản ghi đầy đủ (xem thêm trang dự án ban đầu). Lĩnh vực này cũng phụ thuộc nhiều vào việc đào tạo trước tổng hợp: SynthText in the Wild kết xuất văn bản thành các bức ảnh với hình học và ánh sáng thực tế, cung cấp khối lượng dữ liệu khổng lồ để đào tạo trước các bộ phát hiện và nhận dạng (tham khảo mã và dữ liệu).
Các cuộc thi dưới chiếc ô Đọc mạnh mẽ của ICDAR giữ cho việc đánh giá có cơ sở. Các nhiệm vụ gần đây nhấn mạnh việc phát hiện/đọc từ đầu đến cuối và bao gồm việc liên kết các từ thành các cụm từ, với mã chính thức báo cáo độ chính xác/độ thu hồi/F-score, giao nhau trên hợp nhất (IoU), và các số liệu khoảng cách chỉnh sửa cấp ký tự—phản ánh những gì các nhà thực hành nên theo dõi.
OCR hiếm khi kết thúc ở văn bản thuần túy. Các kho lưu trữ và thư viện số thích ALTO XML vì nó mã hóa bố cục vật lý (các khối/dòng/từ có tọa độ) cùng với nội dung, và nó kết hợp tốt với bao bì METS. hOCR định dạng vi mô, ngược lại, nhúng cùng một ý tưởng vào HTML/CSS bằng cách sử dụng các lớp như ocr_line và ocrx_word, giúp dễ dàng hiển thị, chỉnh sửa và chuyển đổi bằng các công cụ web. Tesseract phơi bày cả hai—ví dụ: tạo hOCR hoặc PDF có thể tìm kiếm trực tiếp từ CLI (hướng dẫn xuất PDF); Các trình bao bọc Python như pytesseract thêm sự tiện lợi. Các bộ chuyển đổi tồn tại để dịch giữa hOCR và ALTO khi các kho lưu trữ có các tiêu chuẩn nhập liệu cố định —xem danh sách được tuyển chọn này của công cụ định dạng tệp OCR.
Xu hướng mạnh mẽ nhất là sự hội tụ: phát hiện, nhận dạng, mô hình hóa ngôn ngữ và thậm chí cả giải mã cho tác vụ cụ thể đang hợp nhất thành các ngăn xếp Transformer thống nhất. Đào tạo trước trên các kho ngữ liệu tổng hợp lớn vẫn là một hệ số nhân. Các mô hình không có OCR sẽ cạnh tranh quyết liệt ở bất cứ đâu mục tiêu là các đầu ra có cấu trúc thay vì các bản ghi nguyên văn. Cũng mong đợi các triển khai kết hợp: một bộ phát hiện nhẹ cộng với một bộ nhận dạng kiểu TrOCR cho văn bản dạng dài, và một mô hình kiểu Donut cho các biểu mẫu và biên lai.
Tesseract (GitHub) · Tài liệu Tesseract · Thông số kỹ thuật hOCR · Nền tảng ALTO · Bộ phát hiện EAST · Phát hiện văn bản OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Chữ viết tay IAM · Công cụ định dạng tệp OCR · EasyOCR
Optical Character Recognition (OCR) là một công nghệ được sử dụng để chuyển đổi các loại tài liệu khác nhau, như tài liệu giấy đã quét, tệp PDF hoặc hình ảnh được chụp bằng máy ảnh số, thành dữ liệu có thể chỉnh sửa và tìm kiếm.
OCR hoạt động bằng cách quét hình ảnh hoặc tài liệu đầu vào, phân đoạn hình ảnh thành các ký tự riêng lẻ, và so sánh từng ký tự với cơ sở dữ liệu hình dạng ký tự bằng cách sử dụng nhận dạng mô hình hoặc nhận dạng đặc trưng.
OCR được sử dụng trong nhiều lĩnh vực và ứng dụng, bao gồm số hóa tài liệu in, kích hoạt các dịch vụ văn bản thành giọng nói, tự động hóa quá trình nhập dữ liệu, và hỗ trợ người dùng khiếm thị tương tác tốt hơn với văn bản.
Mặc dù đã có những tiến bộ vượt bậc trong công nghệ OCR, nhưng nó không phải lúc nào cũng hoàn hảo. Độ chính xác có thể thay đổi tùy thuộc vào chất lượng của tài liệu gốc và chi tiết của phần mềm OCR đang được sử dụng.
Mặc dù OCR chủ yếu được thiết kế cho văn bản in, một số hệ thống OCR tiên tiến cũng có thể nhận dạng được chữ viết tay rõ ràng, nhất quán. Tuy nhiên, nhận dạng chữ viết tay thường kém chính xác hơn do sự biến đổi lớn trong các kiểu viết của mỗi người.
Có, nhiều hệ thống phần mềm OCR có thể nhận dạng được nhiều ngôn ngữ. Tuy nhiên, điều quan trọng là phải đảm bảo rằng ngôn ngữ cụ thể đó được hỗ trợ bởi phần mềm bạn đang sử dụng.
OCR là viết tắt của Optical Character Recognition và được sử dụng để nhận dạng văn bản in, trong khi ICR, hoặc Intelligent Character Recognition, tiên tiến hơn và được sử dụng để nhận dạng văn bản viết tay.
OCR hoạt động tốt nhất với các phông chữ rõ ràng, dễ đọc và kích cỡ văn bản chuẩn. Mặc dù nó có thể hoạt động với các phông chữ và kích cỡ khác nhau, độ chính xác thường giảm khi đối phó với phông chữ không thông thường hoặc kích cỡ văn bản rất nhỏ.
OCR có thể gặp khó khăn với các tài liệu độ phân giải thấp, phông chữ phức tạp, văn bản in kém, chữ viết tay, và các tài liệu có nền gây ra sự can thiệp với văn bản. Ngoài ra, mặc dù nó có thể hoạt động với nhiều ngôn ngữ, nó có thể không bao phủ hoàn hảo mọi ngôn ngữ.
Có, OCR có thể quét văn bản màu và nền màu, mặc dù nó thường hiệu quả hơn với các sự kết hợp màu đối lập cao, như văn bản đen trên nền trắng. Độ chính xác có thể giảm khi màu văn bản và màu nền không có đủ độ tương phản.
JPEG 2000 (JP2) là một tiêu chuẩn nén hình ảnh và hệ thống mã hóa được Ủy ban Nhóm chuyên gia nhiếp ảnh chung (JPEG) tạo ra vào năm 2000 với mục đích thay thế tiêu chuẩn JPEG ban đầu. JPEG 2000 cũng được biết đến với phần mở rộng tên tệp .jp2. Nó được phát triển từ đầu để giải quyết một số hạn chế của định dạng JPEG ban đầu đồng thời cung cấp chất lượng hình ảnh và tính linh hoạt vượt trội. Điều quan trọng cần lưu ý là JPC thường được sử dụng như một thuật ngữ để chỉ Luồng mã JPEG 2000, là luồng byte thực tế biểu diễn dữ liệu hình ảnh được nén, thường được tìm thấy trong các tệp JP2 hoặc các định dạng chứa khác như MJ2 cho chuỗi JPEG 2000 chuyển động.
JPEG 2000 sử dụng nén dựa trên wavelet, trái ngược với biến đổi cosin rời rạc (DCT) được sử dụng trong định dạng JPEG ban đầu. Nén wavelet cung cấp một số lợi thế, bao gồm hiệu quả nén tốt hơn, đặc biệt đối với hình ảnh có độ phân giải cao hơn và chất lượng hình ảnh được cải thiện ở tỷ lệ nén cao hơn. Điều này là do wavelet không bị hiện tượng nhiễu 'khối' có thể xảy ra do DCT khi hình ảnh được nén nhiều. Thay vào đó, nén wavelet có thể dẫn đến sự suy giảm chất lượng hình ảnh tự nhiên hơn, thường ít gây chú ý hơn đối với mắt người.
Một trong những tính năng chính của JPEG 2000 là hỗ trợ cả nén không mất dữ liệu và nén mất dữ liệu trong cùng một định dạng tệp. Điều này có nghĩa là người dùng có thể chọn nén hình ảnh mà không làm mất chất lượng hoặc họ có thể chọn nén mất dữ liệu để đạt được kích thước tệp nhỏ hơn. Chế độ không mất dữ liệu của JPEG 2000 đặc biệt hữu ích cho các ứng dụng mà tính toàn vẹn của hình ảnh rất quan trọng, chẳng hạn như hình ảnh y tế, lưu trữ kỹ thuật số và nhiếp ảnh chuyên nghiệp.
Một tính năng quan trọng khác của JPEG 2000 là hỗ trợ giải mã tiến bộ. Điều này cho phép giải mã và hiển thị hình ảnh theo từng bước khi nhận được dữ liệu, điều này có thể rất hữu ích cho các ứng dụng web hoặc các tình huống có băng thông hạn chế. Với giải mã tiến bộ, có thể hiển thị phiên bản chất lượng thấp của toàn bộ hình ảnh trước, sau đó là các lần tinh chỉnh liên tiếp giúp cải thiện chất lượng hình ảnh khi có thêm dữ liệu. Điều này trái ngược với định dạng JPEG ban đầu, thường tải hình ảnh từ trên xuống dưới.
JPEG 2000 cũng cung cấp một bộ tính năng bổ sung phong phú, bao gồm mã hóa vùng quan tâm (ROI), cho phép nén các phần khác nhau của hình ảnh ở các mức chất lượng khác nhau. Điều này đặc biệt hữu ích khi một số vùng nhất định của hình ảnh quan trọng hơn những vùng khác và cần được bảo toàn với độ trung thực cao hơn. Ví dụ, trong ảnh vệ tinh, vùng quan tâm có thể được nén không mất dữ liệu, trong khi các vùng xung quanh được nén mất dữ liệu để tiết kiệm dung lượng.
Tiêu chuẩn JPEG 2000 cũng hỗ trợ nhiều không gian màu, bao gồm thang độ xám, RGB, YCbCr và các không gian khác, cũng như độ sâu màu từ 1 bit (nhị phân) đến 16 bit cho mỗi thành phần ở cả chế độ không mất dữ liệu và mất dữ liệu. Tính linh hoạt này làm cho nó phù hợp với nhiều ứng dụng hình ảnh, từ đồ họa web đơn giản đến hình ảnh y tế phức tạp đòi hỏi dải động cao và tái tạo màu chính xác.
Về cấu trúc tệp, tệp JPEG 2000 bao gồm một loạt các hộp chứa các thông tin khác nhau về tệp. Hộp chính là hộp tiêu đề JP2, bao gồm các thuộc tính như loại tệp, kích thước hình ảnh, độ sâu bit và không gian màu. Tiếp theo tiêu đề, có các hộp bổ sung có thể chứa siêu dữ liệu, thông tin cấu hình màu và dữ liệu hình ảnh được nén thực tế (luồng mã).
Bản thân luồng mã bao gồm một loạt các điểm đánh dấu và phân đoạn xác định cách nén dữ liệu hình ảnh và cách giải mã dữ liệu đó. Luồng mã bắt đầu bằng điểm đánh dấu SOC (Bắt đầu luồng mã) và kết thúc bằng điểm đánh dấu EOC (Kết thúc luồng mã). Giữa các điểm đánh dấu này, có một số phân đoạn quan trọng, bao gồm phân đoạn SIZ (Kích thước hình ảnh và ô), xác định kích thước của hình ảnh và ô, và phân đoạn COD (Kiểu mã hóa mặc định), chỉ định phép biến đổi wavelet và các tham số lượng tử hóa được sử dụng để nén.
Khả năng phục hồi lỗi của JPEG 2000 là một tính năng khác giúp nó khác biệt so với phiên bản tiền nhiệm. Luồng mã có thể bao gồm thông tin sửa lỗi cho phép bộ giải mã phát hiện và sửa các lỗi có thể xảy ra trong quá trình truyền. Điều này làm cho JPEG 2000 trở thành lựa chọn tốt để truyền hình ảnh qua các kênh nhiễu hoặc lưu trữ hình ảnh theo cách giảm thiểu rủi ro hỏng dữ liệu.
Mặc dù có nhiều ưu điểm, JPEG 2000 vẫn chưa được áp dụng rộng rãi so với định dạng JPEG ban đầu. Điều này một phần là do độ phức tạp tính toán lớn hơn của nén và giải nén dựa trên wavelet, có thể yêu cầu nhiều sức mạnh xử lý hơn và có thể chậm hơn so với các phương pháp dựa trên DCT. Ngoài ra, định dạng JPEG ban đầu đã ăn sâu vào ngành công nghiệp hình ảnh và được hỗ trợ rộng rãi trên cả phần mềm và phần cứng, khiến nó trở thành l ựa chọn mặc định cho nhiều ứng dụng.
Tuy nhiên, JPEG 2000 đã tìm thấy chỗ đứng trong một số lĩnh vực nhất định, nơi các tính năng tiên tiến của nó đặc biệt có lợi. Ví dụ, nó được sử dụng trong rạp chiếu phim kỹ thuật số để phân phối phim, nơi tái tạo hình ảnh chất lượng cao và hỗ trợ các tỷ lệ khung hình và tốc độ khung hình khác nhau là rất quan trọng. Nó cũng được sử dụng trong hệ thống thông tin địa lý (GIS) và viễn thám, nơi khả năng xử lý hình ảnh rất lớn và hỗ trợ mã hóa ROI rất có giá trị.
Đối với các nhà phát triển phần mềm và kỹ sư làm việc với JPEG 2000, có một số thư viện và công cụ hỗ trợ mã hóa và giải mã các tệp JP2. Một trong những thư viện nổi tiếng nhất là thư viện OpenJPEG, là codec JPEG 2000 nguồn mở được viết bằng C. Các gói phần mềm thương mại khác cũng cung cấp hỗ trợ JPEG 2000, thường có hiệu suất được tối ưu hóa và các tính năng bổ sung.
Tóm lại, định dạng hình ảnh JPEG 2000 cung cấp một loạt các tính năng và cải tiến so với tiêu chuẩn JPEG ban đầu, bao gồm hiệu quả nén vượt trội, hỗ trợ cả nén không mất dữ liệu và mất dữ liệu, giải mã tiến bộ và khả năng phục hồi lỗi tiên tiến. Mặc dù nó chưa thay thế JPEG trong hầu hết các ứng dụng chính thống, nhưng nó đóng vai trò là một công cụ có giá trị trong các ngành công nghiệp đòi hỏi lưu trữ và truyền hình ảnh chất lượng cao. Khi công nghệ tiếp tục phát triển và nhu cầu về các giải pháp hình ảnh tinh vi hơn ngày càng tăng, JPEG 2000 có thể được áp dụng nhiều hơn ở các thị trường mới và hiện có.
Bộ chuyển đổi này chạy hoàn toàn trong trình duyệt của bạn. Khi bạn chọn một tệp, nó sẽ được đọc vào bộ nhớ và chuyển đổi sang định dạng đã chọn. Sau đó, bạn có thể tải xuống tệp đã chuyển đổi.
Việc chuyển đổi bắt đầu ngay lập tức và hầu hết các tệp được chuyển đổi trong vòng chưa đầy một giây. Các tệp lớn hơn có thể mất nhiều thời gian hơn.
Các tệp của bạn không bao giờ được tải lên máy chủ của chúng tôi. Chúng được chuyển đổi trong trình duyệt của bạn và sau đó tệp đã chuyển đổi sẽ được tải xuống. Chúng tôi không bao giờ thấy các tệp của bạn.
Chúng tôi hỗ trợ chuyển đổi giữa tất cả các định dạng hình ảnh, bao gồm JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, v.v.
Bộ chuyển đổi này hoàn toàn miễn phí và sẽ luôn miễn phí. Bởi vì nó chạy trong trình duyệt của bạn, chúng tôi không phải trả tiền cho máy chủ, vì vậy chúng tôi không cần tính phí bạn.
Đúng! Bạn có thể chuyển đổi bao nhiêu tệp tùy thích cùng một lúc. Chỉ cần chọn nhiều tệp khi bạn thêm chúng.