Nhận dạng ký tự quang học (OCR) biến hình ảnh văn bản—bản quét, ảnh chụp từ điện thoại thông minh, PDF—thành các chuỗi máy có thể đọc được và, ngày càng nhiều, dữ liệu có cấu trúc. OCR hiện đại là một quy trình làm sạch hình ảnh, tìm văn bản, đọc nó và xuất siêu dữ liệu phong phú để các hệ thống hạ nguồn có thể tìm kiếm, lập chỉ mục hoặc trích xuất các trường. Hai tiêu chuẩn đầu ra được sử dụng rộng rãi là hOCR, một định dạng vi mô HTML cho văn bản và bố cục, và ALTO XML, một lược đồ hướng thư viện/lưu trữ; cả hai đều bảo toàn vị trí, thứ tự đọc và các tín hiệu bố cục khác và được hỗ trợ bởi các công cụ phổ biến như Tesseract.
Tiền xử lý. Chất lượng OCR bắt đầu bằng việc dọn dẹp hình ảnh: chuyển đổi thang độ xám, khử nhiễu, ngưỡng (nhị phân hóa), và chỉnh lệch. Các hướng dẫn OpenCV kinh điển bao gồm toàn cục, thích ứng và Otsu ngưỡng—những yếu tố chính cho các tài liệu có ánh sáng không đồng đều hoặc biểu đồ hai mode. Khi độ sáng thay đổi trong một trang (hãy nghĩ đến ảnh chụp bằng điện thoại), các phương pháp thích ứng thường hoạt động tốt hơn một ngưỡng toàn cục duy nhất; Otsu tự động chọn một ngưỡng bằng cách phân tích biểu đồ. Chỉnh sửa độ nghiêng cũng quan trọng không kém: chỉnh lệch dựa trên Hough (Biến đổi dòng Hough) kết hợp với nhị phân hóa Otsu là một công thức phổ biến và hiệu quả trong các quy trình tiền xử lý sản xuất.
Phát hiện và nhận dạng. OCR thường được chia thành phát hiện văn bản (văn bản ở đâu ?) và nhận dạng văn bản (nó nói gì?). Trong các cảnh tự nhiên và nhiều bản quét, các bộ phát hiện tích chập hoàn toàn như EAST dự đoán hiệu quả các tứ giác ở cấp độ từ hoặc dòng mà không cần các giai đoạn đề xuất nặng nề và được triển khai trong các bộ công cụ phổ biến (ví dụ: hướng dẫn phát hiện văn bản của OpenCV). Trên các trang phức tạp (báo, biểu mẫu, sách), việc phân đoạn các dòng/vùng và suy luận thứ tự đọc rất quan trọng:Kraken triển khai phân đoạn vùng/dòng truyền thống và phân đoạn đường cơ sở thần kinh, với sự hỗ trợ rõ ràng cho các tập lệnh và hướng khác nhau (LTR/RTL/dọc).
Mô hình nhận dạng. Công cụ mã nguồn mở cổ điển Tesseract (do Google mở nguồn, có nguồn gốc từ HP) đã phát triển từ một bộ phân loại ký tự thành một bộ nhận dạng chuỗi dựa trên LSTM và có thể phát hành các tệp PDF có thể tìm kiếm, đầu ra thân thiện với hOCR/ALTO, và nhiều hơn nữa từ CLI. Các bộ nhận dạng hiện đại dựa vào mô hình hóa chuỗi mà không cần các ký tự được phân đoạn trước. Phân loại thời gian kết nối (CTC) vẫn là nền tảng, học các sự sắp xếp giữa các chuỗi đặc trưng đầu vào và chuỗi nhãn đầu ra; nó được sử dụng rộng rãi trong các quy trình xử lý chữ viết tay và văn bản cảnh.
Trong vài năm qua, Transformers đã định hình lại OCR. TrOCR sử dụng một bộ mã hóa Vision Transformer cộng với một bộ giải mã Text Transformer, được đào tạo trên các kho ngữ liệu tổng hợp lớn sau đó được tinh chỉnh trên dữ liệu thực, với hiệu suất mạnh mẽ trên các tiêu chuẩn văn bản in, viết tay và cảnh (xem thêm tài liệu Hugging Face). Song song đó, một số hệ thống bỏ qua OCR để hiểu biết hạ nguồn: Donut (Document Understanding Transformer) là một bộ mã hóa-giải mã không có OCR, trực tiếp xuất ra các câu trả lời có cấu trúc (như JSON khóa-giá trị) từ tài liệu hình ảnh (repo, thẻ mô hình), tránh tích lũy lỗi khi một bước OCR riêng biệt cung cấp cho một hệ thống IE.
Nếu bạn muốn đọc văn bản có sẵn trên nhiều tập lệnh, EasyOCR cung cấp một API đơn giản với hơn 80 mô hình ngôn ngữ, trả về các hộp, văn bản và độ tin cậy—tiện dụng cho các nguyên mẫu và các tập lệnh không phải tiếng Latinh. Đối với các tài liệu lịch sử, Kraken tỏa sáng với phân đoạn đường cơ sở và thứ tự đọc nhận biết tập lệnh; để đào tạo cấp dòng linh hoạt, Calamari xây dựng trên dòng dõi Ocropy (Ocropy) với các bộ nhận dạng (đa)LSTM+CTC và một CLI để tinh chỉnh các mô hình tùy chỉnh.
Sự khái quát hóa phụ thuộc vào dữ liệu. Đối với chữ viết tay, Cơ sở dữ liệu chữ viết tay IAM cung cấp các câu tiếng Anh đa dạng về người viết để đào tạo và đánh giá; đó là một bộ tham chiếu lâu đời cho nhận dạng dòng và từ. Đối với văn bản cảnh, COCO-Text đã xếp lớp các chú thích mở rộng trên MS-COCO, với các nhãn cho văn bản in/viết tay, dễ đọc/khó đọc, tập lệnh và bản ghi đầy đủ (xem thêm trang dự án ban đầu). Lĩnh vực này cũng phụ thuộc nhiều vào việc đào tạo trước tổng hợp: SynthText in the Wild kết xuất văn bản thành các bức ảnh với hình học và ánh sáng thực tế, cung cấp khối lượng dữ liệu khổng lồ để đào tạo trước các bộ phát hiện và nhận dạng (tham khảo mã và dữ liệu).
Các cuộc thi dưới chiếc ô Đọc mạnh mẽ của ICDAR giữ cho việc đánh giá có cơ sở. Các nhiệm vụ gần đây nhấn mạnh việc phát hiện/đọc từ đầu đến cuối và bao gồm việc liên kết các từ thành các cụm từ, với mã chính thức báo cáo độ chính xác/độ thu hồi/F-score, giao nhau trên hợp nhất (IoU), và các số liệu khoảng cách chỉnh sửa cấp ký tự—phản ánh những gì các nhà thực hành nên theo dõi.
OCR hiếm khi kết thúc ở văn bản thuần túy. Các kho lưu trữ và thư viện số thích ALTO XML vì nó mã hóa bố cục vật lý (các khối/dòng/từ có tọa độ) cùng với nội dung, và nó kết hợp tốt với bao bì METS. hOCR định dạng vi mô, ngược lại, nhúng cùng một ý tưởng vào HTML/CSS bằng cách sử dụng các lớp như ocr_line và ocrx_word, giúp dễ dàng hiển thị, chỉnh sửa và chuyển đổi bằng các công cụ web. Tesseract phơi bày cả hai—ví dụ: tạo hOCR hoặc PDF có thể tìm kiếm trực tiếp từ CLI (hướng dẫn xuất PDF); Các trình bao bọc Python như pytesseract thêm sự tiện lợi. Các bộ chuyển đổi tồn tại để dịch giữa hOCR và ALTO khi các kho lưu trữ có các tiêu chuẩn nhập liệu cố định —xem danh sách được tuyển chọn này của công cụ định dạng tệp OCR.
Xu hướng mạnh mẽ nhất là sự hội tụ: phát hiện, nhận dạng, mô hình hóa ngôn ngữ và thậm chí cả giải mã cho tác vụ cụ thể đang hợp nhất thành các ngăn xếp Transformer thống nhất. Đào tạo trước trên các kho ngữ liệu tổng hợp lớn vẫn là một hệ số nhân. Các mô hình không có OCR sẽ cạnh tranh quyết liệt ở bất cứ đâu mục tiêu là các đầu ra có cấu trúc thay vì các bản ghi nguyên văn. Cũng mong đợi các triển khai kết hợp: một bộ phát hiện nhẹ cộng với một bộ nhận dạng kiểu TrOCR cho văn bản dạng dài, và một mô hình kiểu Donut cho các biểu mẫu và biên lai.
Tesseract (GitHub) · Tài liệu Tesseract · Thông số kỹ thuật hOCR · Nền tảng ALTO · Bộ phát hiện EAST · Phát hiện văn bản OpenCV · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · Chữ viết tay IAM · Công cụ định dạng tệp OCR · EasyOCR
Optical Character Recognition (OCR) là một công nghệ được sử dụng để chuyển đổi các loại tài liệu khác nhau, như tài liệu giấy đã quét, tệp PDF hoặc hình ảnh được chụp bằng máy ảnh số, thành dữ liệu có thể chỉnh sửa và tìm kiếm.
OCR hoạt động bằng cách quét hình ảnh hoặc tài liệu đầu vào, phân đoạn hình ảnh thành các ký tự riêng lẻ, và so sánh từng ký tự với cơ sở dữ liệu hình dạng ký tự bằng cách sử dụng nhận dạng mô hình hoặc nhận dạng đặc trưng.
OCR được sử dụng trong nhiều lĩnh vực và ứng dụng, bao gồm số hóa tài liệu in, kích hoạt các dịch vụ văn bản thành giọng nói, tự động hóa quá trình nhập dữ liệu, và hỗ trợ người dùng khiếm thị tương tác tốt hơn với văn bản.
Mặc dù đã có những tiến bộ vượt bậc trong công nghệ OCR, nhưng nó không phải lúc nào cũng hoàn hảo. Độ chính xác có thể thay đổi tùy thuộc vào chất lượng của tài liệu gốc và chi tiết của phần mềm OCR đang được sử dụng.
Mặc dù OCR chủ yếu được thiết kế cho văn bản in, một số hệ thống OCR tiên tiến cũng có thể nhận dạng được chữ viết tay rõ ràng, nhất quán. Tuy nhiên, nhận dạng chữ viết tay thường kém chính xác hơn do sự biến đổi lớn trong các kiểu viết của mỗi người.
Có, nhiều hệ thống phần mềm OCR có thể nhận dạng được nhiều ngôn ngữ. Tuy nhiên, điều quan trọng là phải đảm bảo rằng ngôn ngữ cụ thể đó được hỗ trợ bởi phần mềm bạn đang sử dụng.
OCR là viết tắt của Optical Character Recognition và được sử dụng để nhận dạng văn bản in, trong khi ICR, hoặc Intelligent Character Recognition, tiên tiến hơn và được sử dụng để nhận dạng văn bản viết tay.
OCR hoạt động tốt nhất với các phông chữ rõ ràng, dễ đọc và kích cỡ văn bản chuẩn. Mặc dù nó có thể hoạt động với các phông chữ và kích cỡ khác nhau, độ chính xác thường giảm khi đối phó với phông chữ không thông thường hoặc kích cỡ văn bản rất nhỏ.
OCR có thể gặp khó khăn với các tài liệu độ phân giải thấp, phông chữ phức tạp, văn bản in kém, chữ viết tay, và các tài liệu có nền gây ra sự can thiệp với văn bản. Ngoài ra, mặc dù nó có thể hoạt động với nhiều ngôn ngữ, nó có thể không bao phủ hoàn hảo mọi ngôn ngữ.
Có, OCR có thể quét văn bản màu và nền màu, mặc dù nó thường hiệu quả hơn với các sự kết hợp màu đối lập cao, như văn bản đen trên nền trắng. Độ chính xác có thể giảm khi màu văn bản và màu nền không có đủ độ tương phản.
Định dạng PBM (Portable Bitmap) là một trong những định dạng tệp đồ họa đơn giản và sớm nhất được sử dụng để lưu trữ hình ảnh đơn sắc. Nó là một phần của bộ Netpbm, cũng bao g ồm PGM (Portable GrayMap) cho hình ảnh thang độ xám và PPM (Portable PixMap) cho hình ảnh màu. Định dạng PBM được thiết kế để cực kỳ dễ đọc và ghi trong chương trình, đồng thời rõ ràng và không gây hiểu lầm. Nó không được thiết kế để trở thành một định dạng độc lập, mà là một mẫu số chung thấp nhất để chuyển đổi giữa các định dạng hình ảnh khác nhau.
Định dạng PBM chỉ hỗ trợ hình ảnh đen trắng (1 bit). Mỗi pixel trong hình ảnh được biểu diễn bằng một bit duy nhất - 0 cho màu trắng và 1 cho màu đen. Tính đơn giản của định dạng giúp dễ dàng thao tác bằng các công cụ chỉnh sửa văn bản cơ bản hoặc ngôn ngữ lập trình mà không cần đến các thư viện xử lý hình ảnh chuyên dụng. Tuy nhiên, tính đơn giản này cũng có nghĩa là các tệp PBM có thể lớn hơn các định dạng tinh vi hơn như JPEG hoặc PNG, sử dụng các thuật toán nén để giảm kích thước tệp.
Có hai biến thể của định dạng PBM: định dạng ASCII (thuần túy), được gọi là P1 và định dạng nhị phân (thô), được gọi là P4. Định dạng ASCII có thể đọc được bằng con người và có thể được tạo hoặc chỉnh sửa bằng trình soạn thảo văn bản đơn giản. Định dạng nhị phân không thể đọc được bằng con người nhưng tiết kiệm không gian hơn và nhanh hơn để các chương trình đọc và ghi. Mặc dù có sự khác biệt về lưu trữ, cả hai định dạng đều biểu diễn cùng một loại dữ liệu hình ảnh và có thể chuyển đổi giữa nhau mà không mất thông tin.
Cấu trúc của tệp PBM ở định dạng ASCII bắt đầu bằng số ma thuật hai byte xác định loại tệp. Đối với định dạng PBM ASCII, đây là 'P1'. Tiếp theo số ma thuật là khoảng trắng (khoảng trắng, TAB, CR, LF), sau đó là thông số kỹ thuật về chiều rộng, là số cột trong hình ảnh, theo sau là khoảng trắng, sau đó là thông số kỹ thuật về chiều cao, là số hàng trong hình ảnh. Sau thông số kỹ thuật về chiều cao, có thêm khoảng trắng, sau đó là dữ liệu pixel bắt đầu.
Dữ liệu pixel trong tệp PBM ASCII bao gồm một loạt các '0' và '1', trong đó mỗi '0' biểu diễn một pixel màu trắng và mỗi '1' biểu diễn một pixel màu đen. Các pixel được sắp xếp thành các hàng, với mỗi hàng pixel trên một dòng mới. Khoảng trắng được phép ở bất kỳ đâu trong dữ liệu pixel ngoại trừ trong chuỗi hai ký tự (không được phép giữa hai ký tự của chuỗi). Kết thúc tệp đạt được sau khi đọc width*height bit.
Ngược lại, định dạng PBM nhị phân bắt đầu bằng số ma thuật 'P4' thay vì 'P1'. Sau số ma thuật, định dạng của tệp giống như phiên bản ASCII cho đến khi dữ liệu pixel bắt đầu. Dữ liệu pixel nhị phân được đóng gói thành các byte, với bit có giá trị cao nhất (MSB) của mỗi byte biểu diễn pixel ngoài cùng bên trái và mỗi hàng pixel được đệm khi cần thiết để điền vào byte cuối cùng. Các bit đệm không có ý nghĩa và các giá trị của chúng bị bỏ qua.
Định dạng nhị phân tiết kiệm không gian hơn vì nó sử dụng một byte đầy đủ để biểu diễn tám pixel, trái ngược với định dạng ASCII sử dụng ít nhất tám byte (một ký tự cho mỗi pixel cộng với khoảng trắng). Tuy nhiên, định dạng nhị phân không thể đọc được bằng con người và yêu cầu một chương trình hiểu định dạng PBM để hiển thị hoặc chỉnh sửa hình ảnh.
Việc tạo tệp PBM theo chương trình tương đối đơn giản. Trong một ngôn ngữ lập trình như C, người ta sẽ mở một tệp ở chế độ ghi, xuất số ma thuật thích hợp, ghi chiều rộng và chiều cao dưới dạng số ASCII được phân tách bằng khoảng trắng, sau đó xuất dữ liệu pixel. Đối với PBM ASCII, dữ liệu pixel có thể được ghi dưới dạng một loạt các '0' và '1' với các ngắt dòng thích hợp. Đối với PBM nhị phân, dữ liệu pixel phải được đóng gói thành các byte và được ghi vào tệp ở chế độ nhị phân.
Đọc tệp PBM cũng rất đơn giản. Một chương trình sẽ đọc số ma thuật để xác định định dạng, bỏ qua khoảng trắng, đọc chiều rộng và chiều cao, bỏ qua thêm khoảng trắng, sau đó đọc dữ liệu pixel. Đối với PBM ASCII, chương trình có thể đọc các ký tự từng ký tự một và diễn giải chúng thành các giá trị pixel. Đối với PBM nhị phân, chương trình phải đọc các byte và giải nén chúng thành các bit riêng lẻ để lấy các giá trị pixel.
Định dạng PBM không hỗ trợ bất kỳ hình thức nén hoặc mã hóa nào, điều này có nghĩa là kích thước tệp tỷ lệ thuận với số pixel trong hình ảnh. Điều này có thể dẫn đến các tệp rất lớn đối với hình ảnh có độ phân giải cao. Tuy nhiên, tính đơn giản của định dạng khiến nó trở nên lý tưởng để tìm hiểu về xử lý hình ảnh, để sử dụng trong các tình huống mà độ trung thực của hình ảnh quan trọng hơn kích thước tệp hoặc để sử dụng làm định dạng trung gian trong các quy trình chuyển đổi hình ảnh.
Một trong những ưu điểm của định dạng PBM là tính đơn giản và d ễ dàng thao tác. Ví dụ: để đảo ngược hình ảnh PBM (biến tất cả các pixel màu đen thành màu trắng và ngược lại), người ta chỉ cần thay thế tất cả các '0' bằng '1' và tất cả các '1' bằng '0' trong dữ liệu pixel. Điều này có thể được thực hiện bằng một tập lệnh hoặc chương trình xử lý văn bản đơn giản. Tương tự, các thao tác hình ảnh cơ bản khác như xoay hoặc phản chiếu có thể được thực hiện bằng các thuật toán đơn giản.
Mặc dù đơn giản, định dạng PBM không được sử dụng rộng rãi để lưu trữ hoặc trao đổi hình ảnh chung. Điều này chủ yếu là do nó không có khả năng nén, khiến nó không hiệu quả để lưu trữ hình ảnh lớn hoặc để sử dụng trên internet, nơi băng thông có thể là một mối quan tâm. Các định dạng hiện đại hơn như JPEG, PNG và GIF cung cấp nhiều hình thức nén khác nhau và phù hợp hơn cho các mục đích này. Tuy nhiên, định dạng PBM vẫn được sử dụng trong một số bối cảnh, đặc biệt là đối với đồ họa đơn giản trong phát triển phần mềm và như một công cụ giảng dạy cho các khái niệm xử lý hình ảnh.
Bộ Netpbm, bao gồm định dạng PBM, cung cấp một bộ sưu tập các công cụ để thao tác các tệp PBM, PGM và PPM. Các công cụ này cho phép chuyển đổi giữa các định dạng Netpbm và các định dạng hình ảnh phổ biến khác, cũng như các thao tác xử lý hình ảnh cơ bản như thay đổi kích thước, cắt và thao tác màu. Bộ công cụ được thiết kế để dễ dàng mở rộng, với giao diện đơn giản để thêm chức năng mới.
Tóm lại, định dạng hình ảnh PBM là một định dạng tệp đơn giản, không rườm rà để lưu trữ hình ảnh bitmap đơn sắc. Tính đơn giản của nó giúp dễ hiểu và thao tác, có thể có lợi cho mục đích giáo dục hoặc cho các tác vụ xử lý hình ảnh đơn giản. Mặc dù không phù hợp với tất cả các ứng dụng do thiếu khả năng nén và dẫn đến kích thước tệp lớn, nhưng nó vẫn là một định dạng hữu ích trong các bối cảnh cụ thể mà các điểm mạnh của nó có lợi nhất. Định dạng PBM, cùng với phần còn lại của bộ Netpbm, tiếp tục là một công cụ có giá trị cho những người làm việc với xử lý hình ảnh cơ bản và chuyển đổi định dạng.
Bộ chuyển đổi này chạy hoàn toàn trong trình duyệt của bạn. Khi bạn chọn một tệp, nó sẽ được đọc vào bộ nhớ và chuyển đổi sang định dạng đã chọn. Sau đó, bạn có thể tải xuống tệp đã chuyển đổi.
Việc chuyển đổi bắt đầu ngay lập tức và hầu hết các tệp được chuyển đổi trong vòng chưa đầy một giây. Các tệp lớn hơn có thể mất nhiều thời gian hơn.
Các tệp của bạn không bao giờ được tải lên máy chủ của chúng tôi. Chúng được chuyển đổi trong trình duyệt của bạn và sau đó tệp đã chuyển đổi sẽ được tải xuống. Chúng tôi không bao giờ thấy các tệp của bạn.
Chúng tôi hỗ trợ chuyển đổi giữa tất cả các định dạng hình ảnh, bao gồm JPEG, PNG, GIF, WebP, SVG, BMP, TIFF, v.v.
Bộ chuyển đổi này hoàn toàn miễn phí và sẽ luôn miễn phí. Bởi vì nó chạy trong trình duyệt của bạn, chúng tôi không phải trả tiền cho máy chủ, vì vậy chúng tôi không cần tính phí bạn.
Đúng! Bạn có thể chuyển đổi bao nhiêu tệp tùy thích cùng một lúc. Chỉ cần chọn nhiều tệp khi bạn thêm chúng.