光学文字認識(OCR)は、テキストの画像(スキャン、スマートフォンの写真、PDF)を機械が読み取れる文字列に、そしてますます 構造化データに変換します。現代のOCRは、画像をクリーンアップし、テキストを見つけ、それを読み取り、豊富なメタデータをエクスポートするパイプラインであり、 下流のシステムがフィールドを検索、索引付け、または抽出できるようにします。広く使用されている2つの出力標準は、 hOCR、テキストとレイアウトのためのHTMLマイクロフォーマット、および ALTO XML、図書館/アーカイブ指向のスキーマです。どちらも位置、読み取り順序、その他のレイアウトの合図を保持し、Tesseractのような人気のあるエンジンでサポートされています。
前処理。 OCRの品質は、画像のクリーンアップから始まります:グレースケール変換、ノイズ除去、 しきい値処理(二値化)、および傾き補正。標準的なOpenCVのチュートリアルでは、グローバル、 適応型 および Otsu のしきい値処理が扱われています。これらは、不均一な照明やバイモーダルなヒストグラムを持つドキュメントの定番です。ページ内で照明が変化する場合 (電話のスナップショットを考えてみてください)、適応型メソッドは単一のグローバルしきい値よりも優れていることがよくあります。Otsu はヒストグラムを分析して自動的にしきい値を選択します。傾き補正も同様に重要です:Houghベースの 傾き補正(ハフライン変換)とOtsuの二値化を組み合わせることは、生産前処理パイプラインで一般的で効果的なレシピです。
検出と認識。 OCRは通常、テキスト検出(テキストはどこにあるか ?)とテキスト認識(何が書かれているか?)に分けられます。自然なシーンや多くのスキャンでは、 EAST のような完全畳み込み検出器は、重い提案段階なしで単語または行レベルの四辺形を効 率的に予測し、 一般的なツールキット(例: OpenCVのテキスト検出チュートリアル)に実装されています。複雑なページ(新聞、フォーム、書籍)では、行/領域のセグメンテーションと読み取り順序の推論が重要です:Kraken は、従来のゾーン/ラインセグメンテーションとニューラルベースラインセグメンテーションを実装しており、さまざまなスクリプトと方向(LTR / RTL /垂直)を明示的にサポートしています。
認識モデル。 古典的なオープンソースの主力製品である Tesseract (Googleによってオープンソース化され、HPにルーツを持つ)は、文字分類器からLSTMベースのシーケンス 認識器に進化し、検索可能なPDF、 hOCR / ALTOフレンドリーな出力などをCLIから出力できます。現代の認識器は、事前にセグメント化された文字なしでシーケンスモデリングに依存しています。 コネクショニスト時間分類(CTC) は、入力特徴シーケンスと出力ラベル文字列間のアライメントを学習する基礎であり続け、手書きおよびシーンテキストパイプラインで広く 使用されています。
過去数年間で、TransformerはOCRを再構築しました。 TrOCR は、ビジョントランスフォーマーエンコーダーとテキストトランスフォーマーデコーダーを使用し、大規模な合成コーパスでトレーニングされた後、 実際のデータで微調整され、印刷、手書き、シーンテキストのベンチマークで強力なパフォーマンスを発揮します( Hugging Faceのドキュメントも参照)。並行して、一部のシステムは下流の理解のためにOCRを回避します: Donut(Document Understanding Transformer) は、ドキュメント 画像から直接構造化された回答(キーと値のJSONなど)を出力するOCRフリーのエンコーダーデコーダーです(リポジトリ、 モデルカード)、別のOCRステップがIEシステムにフィードされるときのエラー蓄積を回避します。
多くのスクリプトでバッテリー付属のテキスト読み取りが必要な場合は、 EasyOCR が80以上の言語モデルを備えたシンプルなAPIを提供し、ボックス、テキスト、信頼度を返します。これはプロトタイプや 非ラテン文字のスクリプトに便利です。歴史的な文書の場合、 Kraken はベースラインセグメンテーションとスクリプト対応の読み取り順序で 優れています。柔軟な行レベルのトレーニングには、 Calamari がOcropyの系統に基づいて構築されています(Ocropy)(マルチ)LSTM + CTC認識器とカスタムモデルを微調整するためのCLIを備えています。
一般化はデータにかかっています。手書きの場合、 IAM手書きデータベース は、トレーニングと評価のために作家の多様な英語の文章を提供します。これは、 行と単語の認識のための長年の参照セットです。シーンテキストの場合、 COCO-Text は、MS-COCOに広範な注釈を重ね、印刷/手書き、判読可能/判読不能、スクリプト、および 完全な転写のラベルを付けました(元の プロジェクトページも参照)。この分野はまた、合成事前トレーニングに大きく依存しています: SynthText in the Wild は、リアルなジオメトリと照明でテキストを写真にレンダリングし、事前トレーニング 検出器と認識器に大量のデータを提供します(参照 コードとデータ)。
ICDARのRobust Reading の傘下での競争は、評価を現実的なものに保ちます。最近のタスクは、エンドツーエンドの検出/読み取りを強調し、単語を フレーズにリンクすることを含み、公式コードは 精度/再現率/ Fスコア、和集合上の積集合 (IoU)、および文字レベルの編集距離メトリックを報告します。これは、実践者が追跡すべきことを反映しています。
OCRはめったにプレーンテキストで終わりません。アーカイブやデジタルライブラリは ALTO XML を好みます。なぜなら、コンテンツとともに物理的なレイアウト(座標を持つブロック/行/単語)をエンコードし、 METSパッケージングとうまく連携するからです。 hOCR マイクロフォーマットは、対照的に、ocr_lineや ocrx_wordなどのクラスを使用して同じアイデアをHTML / CSSに埋め込み、Webツールで簡単に表示、編集、変換できるようにします。Tesseractは両方を公開しています。たとえば、 CLIから直接hOCRまたは検索可能なPDFを生成します(PDF出力ガイド)。 pytesseract のようなPythonラッパーは利便性を高めます。リポジトリに固定の取り込み 標準がある場合、hOCRとALTOの間で変換するためのコンバーターが存在します。この厳選されたリスト を参照してください OCRファイル形式ツール。
最も強力なトレンドは収束です:検出、認識、言語モデリング、さらにはタスク固有のデコードまで が統一されたTransformerスタックに統合されています。 大規模な合成コーパス での事前トレーニングは、依然として力の乗数です。OCRフリーモデルは、ターゲットが逐語的な転写ではなく構造化された出力である場所ならどこでも積極的に競争します。 ハイブリッド展開も期待してください:長文テキスト用の軽量検出器とTrOCRスタイルの 認識器、およびフォームとレシート用のDonutスタイルのモデル。
Tesseract (GitHub) · Tesseractドキュメント · hOCR仕様 · ALTOの背景 · EAST検出器 · OpenCVテキスト検出 · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM手書き · OCRファイル形式ツール · EasyOCR
光学的文字認識(OCR)は、さまざまな形式のドキュメント(スキャンされた紙のドキュメント、PDFファイル、デジタルカメラで撮影された画像など)を編集可能で検索可能なデータに変換するために使用される技術です。
OCRは入力画像またはドキュメントをスキャンし、画像を個々の文字に分割し、各文字を形状認識または特徴認識を使用して文字形状のデータベースと比較します。
OCRは印刷文書のデジタル化、テキストから音声へのサービスの活用、デ ータ入力プロセスの自動化、視覚障害のあるユーザーがテキストとより良く対話できるようにするなど、さまざまな業界とアプリケーションで使用されています。
OCR技術は大幅に進歩していますが、それが無敵ではありません。精度は、元のドキュメントの品質と使用されているOCRソフトウェアの特性によって異なることがあります。
OCRは主に印刷されたテキストを認識するように設計されていますが、一部の高度なOCRシステムは明瞭で一貫性のある手書き文字も認識することができます。ただし、個々の文字スタイルの変動幅が広いため、手書き文字の認識は通常、印刷されたテキストの認識よりも精度が低いです。
はい、 多くのOCRソフトウェアは複数の言語を認識できます。ただし、特定の言語がサポートされていることを確認する必要があります。
OCRはOptical Character Recognition(光学的文字認識)の略で、印刷されたテキストを認識します。一方、ICRはIntelligent Character Recognition(知能的文字認識)の略で、より進んだ技術を使用して手書きのテキストを認識します。
OCRはクリアで読みやすいフォントと標準的な文字サイズを処理するのに最も適しています。それはさまざまなフォントとサイズを処理する能力を持っていますが、非常に小さい文字サイズや一般的でないフォントを処理するときには、その精度が下がる可能性があります。
OCRは低解像度のドキュメント、複雑なフォント、印刷品質が悪いテキスト、手書きのテキスト、またはテキストが含まれている背景からの混乱を処理するのに問題を抱えている可能性があります。さらに、それは多言語を处理する能力を持っていますが、すべての言語を完全にカバーすることはできない可能性があります。
はい、OCRはカラーテキストとカラーバックグラウンドをスキャンすることができますが、通常は黒いテキストと白いバックグラウンドといった高いコントラストの色の組み合わせに対して最も効果的です。テキストとバックグラウンドの色のコントラストが不十分な場合、その精度が下がる可能性があります。
JPEG 2000パート1ファイル形式は、Joint Photographic Experts Groupによって元のJPEG規格の後継として作成された画像エンコードシステムです。2000年に導入され、正式にはISO/IEC 15444-1として知られています。JPEG 2000は、元のJPEG形式の制限の一部に対処できる、より効率的で柔軟な画像圧縮技術を提供するように設計されました。JPEG 2000はウェーブレットベースの圧縮を使用しており、同じファイル内でロスレス圧縮とロス圧縮の両方が可能で、より高いスケーラビリティと画像忠実度を提供します。
JPEG 2000形式の重要な機能の1つは、元のJPEG形式で使用される離散コサイン変換(DCT)ではなく、離散ウェーブレット変換(DWT)を使用することです。DWTはDCTに対していくつかの利点があり、特に高解像度の画像では圧縮効率が向上し、ブロッキングアーティファクトが減少します。これは、ウェーブレット変換は画像をさまざまなレベルの詳細で表現できるためで、アプリケーションの特定のニーズやユーザーの好みに応じて調整できます。
JP2形式は、グレースケール、RGB、YCbCrなどのさまざまなカラースペースと、バイナリ画像からチャネルあたり最大16ビットまでのさまざまなビット深度をサポートしています。この柔軟性により、デジタル写真から医療画像やリモートセンシングまで、さまざまなアプリケーションに適しています。さらに、JPEG 2000は、標準JPEG形式では不可能なアルファチャネルを使用して透過性をサポートしています。
JPEG 2000のもう1つの重要な利点は、プログレッシブデコードをサポートしていることです。つまり、ファイル全体がダウンロードされる前に、画像をより低い解像度と品質レベルでデコードして表示できます。これは、特にWebアプリケーションに役立ちます。より多くのデータが利用可能になると、画像の品質 は徐々に向上します。この機能は「品質レイヤー」と呼ばれ、帯域幅を効率的に使用し、帯域幅に制約のある環境でより優れたユーザーエクスペリエンスを提供します。
JPEG 2000は、「関心領域」(ROI)の概念も導入しています。ROIを使用すると、画像の特定の部分を画像の他の部分よりも高い品質でエンコードできます。これは、監視や医療診断など、画像内の特定の異常や特徴に注意を引く必要がある場合に特に役立ちます。
JP2形式には、堅牢なメタデータ処理機能が含まれています。International Press Telecommunications Council(IPTC)メタデータ、Exifデータ、XMLデータ、さらには知的財産情報など、幅広いメタデータ情報を格納できます。この包括的なメタデータサポートにより、画像のカタログ化とアーカイブが容易になり、画像に関する重要な情報が保持され、簡単にアクセスできるようになります。
エラー耐性は、データ損失が発生する可能性のあるネットワーク(ワイヤレス通信や衛星通信など)での使用に適したJPEG 2000のもう1つの機能です。この形式には、エラー検出および訂正のメカニズムが含まれており、送信中に一部のデータが破損した場合でも画像が正しくデコードされるようにできます。
JPEG 2000ファイルは、同様の品質レベルでエンコードした場合、JPEGファイルと比較して通常サイズが大きくなります。これは、広く採用される際の障壁の1つでした。ただし、画質が最優先で、ファイルサイズの増加が大きな問題ではないアプリケーションでは、JPEG 2000は明確な利点を提供します。また、この形式の優れた圧縮効率により、特に高解像度の画像では、JPEGと比較してより高い品質レベルでファイルサイズが小さくなる可能性があることに注意してください。
JP2形式は拡張可能であり、JPEG 2000として知られるより大規模な標準スイートの一部になるように設計されました。このスイートには、モーション画像のサポート(JPEG 2000パート2)、セキュアな画像伝送(JPEG 2000パート8)、インタラクティブプロトコル(JPEG 2000パート9)など、基本形式の機能を拡張するさまざまなパートが含まれています。この拡張性により、この形式は将来のマルチメディアアプリケーションのニーズを満たすように進化できます。
ファイル構造の点では、JP2ファイルは一連のボックスで構成され、それぞれに特定の種類のデータが含まれています。ボックスには、ファイルをJPEG 2000コーデックストリームとして識別するファイルシグネチャボックス、メディアタイプと互換性を指定するファイルタイプボックス、幅、高さ、カラースペース、ビット深度などの画像プロパティを含むヘッダーボックスが含まれます。追加のボックスには、カラースペシフィケーションデータ、インデックス付きカラー画像のパレットデータ、解像度情報、知的財産権データを含めることができます。
JP2ファイル内の実際の画像データは、「連続コーデックストリーム」ボックス内に格納され、圧縮された画像データとコーディングスタイル情報が含まれます。コーデックストリームは、「タイル」に編成され、これらは画像の独立してエンコードされたセグメントです。このタイル機能により、画像全体をデコードする必要なく、画像の一部に効率的にランダムアクセスできます。これは、大きな画像や画像の一部のみ が必要な場合に役立ちます。
JPEG 2000の圧縮プロセスには、いくつかの手順が含まれます。まず、画像がオプションで前処理され、これにはタイル化、カラートランスフォーメーション、ダウンサンプリングが含まれる場合があります。次に、DWTが適用されて画像データを階層的な係数のセットに変換し、さまざまな解像度と品質レベルで画像を表します。これらの係数は次に量子化され、これはロスレスまたはロス方式で行うことができ、量子化された値は算術符号化やバイナリツリー符号化などの手法を使用してエントロピー符号化されます。
JPEG 2000を採用する際の課題の1つは、エンコードおよびデコードプロセスの計算の複雑さで、元のJPEG規格よりもリソースを多く消費します。これにより、一部のリアルタイムアプリケーションや低電力アプリケーションでの使用が制限されています。ただし、コンピューティング能力の向上と、最適化されたアルゴリズムとハードウェアアクセラレータの開発により、JPEG 2000はより広範なアプリケーションで利用できるようになりました。
その利点にもかかわらず、JPEG 2000はほとんどの主流アプリケーションで元のJPEG形式に取って代わっていません。JPEGのシンプルさ、広範なサポート、既存のインフラストラクチャの慣性は、その継続的な優位性に貢献しています。ただし、JPEG 2000は、より高いダイナミックレンジ、ロスレス圧縮、優れた画質などの高度な機能が重要な専門分野でニッチを見つけています。医療画像、デジタルシネマ、地理空間画像、アーカイブストレージなど、この形式の利点がファイルサイズの増加と計算要件の増加の欠点を上回る分 野で一般的に使用されています。
結論として、JPEG 2000画像形式は画像圧縮技術の重要な進歩を表しており、元のJPEG規格の制限を改善するさまざまな機能を提供します。ウェーブレットベースの圧縮を使用すると、スケーラブルな解像度と品質を備えた高品質の画像を作成でき、プログレッシブデコード、関心領域、堅牢なメタデータのサポートにより、多くの専門的なアプリケーションに適した汎用的な選択肢になります。画像圧縮の普遍的な標準にはなっていませんが、JPEG 2000は画像の品質と忠実度が最優先される業界にとって重要なツールであり続けています。
このコンバーターはブラウザ内で完全に動作します。ファイルを選択すると、メモリに読み込まれ、選択したフォーマットに変換されます。その後、変換されたファイルをダウンロードできます。
変換は瞬時に開始され、ほとんどのファイルは1秒以内に変換されます。大きなファイルの場合、時間がかかる場合があります。
ファイルは決してサーバにアップロードされません。ブラウザ内で変換され、変換されたファイルがダウンロードされます。ファイルは見られません。
画像フォーマット間の変換すべてに対応しています。JPEG、PNG、GIF、WebP、SVG、BMP、TIFFなどです。
このコンバーターは完全に無料で、永久に無料のままです。ブラウザ内で動作するため、サーバを用意する必要がないので、料金を請求する必要がありません。
はい、一度に複数のファイルを変換できます。追加時に複数のファイルを選択してください。