光学文字認識(OCR)は、テキストの画像(スキャン、スマートフォンの写真、PDF)を機械が読み取れる文字列に、そしてますます 構造化データに変換します。現代のOCRは、画像をクリーンアップし、テキストを見つけ、それを読み取り、豊富なメタデータをエクスポートするパイプラインであり、 下流のシステムがフィールドを検索、索引付け、または抽出できるようにします。広く使用されている2つの出力標準は、 hOCR、テキストとレイアウトのためのHTMLマイクロフォーマット、および ALTO XML、図書館/アーカイブ指向のスキーマです。どちらも位置、読み取り順序、その他のレイアウトの合図を保持し、Tesseractのような人気のあるエンジンでサポートされています。
前処理。 OCRの品質は、画像のクリーンアップから始まります:グレースケール変換、ノイズ除去、 しきい値処理(二値化)、および傾き補正。標準的なOpenCVのチュートリアルでは、グローバル、 適応型 および Otsu のしきい値処理が扱われています。これらは、不均一な照明やバイモーダルなヒストグラムを持つドキュメントの定番です。ページ内で照明が変化する場合 (電話のスナップショットを考えてみてください)、適応型メソッドは単一のグローバルしきい値よりも優れていることがよくあります。Otsu はヒストグラムを分析して自動的にしきい値を選択します。傾き補正も同様に重要です:Houghベースの 傾き補正(ハフライン変換)とOtsuの二値化を組み合わせることは、生産前処理パイプラインで一般的で効果的なレシピです。
検出と認識。 OCRは通常、テキスト検出(テキストはどこにあるか ?)とテキスト認識(何が書かれているか?)に分けられます。自然なシーンや多くのスキャンでは、 EAST のような完全畳み込み検出器は、重い提案段階なしで単語または行レベルの四辺形を効 率的に予測し、 一般的なツールキット(例: OpenCVのテキスト検出チュートリアル)に実装されています。複雑なページ(新聞、フォーム、書籍)では、行/領域のセグメンテーションと読み取り順序の推論が重要です:Kraken は、従来のゾーン/ラインセグメンテーションとニューラルベースラインセグメンテーションを実装しており、さまざまなスクリプトと方向(LTR / RTL /垂直)を明示的にサポートしています。
認識モデル。 古典的なオープンソースの主力製品である Tesseract (Googleによってオープンソース化され、HPにルーツを持つ)は、文字分類器からLSTMベースのシーケンス 認識器に進化し、検索可能なPDF、 hOCR / ALTOフレンドリーな出力などをCLIから出力できます。現代の認識器は、事前にセグメント化された文字なしでシーケンスモデリングに依存しています。 コネクショニスト時間分類(CTC) は、入力特徴シーケンスと出力ラベル文字列間のアライメントを学習する基礎であり続け、手書きおよびシーンテキストパイプラインで広く 使用されています。
過去数年間で、TransformerはOCRを再構築しました。 TrOCR は、ビジョントランスフォーマーエンコーダーとテキストトランスフォーマーデコーダーを使用し、大規模な合成コーパスでトレーニングされた後、 実際のデータで微調整され、印刷、手書き、シーンテキストのベンチマークで強力なパフォーマンスを発揮します( Hugging Faceのドキュメントも参照)。並行して、一部のシステムは下流の理解のためにOCRを回避します: Donut(Document Understanding Transformer) は、ドキュメント 画像から直接構造化された回答(キーと値のJSONなど)を出力するOCRフリーのエンコーダーデコーダーです(リポジトリ、 モデルカード)、別のOCRステップがIEシステムにフィードされるときのエラー蓄積を回避します。
多くのスクリプトでバッテリー付属のテキスト読み取りが必要な場合は、 EasyOCR が80以上の言語モデルを備えたシンプルなAPIを提供し、ボックス、テキスト、信頼度を返します。これはプロトタイプや 非ラテン文字のスクリプトに便利です。歴史的な文書の場合、 Kraken はベースラインセグメンテーションとスクリプト対応の読み取り順序で 優れています。柔軟な行レベルのトレーニングには、 Calamari がOcropyの系統に基づいて構築されています(Ocropy)(マルチ)LSTM + CTC認識器とカスタムモデルを微調整するためのCLIを備えています。
一般化はデータにかかっています。手書きの場合、 IAM手書きデータベース は、トレーニングと評価のために作家の多様な英語の文章を提供します。これは、 行と単語の認識のための長年の参照セットです。シーンテキストの場合、 COCO-Text は、MS-COCOに広範な注釈を重ね、印刷/手書き、判読可能/判読不能、スクリプト、および 完全な転写のラベルを付けました(元の プロジェクトページも参照)。この分野はまた、合成事前トレーニングに大きく依存しています: SynthText in the Wild は、リアルなジオメトリと照明でテキストを写真にレンダリングし、事前トレーニング 検出器と認識器に大量のデータを提供します(参照 コードとデータ)。
ICDARのRobust Reading の傘下での競争は、評価を現実的なものに保ちます。最近のタスクは、エンドツーエンドの検出/読み取りを強調し、単語を フレーズにリンクすることを含み、公式コードは 精度/再現率/ Fスコア、和集合上の積集合 (IoU)、および文字レベルの編集距離メトリックを報告します。これは、実践者が追跡すべきことを反映しています。
OCRはめったにプレーンテキストで終わりません。アーカイブやデジタルライブラリは ALTO XML を好みます。なぜなら、コンテンツとともに物理的なレイアウト(座標を持つブロック/行/単語)をエンコードし、 METSパッケージングとうまく連携するからです。 hOCR マイクロフォーマットは、対照的に、ocr_lineや ocrx_wordなどのクラスを使用して同じアイデアをHTML / CSSに埋め込み、Webツールで簡単に表示、編集、変換できるようにします。Tesseractは両方を公開しています。たとえば、 CLIから直接hOCRまたは検索可能なPDFを生成します(PDF出力ガイド)。 pytesseract のようなPythonラッパーは利便性を高めます。リポジトリに固定の取り込み 標準がある場合、hOCRとALTOの間で変換するためのコンバーターが存在します。この厳選されたリスト を参照してください OCRファイル形式ツール。
最も強力なトレンドは収束です:検出、認識、言語モデリング、さらにはタスク固有のデコードまで が統一されたTransformerスタックに統合されています。 大規模な合成コーパス での事前トレーニングは、依然として力の乗数です。OCRフリーモデルは、ターゲットが逐語的な転写ではなく構造化された出力である場所ならどこでも積極的に競争します。 ハイブリッド展開も期待してください:長文テキスト用の軽量検出器とTrOCRスタイルの 認識器、およびフォームとレシート用のDonutスタイルのモデル。
Tesseract (GitHub) · Tesseractドキュメント · hOCR仕様 · ALTOの背景 · EAST検出器 · OpenCVテキスト検出 · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM手書き · OCRファイル形式ツール · EasyOCR
光学的文字認識(OCR)は、さまざまな形式のドキュメント(スキャンされた紙のドキュメント、PDFファイル、デジタルカメラで撮影された画像など)を編集可能で検索可能なデータに変換するために使用される技術です。
OCRは入力画像またはドキュメントをスキャンし、画像を個々の文字に分割し、各文字を形状認識または特徴認識を使用して文字形状のデータベースと比較します。
OCRは印刷文書のデジタル化、テキストから音声へのサービスの活用、デ ータ入力プロセスの自動化、視覚障害のあるユーザーがテキストとより良く対話できるようにするなど、さまざまな業界とアプリケーションで使用されています。
OCR技術は大幅に進歩していますが、それが無敵ではありません。精度は、元のドキュメントの品質と使用されているOCRソフトウェアの特性によって異なることがあります。
OCRは主に印刷されたテキストを認識するように設計されていますが、一部の高度なOCRシステムは明瞭で一貫性のある手書き文字も認識することができます。ただし、個々の文字スタイルの変動幅が広いため、手書き文字の認識は通常、印刷されたテキストの認識よりも精度が低いです。
はい、 多くのOCRソフトウェアは複数の言語を認識できます。ただし、特定の言語がサポートされていることを確認する必要があります。
OCRはOptical Character Recognition(光学的文字認識)の略で、印刷されたテキストを認識します。一方、ICRはIntelligent Character Recognition(知能的文字認識)の略で、より進んだ技術を使用して手書きのテキストを認識します。
OCRはクリアで読みやすいフォントと標準的な文字サイズを処理するのに最も適しています。それはさまざまなフォントとサイズを処理する能力を持っていますが、非常に小さい文字サイズや一般的でないフォントを処理するときには、その精度が下がる可能性があります。
OCRは低解像度のドキュメント、複雑なフォント、印刷品質が悪いテキスト、手書きのテキスト、またはテキストが含まれている背景からの混乱を処理するのに問題を抱えている可能性があります。さらに、それは多言語を处理する能力を持っていますが、すべての言語を完全にカバーすることはできない可能性があります。
はい、OCRはカラーテキストとカラーバックグラウンドをスキャンすることができますが、通常は黒いテキストと白いバックグラウンドといった高いコントラストの色の組み合わせに対して最も効果的です。テキストとバックグラウンドの色のコントラストが不十分な場合、その精度が下がる可能性があります。
JPEG(Joint Photographic Experts Group の略)は、デジタル画像、特にデジタル写真で生成された画像の非可逆圧縮によく使用される手法です。圧縮の程度を 調整することができ、ストレージサイズと画質の間で選択可能なトレードオフを可能にします。JPEG は通常、画質の低下がほとんどない 10:1 の圧縮を実現します。
JPEG 圧縮アルゴリズムは JPEG 規格の中核です。このプロセスは、デジタル画像を通常の RGB 色空間から YCbCr と呼ばれる別の色空間に変換することから始まります。YCbCr 色空間は、画像を輝度(Y、明るさのレベルを表す)とクロミナンス(Cb と Cr、色の情報を表す)に分割します。この分離は、人間の目は色よりも明るさの変化に敏感であるため、この利点を活用してクロミナンス情報を輝度よりも多く圧縮することで有益です。
画像が YCbCr 色空間にあると、JPEG 圧縮プロセスの次のステップはクロミナンスチャネルをダウンサンプリングすることです。ダウンサンプリングはクロミナンス情報の解像度を低下させますが、通常は人間の目が色の詳細にあまり敏感ではないため、画像の知覚品質に大きな影響はありません。このステップはオプションであり、目的の画質とファイルサイズのバランスに応じて調整できます。
ダウンサンプリング後、画像は通常 8x8 ピクセルのブロックに分割されます。各ブロックは個別に処理されます。各ブロックを処理する最初のステップは、離散コサイン変換(DCT)を適用することです。DCT は、空間ドメインデータ(ピクセル値)を周波数ドメインに変換する数学演算です。結果は、画像ブロックのデータを空間周波数成分の観点から表す周波数係数の行列です。
DCT から得られる周波数係数は、次に量子化されます。量子化とは、大規模な入力値セットをより小規模なセットにマッピングするプロセ スです。JPEG の場合は、周波数係数の精度を低下させることを意味します。これは圧縮の非可逆的な部分が発生する部分であり、一部の画像情報が破棄されます。量子化ステップは量子化テーブルによって制御され、各周波数成分に適用される圧縮量を決定します。量子化テーブルは、より高い画質(圧縮が少ない)またはより小さいファイルサイズ(圧縮が多い)を優先するように調整できます。
量子化後、係数はジグザグ順に配置され、左上から始まり、高周波数成分よりも低周波数成分を優先するパターンに従います。これは、低周波数成分(画像のより均一な部分を表す)が高周波数成分(より細かい詳細とエッジを表す)よりも全体的な外観にとって重要であるためです。
JPEG 圧縮プロセスの次のステップはエントロピー符号化であり、これは可逆圧縮の手法です。JPEG で使用される最も一般的なエントロピー符号化の形式はハフマン符号化ですが、算術符号化もオプションです。ハフマン符号化は、より頻繁に出現する値に短いコードを、より頻繁に出現しない値に長いコードを割り当てることで機能します。ジグザグ順序は類似した周波数係数をグループ化する傾向があるため、ハフマン符号化の効率が向上します。
エントロピー符号化が完了すると、圧縮されたデータは JPEG 規格に準拠したファイル形式に格納されます。このファイル形式には、画像の寸法や使用された量子化テーブルなどの画像に関する情報を含むヘッダーが含まれ、その後にハフマン符号化された画像データが続きます。ファイル形式は、カメラの設定、撮影日時、その他の関連の詳細に関する情報を含めることが できる EXIF データなどのメタデータの挿入もサポートしています。
JPEG 画像が開かれると、解凍プロセスは本質的に圧縮ステップを逆転させます。ハフマン符号化されたデータはデコードされ、量子化された周波数係数は圧縮中に使用されたのと同じ量子化テーブルを使用して量子化解除され、逆離散コサイン変換(IDCT)が各ブロックに適用されて周波数ドメインデータを空間ドメインのピクセル値に戻します。
量子化解除と IDCT プロセスは、圧縮の非可逆的な性質によりいくつかのエラーを導入します。そのため、JPEG は複数の編集と再保存が行われる画像には適していません。JPEG 画像が保存されるたびに、再び圧縮プロセスが実行され、追加の画像情報が失われます。これにより、時間の経過とともに画質が著しく低下する可能性があり、これは「世代の損失」として知られる現象です。
JPEG 圧縮の非可逆的な性質にもかかわらず、その柔軟性と効率性により、依然として一般的な画像形式です。JPEG 画像はファイルサイズが非常に小さくなる可能性があり、帯域幅と読み込み時間が重要な考慮事項である Web での使用に理想的です。さらに、JPEG 規格にはプログレッシブモードが含まれており、画像を複数のパスでデコードできるようにエンコードできます。各パスで画像の解像度が向上します。これは Web 画像に特に役立ちます。低品質バージョンの画像をすばやく表示でき、より多くのデータがダウンロードされると品質が向上します。
JPEG にもいくつかの制限があり、すべてのタイプの画像に常に最適な選択肢ではありません。たとえば、シャープなエッジやコントラストの高いテキストを含む画像には適していません。圧縮により、これらの領域の周囲に目立つアーティファクトが発生する可能性があるためです。さらに、JPEG は透過性をサポートしていません。これは、PNG や GIF などの他の形式で提供される機能です。
元の JPEG 規格のいくつかの制限に対処するために、JPEG 2000 や JPEG XR などの新しい形式が開発されました。これらの形式は、圧縮効率の向上、より高いビット深度のサポート、透過性や可逆圧縮などの追加機能を提供します。ただし、元の JPEG 形式と同じレベルの普及にはまだ達していません。
結論として、JPEG 画像形式は、数学、人間の視覚心理学、コンピュータサイエンスの複雑なバランスです。その広範な使用は、ほとんどのアプリケーションで許容できるレベルの画質を維持しながらファイルサイズを削減するその有効性の証です。JPEG の技術的側面を理解すると、ユーザーはこの形式を使用するタイミングと、ニーズに最適な品質とファイルサイズのバランスに合わせて画像を最適化する方法について情報に基づいた意思決定を行うのに役立ちます。
このコンバーターはブラウザ内で完全に動作します。ファ イルを選択すると、メモリに読み込まれ、選択したフォーマットに変換されます。その後、変換されたファイルをダウンロードできます。
変換は瞬時に開始され、ほとんどのファイルは1秒以内に変換されます。大きなファイルの場合、時間がかかる場合があります。
ファイルは決してサーバにアップロードされません。ブラウザ内で変換され、変換されたファイルがダウンロードされます。ファイルは見られません。
画像フォーマット間の変換すべてに対応しています。JPEG、PNG、GIF、WebP、SVG、BMP、TIFFなどです。
このコンバーターは完全に無料で、永久に無料のままです。ブラウザ内で動作するため、サーバを用意する必要がないので、料金を請求する必要がありません。
はい、一度に複数のファイルを変換できます。追加時に複数のファイルを選択してください。