第39回出版UD研究会セミナーに行ってきました

 第39回出版UD研究会「情報アクセシビリティの世界から見た本のアクセシビリティ」に行ってきました※1。ゲストスピーカーはIBMフェローの浅川智恵子さんで、中学校時代に事故で失明されていながら努力の末にIBMに入社され、点字翻訳システムや視覚障がい者用ホームページ読み上げシステムの開発など情報アクセシビリティの研究を続けてこられた方です。ちょっとどれだけの努力をすればそれが可能なのか見当がつきません。本当に頭が下がります。

 一般的にアクセシビリティの確保といいますと、高齢者・障がい者を含む誰もがサービスやコンテンツにアクセスできるようにすることを指し、わかりやすいところでは建物におけるバリアフリー設計などがそれにあたります。
紙と電子のアクセシビリティ 今回のセミナーでは、視覚障がい者向けの点字翻訳技術や音声読み上げ技術、スマートフォンなどを利用したクラウド経由での障がい者支援システムについての説明の後、書籍のアクセシビリティ確保のための電子化に関する話があり、なかなか興味深い話を聞くことができました。

 これまでの決められた判型・フォントサイズで印刷される紙の書籍では、アクセシビリティの確保と言っても、大きめのフォントサイズで印刷することや、高齢者向けに拡大版を出すといったような対策しか考えようがなく、コスト面での制約から商業ベースで多くの書籍をアクセシブルにすることは難しいものがありました。この結果、点字翻訳や音声録音といった視覚障がい者向けコンテンツの制作は、我が国ではもっぱらボランティアベースで行われてきたのが実情です。
 しかし、読者が手元の設定で文字サイズを変えられるリフロー型の電子書籍では、このあたりは商業ベースの出版物でもぐっと身近な考え方になってきます。むしろ、視覚障がいや老眼などの理由で従来の紙の書籍を読むことが難しい層であっても、電子書籍であれば読むことができるというのであれば、それはこれまで取りこめていなかった消費者層の取り込み、売り上げ増加に繋がってくる決して小さくないファクターになってくるとも言えそうです。
 これに加え、特に教科書などの公的性格の強いコンテンツは、今後法令によって一定レベルのアクセシビリティが求められる可能性があるとの話もあり、制作サイドがどういった考え方を持って電子コンテンツを作っていくべきなのか最初にしっかり確認しておくことはとても大事と思います。

 ということで、今回のセミナーの説明に入ります。最初にお話のあった黎明期の視覚障がい者向けリーディングシステムの話も面白かったのですが、今後のコンテンツ制作に直接つながる話ではないので省略させていただき、まずは視覚障がい者の音声認識スピード及び、音声読み上げ技術の話からです。

早く読む技術、ナナメ読みの技術

 まず、視覚障がい者は健常者に比べてずっと早いスピードの音声を認識できるという話があり、これはなかなか興味深いものがありました。実際に音声の高速読み上げデモも行われたのですが、私などでは到底何を言っているのかわからない2倍速での再生でも、視覚障がい者の方は普通に聞き取れてしまうとのこと。また、ホームページ読み上げに関連したナナメ読み/要約技術のデモもあり、ぐるなび等の口コミ評価サイトの要約デモが行われていました。これは投稿レビュアーによって書き込まれた各店舗の大量のレビュー記事の中から「良い/悪い」という言葉およびそれに類する言葉を含む段落だけを自動抽出し、読み上げる技術とのことで、実際に聞いてみると確かに大づかみにその店の評価を知ることができます。
 これは視覚障がい者向けだけではなく、例えば目で文章を追いにくい運転中に使うカーナビ等と連携した利用にもニーズがありそうかなと感じました。また、現状読み上げ技術は高齢者向けなどの実装が中心で、視覚障がい者向けの速読技術はニーズが限られているために技術開発が進みにくい面があるとのこと。このあたりは今後の対応に期待がかかるところです。

クラウド・アクセシビリティ/ソーシャル・アクセシビリティ

 コンピュータによる自動認識では足りない部分を、多数のボランティアによる人間の知能で補うことで総合的に優れたサービスを実現する試みも数多く試みられているようです。例えば視覚障がい者がスマートフォンの専用アプリで撮影したものをクラウドサーバーに送って自動画像認識し、音声で読み上げるようなシステムで、認識できなかったものはクラウドサーバー経由でボランティアの元に送られて人間の目で確認、文字入力されて結果が音声で読み上げられる、といったようなソリューションのデモが行われたのですが、なかなか興味深かった点として、単純にボランティアの補正によって補完するだけではなく、認識結果はコンピュータ側に記録としてフィードバックされて自動認識エンジンの改良に使われるとのこと。これはおそらく検索エンジンの画像認識など一般ユースへのフィードバックも含んだ考え方と思われます。ただ、こうしたクラウド連携サービスは現状英語ベースのサービスがほとんどで、日本語の認識という意味では難しい面があるとのことでした。

アクセシブルな電子書籍制作の課題

 さて、本命です。まずは電子書籍制作のコストのお話から。アクセシブルな電子書籍を制作するには、画像をスキャンしてパッケージングするだけではなく(レプリカフォーマット/緊デジフィックス型)、きちんとテキスト起こしをし、構造化する必要があるとのお話がありました。この「きちんとテキストベースで制作され、構造化された電子書籍である」ということが、実際のところ最低限のアクセシビリティの保証とほぼイコールになってくるようです。iBooksなどにはすでにEPUB3文書の合成音声読み上げ機能が実装されていますので、これは確かに頷けるところがあります。
 この構造化テキストの制作工程で特にコストがかかるのは、OCR処理されたテキストを校正する工程、構造化する工程とのことで、特に日本語は26文字しかないアルファベットに比べて圧倒的に文字数が多く、さらに縦組み/横組みの混在多言語混植ルビや圏点の存在など欧文書籍にはない要素が多数あるため、OCR処理の技術的ハードルがとても高いとのこと。従ってOCR処理後のテキストに必然的に間違いが多く、校正のコストが高くつくとのお話で、これは制作現場の経験からもその通りと思います。

 またこれは質疑応答の後に関係者の方に確認した話なのですが、現状日本語OCRソフトはShift_JISの範囲の文字認識がせいぜいで、Unicodeの範囲をきちんと認識できるものはおそらくないだろうとのこと。つまり、JIS第3・第4水準漢字は現状OCRでは認識できないと考えた方が良さそうです。さらに、以前のエントリーでも書かせていただいたように、印刷物の制作に使用できる文字の数はUnicodeで使用できる文字の数を上回りますので、こうしたUnicode領域外の異体字などは当然OCRでの自動テキスト化は期待できません。日本語書籍の電子化が遅々として進まないのはこうした部分にも一因があるのではないでしょうか。

 海外ではBookShareというサービスが存在し、国のサポート、ボランティアの支援によりベストセラー書籍が出版された翌日には点字/DAISYフォーマット化されて入手できるルートが整っているとのことなのですが、上記の理由により日本では同一のモデルの成立は困難だろうとのことです。こうした部分を解決するには、日本ではやはり出版社自身による紙書籍と電子書籍の同時刊行が必要になってきそうです。

校正作業のゲーム化、パスワード認証との連携

 日本語書籍に比べればまだマシとは思いますが、アルファベット圏でも過去の印刷物のテキスト化に伴う校正のコストに頭を悩ませているのは同じです。そうしたコストを削減するための海外でのさまざまな試みの紹介がありました。
 オーストラリア国立図書館の校正作業の一般開放の試み(Trove)や、フィンランド図書館の校正作業をゲーム化して一般公開する試み(Digitalkoot)などの紹介があったのですが、特に面白かったのはGoogleが買収したパスワード認証システム、reCAPTCHAについての説明です。

 ゆがんだテキストを目で確認して入力することでサイト認証を行う仕組みはすでにあちこちで目にするところなのですが、reCAPTCHAはこれを一歩進めて、パスワード認証用の画像と並べてOCRでの文字認識に失敗した画像を配置し、利用者に双方を入力してもらうことで無数のユーザーに無意識のうちに校正作業に参加してもらうというシステムで、これはすでにGoogle Booksでの書籍電子化にも利用されているとのこと。集合知によって厖大な作業量をカバーする、いかにもGoogleが好みそうなアプローチです。
 Webで調べた限りではこのreCAPTCHAの出題項目に日本語や中国語が出てくることもあるようです。これはGoogle Booksプロジェクトで電子化するためにスキャンしたテキスト画像が自動で振り分けられているものと思われます。英語文化圏の住人に日本語文書の校正入力をきちんと行える人がそう多くいるとも思えないので、あるいは国別に割り振りが行われていたりするのでしょうか。

 また、OCRの認識精度向上のために人間の入力結果を利用する試みもヨーロッパの図書館や公共研究機関を中心に盛んに行われているとのことで、これは是非、日本の研究機関や関連企業にも頑張っていただき、せめてJIS第3水準、第4水準漢字レベルの認識が可能なOCRソリューションに早く登場して欲しいと思っています。素人考えですが、一度文字レベルで自動認識させた仮テキストを、辞書と連携した熟語認識エンジンで整合性チェックする、といったような仕組みでOCR処理の精度アップが図れないものでしょうか?

 最後に、電子書籍のアクセシビリティ確保について制作サイドが心がけるべきことを、以前のセミナーでDAISY関係者の方にお聞きした話なども含めて簡単に箇条書きしておきます。

  • きちんとテキスト化し、きれいに構造化されたEPUB3であれば読み上げは可能。最低限のアクセシビリティは確保できている。
  • 読み上げ対応EPUB3の構造化言語はDTBookでなくて良い。XHTMLでOK。
  • 画像のalt(代替文字)属性に、適切な内容を入力しておくことが重要。画像ファイル名とかはNG。
  • 「○○ページ上図参照」などの書籍内の位置に依存する表記はアクセシビリティの確保に支障をきたす。
  • 今後、高齢化や法によるアクセシビリティ確保の義務化などにより、アクセシビリティ対策は重要度を増していく可能性が高い。

※1 第39回出版UD研究会 togetterまとめhttp://togetter.com/li/366078

(2012.9.05)

タグ: , , ,

コメント / トラックバック 1 件

  1. Pharma376 より:

    Hello! fcedded interesting fcedded site! I’m really like it! Very, very fcedded good!

コメントをどうぞ

プロフィール
Jun Tajima

こちらにて、電子書籍&Web制作を担当しています。
このブログは、EPUB3をはじめとした電子書籍制作担当オペレータからの、「電子書籍の制作時にたとえばこんな問題が出てきていますよ」的な「現地レポート」です。少しでも早い段階で快適な電子書籍閲覧・制作環境が整うことを願って、現場からの声を発信していこうと目論んでおります。

当ブログ内の記事・資料は、私の所属しております組織の許諾を得て掲載していますが、内容は私個人の見解に基づくものであり、所属する組織の見解を代表するものではありません。また、本ブログの情報・ツールを利用したことにより、直接的あるいは間接的に損害や債務が発生した場合でも、私および私の所属する組織は一切の責任を負いかねます。

最近のコメント