自動音声翻訳機の実証実験@関西の観光地

今朝のNHKニュースで、携帯端末型の自動音声翻訳機について実証実験を行っている様子をチェック! 大阪の通天閣や奈良の東大寺で、この自動音声翻訳機をうまく使って外国人にガイドしていている光景に驚嘆しました!

さすがにいい面ばかりではなく、たまに音声を認識できずに翻訳結果がアウトプットされない事故も映っていました。


このニュースに関する記事をネットで探しましたが、ドンピシャがありません。

テレビでは、京都で発表、関西で実証実験ということだったので、たぶんこの技術だと思います↓

翻訳機は英・中・韓・日の4カ国語の双方向翻訳が可能。端末機に話しかけるだけで、パケット通信でサーバーと交信し、「TOEIC600点相当」の翻訳結果を送り返す。同セミナーの休憩時間中、外国人参加者らが興味津々の表情で翻訳機に話しかけていた。

「TOEIC600点相当」という表現が面白くてわかりやすいですね。


この自動音声翻訳サービスは、次の3分野の技術から成り立っているといえそうです。

  1. 音声認識(音声入力)
    ユーザーの声を入力・認識し、文字データに変換する
  2. 高速データ通信
    文字データと翻訳結果を、端末・サーバー間で瞬時に送受信する
  3. 自動翻訳(機械翻訳)
    専用サーバーで、訳文データベースと照合し、自動的に翻訳する


それぞれが実用レベルに達しているからこそ、自動音声翻訳が実現できたのでしょう。


上記の認識事故からわかるように、3技術のなかでも音声認識が足を引っ張っている気がします。周囲の物音から人の声を分離することは十分実用レベルのようですが、他人の声がかぶさる場合には分離が難しいようです。まぁ、その点は、利用者が気をつけるという前提で実用レベルなのかもしれません。


自動翻訳に関しては、ソースが音声なので、各種文書の翻訳に対応するより精度が高いと思います。観光地での会話というような、テーマが絞られた音声言語の翻訳の方が、パターン化しやすいので。


次の世紀を待たずに、ドラえもんの「ほんやくコンニャク」やスタートレックの「宇宙翻訳機(universal translator)」が実用化しそうな勢いですね!


やっぱり会話の自動翻訳が花形!

でも音声認識技術がネック!


ボクの基準では、自動音声翻訳機の実用レベル=秋葉原の喧騒の中でショッピングができるレベルです。厳しいでしょうか? 開発者の皆さん、がんばってください! 自動音声翻訳の未来を楽しみにしています~(^○^)