NHKの夜の報道番組「ニュースチェック11」のなかで、AIのアナウンサーがニュース原稿を読み上げるワンコーナーをご存知だろうか。

https://www.youtube.com/watch?v=80kdNXXip6M

NHKの夜の報道番組「ニュースチェック11」のなかで、AIのアナウンサーがニュース原稿を読み上げるワンコーナーをご存知だろうか。:
https://www.rbbtoday.com/article/2018/05/11/160443.html.

見ていただきありがとうございます。より多くの動画を購読してください:
https://www.youtube.com/channel/UCkVK_mgzJOwhOtC9RS2YFaQ?sub_confirmation=1
 NHKの夜の報道番組「ニュースチェック11」のなかで、AIのアナウンサーがニュース原稿を読み上げるワンコーナーをご存知だろうか。関係者が「NHKの歴史上、これほど不確実な技術でニュースをお届けしたことはない」と苦笑いする、きわめてチャレンジングな取り組みだ。そこで編集部ではNHK報道局に赴き、その意図と狙いについて聞いてきた。ヨミ子さんとは? AIアナウンサーの名前は、新人リポーターの「ヨミ子さん」。まだ大学を出たばかりだろうか、清潔感と初々しさを感じさせる爽やかな女性だ。ニュースチェック11はNHK総合テレビで平日の午後11時10分から放送している30分の報道番組で、ヨミ子さんは毎週水曜日に放送される「ヨミ子のニュース」のワンコーナーに出演している。 その開発には、NHK内の様々な部署が協力したという。コアのメンバーだけでも総勢20名は下らないというから、力の入れようがうかがえる。4名の代表者に話を聞いた。 どのようないきさつで、ヨミ子のニュースは始まったのだろうか。NHK報道局ネットワーク報道部の近堂靖洋氏は次のように説明した。「もともとニュースチェック11には、新しい試みを積極的に取り入れてきた経緯があります。たとえばTwitterに寄せられたコメントを流すことで、視聴者の番組への参加を促してきました。今回の取り組みもその延長線上にあって、AI発話のアナウンサー ヨミ子さんを視聴者とともに育てていきたいという意図があります」。プロジェクトは昨年10月頃に発足し、放送技術研究所など複数の部署の協力を得て進められた。最初のうちは読み方がぎこちないこともあるが、段々とスムーズになっていく見込みだという。その成長の過程を、視聴者は見守ることになる。 NHK報道局ネットワーク報道部 専任部長の熊田安伸氏は「技術研究所では、平昌オリンピックに向けて『ロボット実況』の開発を進めていました。ヨミ子さんでは、その基幹を活用しています」と明かす。ロボット実況とは、人工知能による実況技術のこと。競技の経過をテキスト化したものを、音声合成技術でつくられたロボットの声が読み上げるこの技術が、ヨミ子さんに応用されているとのことだ。 放送技術研究所ヒューマンインターフェース研究部 上級研究員 博士(工学)の今井篤氏は「もう何十年も前から、私たちは音声合成について研究してきました。NHKラジオ第2放送では、すでに音声合成の自動放送を活用している番組もあります。たとえば、株式市況では膨大な数値データを正確に伝えなければいけない。こうした、アナウンサーが原稿を読み上げることが大変な番組では音声合成を活用する意義が大きい。このほか、オリンピックなど100種目以上の競技が同時に開催される場面でも有効だと考えています。視覚に障がいのある方にも、リアルタイムで競技の情報を伝えられる」と解説。この既存技術にAIを加えることで、より自然で人間らしい発話の実現を目指している。 こうした実験的な取り組みは、放送技術研究所が提案しても、報道局からNGが出ることも多い。今井氏は「今回は視聴者とともにAIアナウンサーを育てていく、というコンセプトに賛同してもらえた。正確に言えば、腹をくくってもらったというべきかも知れません」と苦笑いした。 では、どのようにして発話を上達させていくのだろうか。放送技術研究所ヒューマンインターフェース研究部の栗原清氏は、その仕組みについて「人間は専門用語を含め、色んな言葉を習得していくうちに言葉が滑らかになっていきます。AIも、日頃からニュース原稿を読んでいくうちに発話が上達していきます」と説明する。放送技研では、ある女性アナウンサーに大量のニュース原稿を読んでもらって音声データを取得。それを約10万語の音素に分解して、AIのディープラーニングに利用しているという。さらに報道局で保有している地名、固有名詞などの辞書データ(約1万2千語)、放送文化研究所のアクセント辞典なども活用しているそうだ。 ディープラーニングさせるエンジンは放送技術研究所が開発した。栗原氏は「技研の中で持っている音声資産と、今回の資産をどう組み合わせればイチバン良いパフォーマンスを発揮できるか。短い準備期間で、最高のものにするため工夫してモデルの構成をおこないました。良いデータを使うことで品質を上げています」と話した。あの人に似てきた… 既述の通りヨミ子さんの学習には、ある女性アナウンサーの音声データが使われている。このことについて、熊田氏は「少しずつ、そのアナウンサーの癖がヨミ子さんにも移ってきたのを感じる」と話す。同局のアナウンサーは、いわゆるNHKらしい、最も標準的な読み方が課せられる。しかし個人の癖は残る。それが似てきたというのだ。「最近ではヨミ子さんの声で、彼女の顔が浮かんでくるんです。今後、もっと近付いていくのでは」と熊田氏。それは誰なんだろうか?ヨミ子さんが流暢になればなるほど、正解も明らかになっていくのだろうか。毎週水曜日の放送を見つつ、あれこれ推理するのも楽しいかも知れない。アドリブはご法度? AIアナウンサー、という響きについ我々は、人間と対等に会話できるようなAIを期待してしまう。しかし、熊田氏は「人間のアナウンサーにはニュース原稿を渡して読んでもらう。それと同じで、ヨミ子さんにはPC上でニュース原稿を渡して読んでもらっている。一字一句、原稿を正確に読んでいるため、(現時点では)アドリブは発生しない」と説明する。もっとも、生放送で何を言い出すのか分からないのでは、アナウンサーに起用できないだろう。 それも踏まえつつ、近堂氏は「ただ将来的には、自ら考えながら話すところまでもっていきたい。また、ニュースならニュース、対談なら対談に最適な話し方があり、その人ならではの口調もある。AIでも将来、そんな人間臭さを追求していけたら。だから、この開発には終わりがないんです」と話していた。女性なのに声が低いのでは? 視聴者からは、どんな声が届いているのだろう。栗原氏は「NHKのホームページには、ヨミ子の連絡窓口というコーナーを設けています。現在は、ここに寄せられる視聴者の反応を見てチューニングしている状態。第2回を終えた時点で、声のトーンが低いのではないかという意見があったので、パラメータをいじって調整しました。発音の違和感なども、適宜、直していきたい」と話した。ヨミ子さんだからこそ扱える話題も? 具体的には、どんな話題を選んでヨミ子さんに喋らせているのか。「生活に身近な、ネットでも話題になったことを深堀して、視聴者にへぇと驚いてもらえるようなネタを取り上げている」と熊田氏。また今井氏は「AIアナウンサーと言うと、先進的でとがったものを想像しがちだけれど、ヨミ子を見てもらえばお分かり頂ける通り、ホっとするような、リラックスした雰囲気を大事にしています。これはチェック11の番組コンセプトにも合致すること。1日の終わりに、身近な話題でほっこりしてもらえたら」と語る。 ヨミ子さんが読むから角が立たない話題もある。たとえば、第4回の放送ではスメルハラスメントを取り上げた。番組の中で、ヨミ子さんは「私はニオイません」とコメントしている。
#NHKの夜の報道番組「ニュースチェック11」のなかで、AIのアナウンサーがニュース原稿を読み上げるワンコーナーをご存知だろうか
#IT・デジタルビジネスエンタメ, #ショッピングSPEEDTESTイベントセミナー