パソコン・ネット 科学・技術

AIアシスタントのダジャレがわかりにくかった件

最近、LINE のスマートスピーカー「Clova」のスキルをいろいろ試して遊んでいます。

(Clova って? スキルって? という方はまずこちらへ↓)

今回、「ダジャレの師匠」という名前のスキルを新たに試してみました。

これは Clova に向かって「ダジャレの師匠を開いて」と話しかけると起動することができ、続いて「ダジャレ言って」と言うと、毎回異なるダジャレを披露して笑わせてくれるというスキルです。

せいぜい「ふとんがふっとんだ」「馬はうまい」みたいなダジャレを言ってくれるだけだろう、と思ったら、今まで聞いたことないような新作ダジャレ(?)をしゃべってくれるので、思わず「おお~!」と感心してしまいました。

 

さて、ダジャレの師匠が人口の合成音声で披露してくれるダジャレを聴いて1つ発見したことがあります。

それはずばり、

 

  ダジャレがわかりにくい

 

ということです。

 

なぜか?

 

師匠のダジャレの内容自体がわかりにくいというのもありますが(笑)、

むしろ

 

  合成した音声でイントネーションが不自然だと
  音から意味を取りにくい

 

という面が大きいと思います。

 

私たちがダジャレや掛け言葉(特に長めのものや複雑なもの)を耳で聞いた場合、音の上げ下げ、緩急、区切る場所といった情報から、その音の持つ「二重の意味」をたくみに理解しようとします。それがやや平板で機械的な音声になると、急に難しくなるんですね。

このわかりにくさは、「漢字や区切りをいっさい入れずにダジャレを文字で書いたときのわかりづらさ」に似ているかもしれません。

たとえばほんの一例ですが、師匠が話してくれたこのダジャレ、読んだ瞬間にパッと意味がわかりますか?

 

  スパイクジサンデ スパイクジーサン

 

そう、答えはこれです:

 

  スパイク持参で スパ 行く 爺さん

 

これは耳で聞いただけだとまったく意味が理解できなかったです。音声を一度頭の中で文字に起こして、それの解釈をちょっと考えて、やっと「ああ!」と理解する、というような感じです。

これは ネタ自体が相当わかりにくい例 ではありますが(笑)、おそらく人間が、間の取り方やイントネーションを工夫して言ってくれれば 理解できたはず。

Clova のような AI アシスタントや「初音ミク」のような合成音声でも、音の上下や区切りを細かくプログラムすれば、わかりやすいダジャレ表現ができると思います(未経験なのでよくわかりませんが、たぶん作る側が細かく設定できるのでしょう)。

でも、多数登録されているダジャレについて逐一言い方を設定するのは大変ですし、全自動でそれをやるのも技術的に困難なのではと思います。ダジャレって、実はけっこう高度な伝達技術が必要なんだな、人間ってやっぱすごいな、と感心した次第です ^^

 

PR

-パソコン・ネット, 科学・技術