明和電機は2003年にSEAMOONSという「歌うロボット」を開発しました。このロボットはゴムでできた人工声帯にふいごで空気を送り、歌声をコンピューターのフォードバック制御によって調律することで、人間のように歌う機械です。
人間の歌声は、ピアノのように正確な音が出るようにはできていません。楽器として見たとき、構造そのものが「音痴」なのです。そこで人間は「耳」を使って、自分の出した歌声をすぐさま修正する、という離れ業をおこなっています。これによってそこそこ音痴ではなく歌声が出せます。SEAMOONSも同じしくみで「音痴」になるのを回避しています。
しかし、SEAMOONSは電子楽器ではなく、「電動楽器」なので、たとえば低い「ド」の音から高い
「ド」の音へ、いっきに変化する場合、高速でモーターが動き、いきなり止まらなければなりません。これは自動車でたとえると、急発進して、目的の場所で急ブレーキをかけるようなものです。
目的地へいきなり止まるのはとても難しく、そこでコンピューターのほうで、「まずは、だいたい近い場所にまずはいってみよう。そして、正しければ、もう少し近くへいってみよう。」というような、制御を行います。これを行うと、実際、歌声がどうなるかというと、「こぶし」がかかったような音になったり、ビブラートがかかったようにブルブルゆれたりします。いわば、それは不安定な制御の結果なのですが、それによって、なんと「人間らしい歌声」に聞こえるのです。
人間の歌の味わいとは、実はどうしようもない「不安定な制御」が生み出しているのかもしれません。
冒頭の動画のSEAMOONSには「顔」がありません。「口「もなく、「のど」しかないので、歌声も”あー”という音しか出せません。しかし2003年の開発当初から、口や顔を作り、いつかは人間のように歌詞を歌うロボットを作りたいと思っていました。上のスケッチは2003年にそんな気持ちで描いたものの一枚です。
今回の「明和電機ボイス計画」では、SEAMOONSをさらに発展させ、口を持つことで歌詞を歌いあげるロボット、「SEAMOONSⅡ」を計画しています。渋谷西武の「社長設計室」では、ほぼ毎日、その計画のスケッチ・ドローイングを描いています。