ドラムを練習してるんです、ドラム。
最近は東京事変の「群青日和」という曲をずっと練習してるんですがね。
本物の人は左利きのようで、セッティングからフレーズまで独特なのです。
んでじゃあ私ら右利きはどうするかというと「右利きセッティングのままそれっぽく叩く」となるわけです。
簡単に言えばアレンジします、自己流に。ここに自分のセンスやなんかが出てくるわけですね。
そこが「コッチのほうがカッコいい」「いやさっきのほうがポイ」と楽しいポイントです。
んで、どこにも書いてないんで書いておきます。
東京事変「群青日和」のテンポ(BPM)は曲中で変化しています!!(声大)
出だしのアカペラっぽいトコは除くとして、1番Aメロ辺りはBPM170、曲終わり辺りはBPM190以上まで上がります。
「どうも後半追いつかないな」と思う諸君!テンポ自体が速くなってるぞ!つうかコレドコにも書いてないってどういう事だよ!!
ちなみに「速くなる」は全然悪いとかヘタとかじゃないです。
逆に「ああ、これ全員でせーの!で録ったのかなぁ」と気付かされました。
ロボットを作るときには動きをロボットに記憶させます。これを一般的に「ティーチング」とか「モーション付け」とか言います。
各社それぞれいろいろな方法で記憶させ、またそれを再生する仕組みを使います。
一般的には照明関係のコントロール規格(DMX)や楽器関係のコントロール規格(MIDI)を流用することがおおいのかな、と思います。(造形界の話ね)
ウチの場合は三菱のシーケンサに自前ソフトで作ったデータを流し込む方式を取っています。ちょっと前まではシーケンサにスイッチをたくさんつなげてそれをリアルタイム取り込みしていました。
いまはコレです。
24チャンネル、1/10秒単位で録画再生します。シーケンサにも依りますが、ウチでよく使ってるFx3Gシリーズ(にウチで作ったシーケンスを入れたもの)なら20分位まで動作を入れておけます。
値段と能力を考えると今現在はコレがベストと判断しています。
安定性はぶっちぎりです。「壊れた」なんて見たことありません。
PCからシーケンサへのデータの受け渡しは全てRS-232Cを介して行います。(データの変換とかは要らない)
ロボットのメンテナンス時にはテスト用コントローラとして使えます。
画面上のボタンはタッチパネル機なら直接押せるので、PCに詳しくない作業員でも扱えていますし、汚れた手でもあまり気になりません(フィルム貼ってるので)
一時はArduinoベースで開発しようかとも思いましたが、とりあえず今は用が足りています。
データが細かいセンサを扱う時(3次元ジャイロとか)アナログ的な出力(PWMとか)が必要なときだけ、Arduinoと連携させています。
そのうちもっと多段、もっと高精度な仕事が増えたら専用基板でも開発…いやしないかなw
次に移行するとしたらDMXですね。DMX512ベースで出力基板だけ作ると思います。
独自要素はできるだけ排除するのがウチのスタンスです。
今回は
東京事変「群青日和」のテンポ(BPM)は曲中で速くなっています!!(声大)
が書きたかっただけでティーチングの話はおまけですw