偶然在网上看到了一个让我很感兴趣的项目 Magenta,用Tensorflow让神经网络自动创造音乐。
白话就是:可以用一些音乐的风格来制作模型,然后用训练出的模型对新的音乐进行加工从而创造出新的音乐。
花了半天时间捣鼓终于有了成果,挺开心的,同时也把这半天的经验拿来分享,能让大家节约一些时间也算是我对社会做出的一点贡献吧。
再次感受 Google 的黑科技
希望大家能喜欢我的Chinglish
--第一步,安装,工具准备!--
操作系统:请放弃 windows 吧,选择linux 或者 Unix
想在windows上直接运行现在真的是毫无办法,刚开始想尝试新技术,应用容器——docker,不过没有windows 专业版的 hyperV,无法成功安装docker。
在linux上安装
1. 基本编程环境
python 2.7 / 3.* 都可以使用 TensorFlow 的 API
Java 环境:JDK
可以用 apt-get 安装
顺便把java添加到环境中吧,linux 中修改 bashrc. 路径PATH="$PATH:$HOME/bin"
这部分我就不赘述,反正你要这都不会百度基本上就告别编程了。
2. Project Magenta
3. TensorFlow 的安装
本团员是这样做的:
$ sudo apt-get install python-pip python-dev
$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.9.0-cp27-none-linux_x86_64.whl
你可能会在这个过程遇到版本依赖问题,可以尝试参考下面做法:
sudo aptitude install python-dev
4. 安装bazel
选择合适版本
面对新鲜事物,请听亲生父母的,请一定看官方文档:http://www.bazel.io/docs/install.html
注:linux download 的时候可以使用 wget
--第二步:开始创作!--
命令可以保存为 bash 格式方便以后使用,我是分四个步骤,编了4个批处理文件,
请一定注意修改路径
// 中途需要从github下载一些东西,不造是什么,所以请保持网络畅通
1. 第一个bash:创建旋律数据库
#!/bin/bash##创建旋律数据库MIDI_DIRECTORY=/home/liukun/TensorFlow/magenta/music/train #这里换成你的文件路径就行了SEQUENCES_TFRECORD=/home/liukun/TensorFlow/magenta/music/train/notesequences.tfrecordbazel run //magenta/scripts:convert_midi_dir_to_note_sequences -- \--midi_dir=$MIDI_DIRECTORY \--output_file=$SEQUENCES_TFRECORD \--recursive
2. 第二个bash:提取出训练样本
# TFRecord file containing NoteSequence protocol buffers from convert_midi_dir_to_note_sequences.py.SEQUENCES_TFRECORD=/home/liukun/TensorFlow/magenta/music/train/notesequences.tfrecord# TFRecord file that TensorFlow's SequenceExample protos will be written to. This is the training dataset.TRAIN_DATA=/home/liukun/TensorFlow/magenta/music/train/training_melodies.tfrecord# Optional evaluation dataset. Also, a TFRecord file containing SequenceExample protos.EVAL_DATA=/home/liukun/TensorFlow/magenta/music/eval_melodies.tfrecord# Fraction of input data that will be written to the eval dataset (if eval_output flag is set).EVAL_RATIO=0.10bazel run //magenta/models/basic_rnn:basic_rnn_create_dataset -- \--input=$SEQUENCES_TFRECORD \--train_output=$TRAIN_DATA \--eval_output=$EVAL_DATA \--eval_ratio=$EVAL_RATIO
遇到的问题:本地github保存的账号可能会因为与远程github账号不同而出现错误,我root账户绑定了github用户,哪曾想到今天.....所以不用sudo了
3. 第三个bash : 训练神经网络模型, 最耗费时间!!!
#首先compile basic_rnn工具bazel build //magenta/models/basic_rnn:basic_rnn_trainTRAIN_DATA=/home/liukun/TensorFlow/magenta/music/train/training_melodies.tfrecord#训练模型,其中“rnn_layer_size”是神经网络的层数,可以自定义/home/liukun/TensorFlow/magenta/bazel-bin/magenta/models/basic_rnn/basic_rnn_train --experiment_run_dir=/home/liukun/TensorFlow/magenta/music --sequence_example_file=$TRAIN_DATA --eval=false --hparams='{"rnn_layer_sizes":[30]}' --num_training_steps=2000
我为了节省时间,只训练了2000遍,所以......
4. 第四个bash:生成新的的旋律!
##生成旋律#指定测试旋律的文件地址PRIMER_PATH=/home/liukun/TensorFlow/magenta/music/origional/Canon.mid#注意这里是绝对地址,只能指定一首歌# num_outputs 指定生成曲目数量bazel run //magenta/models/basic_rnn:basic_rnn_generate -- \--experiment_run_dir=/home/liukun/TensorFlow/magenta/magenta/models \--hparams='{"rnn_layer_sizes":[30]}' \--primer_midi=$PRIMER_PATH \--output_dir=/home/liukun/TensorFlow/magenta/music/generate \--num_steps=64 \--num_outputs=3
等待显得那么漫长。
程序执行结束,我按耐不住一颗好奇之心,满怀期待地打开刚刚诞生于这个世界的新艺术,泪目,这融合了21世纪最前沿技术的新作
旋律奏响,真TM......不好听。
老司机留话:
主要需要修改的就是文件的路径了。
我的思路使用一些风格突出的歌曲作为训练集,然后对简单的旋律进行加工,这样应该更能体现效果。
提醒:文件路径要使用绝对路径,虽然不知道问什么,但不这样就会出错,提示权限问题。
关于这个项目的Google讨论小组:
https://groups.google.com/a/tensorflow.org/forum/#!forum/magenta-discuss
最后祝大家假期愉快!
5555半天没刷题了~~~~
转载请注意排版,别搞得难看的一比!!!
项目文件目录树供参考:
.
├── bazel installer
│ ├── bazel
│ └── bazel-0.3.0-installer-linux-x86_64.sh
├── magenta
│ ├── 1.sh
│ ├── 1.sh~
│ ├── 2.sh
│ ├── 2.sh~
│ ├── 3.sh
│ ├── 3.sh~
│ ├── 4.sh
│ ├── 4.sh~
│ ├── bazel-bin -> /home/liukun/.cache/bazel/_bazel_liukun/ebbbbefb206fd0a3aa08c53b60fb3fee/execroot/magenta/bazel-out/local-opt/bin
│ ├── bazel-genfiles -> /home/liukun/.cache/bazel/_bazel_liukun/ebbbbefb206fd0a3aa08c53b60fb3fee/execroot/magenta/bazel-out/local-opt/genfiles
│ ├── bazel-magenta -> /home/liukun/.cache/bazel/_bazel_liukun/ebbbbefb206fd0a3aa08c53b60fb3fee/execroot/magenta
│ ├── bazel-out -> /home/liukun/.cache/bazel/_bazel_liukun/ebbbbefb206fd0a3aa08c53b60fb3fee/execroot/magenta/bazel-out
│ ├── bazel-testlogs -> /home/liukun/.cache/bazel/_bazel_liukun/ebbbbefb206fd0a3aa08c53b60fb3fee/execroot/magenta/bazel-out/local-opt/testlogs
│ ├── __init__.py
│ ├── LICENSE
│ ├── magenta
│ │ ├── 1.sh
│ │ ├── 2.sh~
│ │ ├── BUILD
│ │ ├── __init__.py
│ │ ├── __init__.pyc
│ │ ├── lib
│ │ │ ├── BUILD
│ │ │ ├── __init__.py
│ │ │ ├── __init__.pyc
│ │ │ ├── melodies_lib.py
│ │ │ ├── melodies_lib_test.py
│ │ │ ├── midi_io.py
│ │ │ ├── midi_io.pyc
│ │ │ ├── midi_io_test.py
│ │ │ ├── note_sequence_io.py
│ │ │ ├── note_sequence_io_test.py
│ │ │ ├── sequence_example_lib.py
│ │ │ ├── sequence_to_melodies.py
│ │ │ ├── sequence_to_melodies_test.py
│ │ │ └── tf_lib.py
│ │ ├── models
│ │ │ ├── attention_rnn
│ │ │ │ ├── attention_rnn_create_dataset.py
│ │ │ │ ├── attention_rnn_encoder_decoder.py
│ │ │ │ ├── attention_rnn_generate.py
│ │ │ │ ├── attention_rnn_graph.py
│ │ │ │ ├── attention_rnn_train.py
│ │ │ │ ├── BUILD
│ │ │ │ └── README.md
│ │ │ ├── basic_rnn
│ │ │ │ ├── basic_rnn_create_dataset.py
│ │ │ │ ├── basic_rnn_encoder_decoder.py
│ │ │ │ ├── basic_rnn_encoder_decoder.pyc
│ │ │ │ ├── basic_rnn_generate.py
│ │ │ │ ├── basic_rnn_graph.py
│ │ │ │ ├── basic_rnn_graph.pyc
│ │ │ │ ├── basic_rnn_train.py
│ │ │ │ ├── BUILD
│ │ │ │ ├── README.md
│ │ │ │ └── run_basic_rnn_train.sh
│ │ │ ├── lookback_rnn
│ │ │ │ ├── BUILD
│ │ │ │ ├── lookback_rnn_create_dataset.py
│ │ │ │ ├── lookback_rnn_encoder_decoder.py
│ │ │ │ ├── lookback_rnn_generate.py
│ │ │ │ ├── lookback_rnn_graph.py
│ │ │ │ ├── lookback_rnn_train.py
│ │ │ │ └── README.md
│ │ │ └── shared
│ │ │ ├── BUILD
│ │ │ ├── melody_rnn_create_dataset.py
│ │ │ ├── melody_rnn_generate.py
│ │ │ ├── melody_rnn_train.py
│ │ │ ├── primer.mid
│ │ │ └── README.md
│ │ ├── protobuf
│ │ │ ├── BUILD
│ │ │ └── music.proto
│ │ ├── reviews
│ │ │ ├── assets
│ │ │ │ ├── attention_interpolation.png
│ │ │ │ ├── attention_parameterization.png
│ │ │ │ ├── color-preserving-ny.jpg
│ │ │ │ ├── diagram.png
│ │ │ │ ├── generation.gif
│ │ │ │ ├── mnist_generation.png
│ │ │ │ ├── pixelrnn_figure6.png
│ │ │ │ ├── pixelrnn_full_context.png
│ │ │ │ ├── pixelrnn_masks_A.png
│ │ │ │ ├── pixelrnn_masks_B.png
│ │ │ │ ├── pixelrnn_masks_highlevel.png
│ │ │ │ ├── svhn_generation.png
│ │ │ │ └── tubingen-starry-night.jpg
│ │ │ ├── draw.md
│ │ │ ├── pixelrnn.md
│ │ │ ├── README.md
│ │ │ ├── styletransfer.md
│ │ │ └── summary_generation_sequences.md
│ │ ├── Rossini_barbe(2).mid
│ │ ├── Rossini_barbe(3).mid
│ │ ├── Rossini_barbe.mid
│ │ ├── scripts
│ │ │ ├── BUILD
│ │ │ ├── convert_midi_dir_to_note_sequences.py
│ │ │ └── convert_midi_dir_to_note_sequences_test.py
│ │ └── testdata
│ │ ├── BUILD
│ │ ├── example_complex.mid
│ │ ├── example.mid
│ │ └── notesequences.tfrecord
│ ├── music
│ │ ├── eval_melodies.tfrecord
│ │ ├── generate
│ │ │ ├── 2016-07-16_224233_1.mid
│ │ │ ├── 2016-07-16_224233_2.mid
│ │ │ └── 2016-07-16_224233_3.mid
│ │ ├── origional
│ │ │ └── Canon.mid
│ │ └── train
│ │ ├── basket.mid
│ │ ├── detective.mid
│ │ ├── notesequences.tfrecord
│ │ └── training_melodies.tfrecord
│ ├── pretty_midi.BUILD
│ ├── python_midi.BUILD
│ ├── README.md
│ ├── six.BUILD
│ ├── tools
│ │ └── bazel.rc
│ ├── util
│ │ └── python
│ │ └── BUILD
│ ├── WORKSPACE
│ └── WORKSPACE~