R语言ruta包允许以多种方式创建自动编码器的神经架构。
最简单的方法是使用一个整数向量来描述编码器中每个隐藏层的单元数:
library(magrittr)
library(ruta)
net <- c(1000, 100)
net %>% as_network() %>% print()
#> Network structure:
#> input
#> dense(1000 units) - linear
#> dense(100 units) - linear
#> dense(1000 units) - linear
#> dense - linear
在使用训练数据并将自动编码器转换为 Keras 模型之前,输入和输出层的大小尚未确定。
通过为每种层类型使用单独的函数,可以在每一层的输出定义激活函数:
net <-
input() +
dense(1000, "relu") +
dense(100, "tanh") +
dense(1000, "relu") +
output("sigmoid")
print(net)
#> Network structure:
#> input
#> dense(1000 units) - relu
#> dense(100 units) - tanh
#> dense(1000 units) - relu
#> dense - sigmoid
plot(net)
对于基因表达数据训练自编码器得到低维表示:
my_AE <- function(data){
library(ruta)
net <- input() +
dense(32, "relu") +
output("sigmoid")
AE <- autoencoder(network = net,
loss = "mean_squared_error")
train_auto <- train(
AE,
as.matrix(t(data_new)),
validation_data = NULL,
metrics = NULL,
epochs = 1500,
optimizer = keras::optimizer_rmsprop()
)
embedding_data <- encode(train_auto,as.matrix(t(data_new)))
return(embedding_data)
}
损失如下: