线性回归
#建立模型结构 model = tf.keras.Sequential() #添加层,第一个参数是输出神经元个数,第二个参数表示(输入特征,输入训练数量) model.add(tf.keras.layers.Dense(1,input_shape=(1,))) #查看网络层结构 model.summary()
#编译,参数分别是优化方法,损失函数 model.compile(optimizer='adam',loss='mse')
#训练,传入数据以及训练次数 history = model.fit(x,y,epochs=5000)
逻辑回归
#建立模型结构 model = tf.keras.Sequential() #添加层,第一个参数是输出神经元个数,第二个参数表示(输入特征,输入训练数量) #以及激活函数 model.add(tf.keras.layers.Dense(4,input_shape=(15,),activation='relu')) #中间层不需要设置输入shape model.add(tf.keras.layers.Dense(4,activation='relu')) #最后一层激活函数用二分类sigmoid model.add(tf.keras.layers.Dense(1,activation='sigmoid')) #查看网络层结构 model.summary()
#编译,设置优化方法、损失函数,metrics表示训练时输出参考准曲率等 model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['acc'])