Я немного играю с Keras и думаю о том, в чем разница между линейным слоем активации и отсутствием слоя активации вообще? Разве у него не такое же поведение? Если да, то какой смысл в линейной активации?
Я имею в виду разницу между этими двумя фрагментами кода:
model.add(Dense(1500))
model.add(Activation('linear'))
model.add(Dense(1500))
и
model.add(Dense(1500))
model.add(Dense(1500))