Как използването на симулирано отгряване във връзка с невронна мрежа за подаване напред е различно от простото нулиране на теглата (и поставяне на скрития слой в нова долина на грешки), когато се достигне локален минимум? Симулирано отгряване, използвано от FFNN като по-систематичен начин за преместване на тежестите, за да се намери глобален минимум, и следователно се извършва само една итерация всеки път, когато грешката при валидиране започне да се увеличава спрямо грешката при обучение ... бавно преместване на текущата позиция през функцията за грешка? В този случай симулираното отгряване е независимо от мрежата за подаване напред, а мрежата за подаване зависи от изхода на симулираното отгряване. Ако не, и симулираното отгряване е пряко зависимо от резултатите от FFNN, не виждам как треньорът за симулирано отгряване би получил тази информация по отношение на как да актуализира собствените си тегла (ако това прави смисъл). Един от примерите споменава цикъл (множество итерации), което не се вписва в първото ми предположение.
Разгледах различни примери, където се използват network.fromArray() и network.toArray(), но виждам само network.encodeToArray() и network.decodeFromArray(). Какъв е най-актуалният начин (v3.2) за прехвърляне на тегла от един тип мрежа към друг? Това същото ли е за използването на генетични алгоритми и т.н.?