|
hace 1 año | |
---|---|---|
05_1543348250-660x320.jpg | hace 1 año | |
LICENSE | hace 1 año | |
README.md | hace 1 año | |
acc-unnorm-cocowm-11epochs.png | hace 1 año | |
acc_whitewm_norm100epochs.png | hace 1 año | |
keras-2.15.0-python-3.11.5.png | hace 1 año | |
mcc.JPG | hace 1 año | |
mtx.JPG | hace 1 año | |
pretrainedklaas.ipynb | hace 1 año | |
Снимок экрана_2024-03-24_09-48-17.png | hace 1 año |
Оптимизатор Adam: достаточно упомянуть, что это более сложный оптимизатор, в котором скорость обучения задается адаптивно. Кроме того, он намного менее чувствителен к масштабу параметров — настолько нечувствителен, что мы можем снова воспользоваться исходным (ненормализованным) входным сигналом t_u и даже увеличить скорость обучения до 1e-1, и Adam даже глазом не моргнет PyTorch. Освещая глубокое обучение (стр 179,186)