
Il Gradiente Stocastico Discendente è un algoritmo di ottimizzazione dell'apprendimento automatico in grado di aggiornare i parametri di un modello linguistico utilizzando un singolo esempio di addestramento o un piccolo “mini-batch” per volta, anziché l'intero set di dati. Questo approccio è significativamente più veloce e più efficiente dal punto di vista computazionale per i set di dati di grandi dimensioni, anche se i suoi aggiornamenti “rumorosi” possono portare a un percorso di convergenza più irregolare ma potenzialmente vantaggioso, aiutando talvolta il modello a evitare minimi locali scadenti.
Stochastic Gradient Descent Algorithm With Python and NumPy
Stochastic Gradient Descent, Clearly Explained!
Add new comment