Gradienten
YOUR LINK HERE:
http://youtube.com/watch?v=uXRYE-Mcg_Q
Ein Gradient ist ein Vektor in Richtung des größten Anstiegs einer Funktion. Das Video erklärt, wie man das ausrechnet und zeigt anschaulich, warum der berechnete Vektor auch tatsächlich die gewünschte Eigenschaft hat. Gradienten spielen eine wichtige Rolle bei Optimierungsverfahren ( Gradientenmethode ), z.B. beim Trainieren neuronaler Netze ( gradient descent -Methode). • 0:00 Einleitung • 1:34 Gradient einer linearen Funktion • 6:08 Richtung des stärksten Anstiegs • 11:38 Beweis mit Vektoren • 15:43 Eigenschaften des Gradienten • 19:26 1, 2 und n-dimensional • 29:10 Gradient bei _nicht_-linearen Funktionen • 37:08 partielle Ableitungen • 42:04 Optimierung • 46:07 Beispiel: Training neuronaler Netze • 49:36 Plateaus vermeiden
#############################
