Optimierung Adam Optimizer Populärer Optimierungsalgorithmus für neuronale Netze, kombiniert Momentum und AdaGrad. Algorithm Training