Das Subdifferential ist eine Verallgemeinerung des Gradienten auf nicht differenzierbare konvexe Funktionen. Das Subdifferential spielt eine wichtige Rolle in der konvexen Analysis sowie der konvexen Optimierung.

Definition Bearbeiten

Sei   eine konvexe Funktion. Ein Vektor   heißt Subgradient von   an der Stelle  , wenn für alle   gilt[1]

 ,

wobei   das Standardskalarprodukt bezeichnet.

Das Subdifferential   ist die Menge aller Subgradienten von   im Punkt  .[2]

Existieren die folgenden Grenzwerte

 
 
so wird das Intervall   aller Subgradienten "das Subdifferential der Funktion   bei  " genannt und wird als   geschrieben.

Für eine konvexe Funktion gilt  , für eine nicht konvexe Funktion gilt dies nicht und daher ist  .

Anschauung Bearbeiten

 
Subgradienten einer konvexen Funktion

Intuitiv bedeutet diese Definition für  , dass der Graph der Funktion   überall über der Geraden   liegt, die durch den Punkt   geht und die Steigung   besitzt:

 

Da die Normalengleichung von   gerade

 

ist, ist die Normale an   also  .

Im allgemeinen Fall   liegt   über der Hyperebenen, die durch den Fußpunkt   und die Normale   gegeben ist.

Wegen des Trennungssatzes ist das Subdifferential einer stetigen konvexen Funktion überall nicht leer.

Beispiel Bearbeiten

Das Subdifferential der Funktion  ,   ist gegeben durch:

 

Eine ähnliche Eigenschaft ist bei der Lasso-Regression für die Herleitung der Soft-Threshold-Funktion wichtig.

Beschränktheit Bearbeiten

Sei   stetig und sei   beschränkt. Dann ist die Menge   beschränkt.

Beweis Bearbeiten

Sei   stetig und sei   beschränkt. Setze   wobei  . Angenommen   ist nicht beschränkt, dann gibt es für   ein   und ein   mit  . Sei  . Somit sind  . Wir erhalten die Abschätzung

 .

  ist also kein Subgradient. Das ist ein Widerspruch.

Differenzierbarkeit Bearbeiten

Ist die Funktion differenzierbar in  , so gilt:

 

Siehe [3] für einen Beweis.

Zudem gilt: Ist das Subdifferential   einelementig, so ist   an der Stelle   differenzierbar.[4]

Literatur Bearbeiten

  1. R. T. Rockafellar Convex analysis 1970., p.214
  2. R. T. Rockafellar Convex analysis 1970., p.215
  3. Yaron Singer: Advanced Optimzation. Abgerufen am 27. Januar 2022: „Proposition 4“
  4. R.T. Rockafellar: Convex Analysis. Band 28, 1970: „Theorem 25.1“