Selberg-Delange-Methode

analytische Zahlentheorie

Die Selberg-Delange-Methode ist eine Technik aus der analytischen Zahlentheorie. Sie dient dazu, die mittlere Ordnung einer zahlentheoretischen Funktion zu bestimmen. Sie ist nach Atle Selberg und Hubert Delange benannt.

Die Klassen T und P

Bearbeiten

Seien   Ist nun   eine Dirichlet-Reihe mit Konvergenzhalbebene  , so gehört diese zur Klasse  , falls die Dirichlet-Reihe

 

eine auf dem ganzen Gebiet   holomorphe Funktion darstellt und dort außerdem der Ungleichung

 

genügt. Hierbei bezeichnet   die Riemannsche Zeta-Funktion. Existiert nun eine Folge   mit   und die Reihe   gehört zur Klasse  , so liegt   per Definition sogar in der Klasse   Dann lässt sich die folgende modifizierte Funktion im Ursprung lokal als Taylor-Reihe schreiben:

 

Liegt   in der Klasse  , so gilt bereits für  :[1]

 

Hierbei hängen die positiven Konstanten   und die implizite Konstante im Landau-Symbol höchstens von der Wahl von   und   ab. Ein wichtiger Spezialfall ist  . Dann folgt  , wann immer   gilt. Dies ermöglicht es,   so zu wählen, dass der Fehlerterm minimiert wird. Etwa erreicht man mit der Wahl von   die Aussage

 

Vor- und Nachteile

Bearbeiten

Vorteile der Selberg-Delange-Methode sind die recht explizite Angabe eines Fehlerterms sowie die fehlende Notwendigkeit, dass die   stets nicht-negativ sein müssen. Jedoch kann die geforderte vertikale Abschätzung (die nicht weggelassen werden kann!) eine Hürde darstellen. Werden also weniger detaillierte Angaben über die mittlere Ordnung gebraucht, kann man auch auf Taubersätze zurückgreifen, die bereits unter deutlich schwächeren Annahmen gelten, jedoch keine Abschätzung der Fehlerterme zulassen.

Einzelnachweise

Bearbeiten
  1. Gérald Tenenbaum: Introduction to analytic and probabilistic number theory. AMS, Rhode Island 1990, S. 281.