Delta-Distribution

Die Delta-Distribution (auch δ-Funktion; Dirac-Funktion, -Impuls, -Puls, -Stoß (nach Paul Dirac), Stoßfunktion, Nadelimpuls, Impulsfunktion oder Einheitsimpulsfunktion genannt) als mathematischer Begriff ist eine spezielle singuläre Distribution mit kompaktem Träger. Ihr übliches Formelsymbol ist δ (kleines Delta).

Definition

Die Delta-Distribution ist eine stetige lineare Abbildung von einem Funktionenraum der Testfunktionen E {\displaystyle {\mathcal {E}}} in den zugrunde liegenden Körper K {\displaystyle \mathbb {K} } :

δ : E K , f f ( 0 ) {\displaystyle \delta \colon \,{\mathcal {E}}\to \mathbb {K} \,,\,f\mapsto f(0)} .

Der Testfunktionenraum für die Delta-Distribution ist der Raum der beliebig oft differenzierbaren Funktionen C ( Ω ) {\displaystyle C^{\infty }(\Omega )} mit Ω R n {\displaystyle \Omega \subset \mathbb {R} ^{n}} bzw. Ω C n {\displaystyle \Omega \subset \mathbb {C} ^{n}} offen und 0 Ω {\displaystyle 0\in \Omega } . Somit entspricht K {\displaystyle \mathbb {K} } entweder den reellen R {\displaystyle \mathbb {R} } oder den komplexen Zahlen C {\displaystyle \mathbb {C} } .

Die Delta-Distribution ordnet jeder beliebig oft differenzierbaren Funktion f {\displaystyle f} eine reelle bzw. komplexe Zahl δ ( f ) = f ( 0 ) {\displaystyle \delta (f)=f(0)} zu, nämlich die Auswertung der Funktion an der Stelle 0. Der Wert, den die Delta-Distribution nach Anwendung auf eine Testfunktion f E {\displaystyle f\in {\mathcal {E}}} liefert, schreibt man (mit der Notation der dualen Paarung) auch als

δ ( f ) = δ , f = f ( 0 ) {\displaystyle \delta (f)=\langle \delta ,f\rangle =f(0)}

beziehungsweise auch als

δ ( f ) = Ω δ ( x ) f ( x ) d x = f ( 0 ) . {\displaystyle \delta (f)=\int _{\Omega }\delta (x)\,f(x)\,\mathrm {d} x=f(0)\,.}

Diese Schreibweise ist eigentlich nicht richtig und nur symbolisch zu verstehen, weil die Delta-Distribution eine singuläre Distribution ist, das heißt, sie lässt sich nicht durch eine lokal integrierbare Funktion in obiger Weise darstellen. Es gibt also keine Funktion δ {\displaystyle \delta } , welche der obigen Definition genügt. Insbesondere bei technisch orientierten Anwendungen des Konzepts sind dennoch mathematisch nicht präzise Bezeichnungen wie „Delta-Funktion“, „Dirac-Funktion“ oder „Impulsfunktion“ gebräuchlich. Bei Verwendung der Integral-Schreibweise ist zu beachten, dass es sich nicht um ein Riemann-Integral oder Lebesgue-Integral bzgl. des Lebesgue-Maßes, sondern um die Auswertung des Funktionals δ {\displaystyle \delta } an der Stelle f {\displaystyle f} , also δ ( f ) = f ( 0 ) {\displaystyle \delta (f)=f(0)} , handelt.

Definition über Dirac-Maß

Das durch ein positives Radon-Maß μ {\displaystyle \mu } erzeugte Funktional μ , f = f ( x ) d μ {\displaystyle \textstyle \langle \mu ,f\rangle =\int f(x)\,\mathrm {d} \mu } (für f D {\displaystyle f\in {\mathcal {D}}} ) ist eine Distribution. Die Delta-Distribution wird von folgendem Radon-Maß – man spricht hier speziell vom Diracmaß – erzeugt:

δ ( A ) = { 1 ,    falls  0 A , 0 ,    sonst, {\displaystyle \delta (A)={\begin{cases}1,\ &{\text{ falls }}0\in A,\\0,\ &{\text{ sonst,}}\end{cases}}}

wobei A R {\displaystyle A\subseteq \mathbb {R} } . Ein Maß lässt sich physikalisch interpretieren, z. B. als Massenverteilung oder Ladungsverteilung des Raums. Dann entspricht die Delta-Distribution einem Massenpunkt der Masse 1 oder einer Punktladung der Ladung 1 im Ursprung.

δ , f = f ( x ) d δ = f ( 0 ) . {\displaystyle \langle \delta ,f\rangle =\int f(x)\,\mathrm {d} \delta =f(0).}

Befinden sich an den Stellen x i R {\displaystyle x_{i}\in \mathbb {R} } Punktladungen q i {\displaystyle q_{i}} , wobei die Summe über alle Ladungen endlich bleibt, dann wird für A R {\displaystyle A\subset \mathbb {R} } ein Maß auf der σ {\displaystyle \sigma } -Algebra aller Teilmengen von R {\displaystyle \mathbb {R} } definiert, das der Ladungsverteilung entspricht ( i A {\displaystyle i_{A}} durchlaufe alle i {\displaystyle i} mit x i A {\displaystyle x_{i}\in A} ):

ρ ( A ) := i A q i . {\displaystyle \rho (A):=\sum _{i_{A}}q_{i}.}

Für dieses Maß ist dann die zugehörige Distribution:

ρ , f = f ( x ) d ρ = i A f ( x i ) q i . {\displaystyle \langle \rho ,f\rangle =\int f(x)\,\mathrm {d} \rho =\sum _{i_{A}}f(x_{i})q_{i}.}

Approximation der Delta-Distribution

Dichte einer zentrierten Normalverteilung δ a ( x ) = 1 π a e x 2 a 2 {\displaystyle \delta _{a}(x)={\tfrac {1}{{\sqrt {\pi }}a}}\cdot \mathrm {e} ^{-{\frac {x^{2}}{a^{2}}}}} .
Für a 0 {\displaystyle a\to 0} wird die Funktion immer höher und schmaler, der Flächeninhalt bleibt jedoch unverändert 1.

Man kann die Delta-Distribution wie alle anderen Distributionen auch als Grenzwert einer Funktionenfolge darstellen. Die Menge der Dirac-Folgen ist die wichtigste Klasse von Funktionenfolgen, mit denen die Delta-Distribution dargestellt werden kann. Jedoch gibt es noch weitere Folgen, die gegen die Delta-Distribution konvergieren.

Dirac-Folge

Eine Folge ( δ k ) k N {\displaystyle (\delta _{k})_{k\in \mathbb {N} }} integrierbarer Funktionen δ k L 1 ( R n ) {\displaystyle \delta _{k}\in L^{1}(\mathbb {R} ^{n})} wird Dirac-Folge genannt, falls

  1. für alle x R n {\displaystyle x\in \mathbb {R} ^{n}} und alle k N {\displaystyle k\in \mathbb {N} } die Bedingung δ k ( x ) 0 , {\displaystyle \delta _{k}(x)\geq 0\,,}
  2. für alle k N {\displaystyle k\in \mathbb {N} } die Identität R n δ k ( x ) d x = 1 {\displaystyle \int _{\mathbb {R} ^{n}}\delta _{k}(x)\,\mathrm {d} x=1} und
  3. für alle ϵ > 0 {\displaystyle \epsilon >0} die Gleichheit lim k R n B ϵ ( 0 ) δ k ( x ) d x = 0 {\displaystyle \lim _{k\to \infty }\int _{\mathbb {R} ^{n}\setminus B_{\epsilon }(0)}\delta _{k}(x)\mathrm {d} x=0}

gilt. Manchmal versteht man unter einer Dirac-Folge auch nur einen Spezialfall der hier definierten Dirac-Folge. Wählt man nämlich eine Funktion ϕ L 1 ( R n ) {\displaystyle \phi \in L^{1}(\mathbb {R} ^{n})} mit ϕ ( x ) 0 {\displaystyle \phi (x)\geq 0} für alle x R n {\displaystyle x\in \mathbb {R} ^{n}} und R n ϕ ( x ) d x = 1 {\displaystyle \textstyle \int _{\mathbb {R} ^{n}}\phi (x)\mathrm {d} x=1} und setzt δ ϵ ( x ) := ϵ n ϕ ( x ϵ ) {\displaystyle \delta _{\epsilon }(x):=\epsilon ^{-n}\phi ({\tfrac {x}{\epsilon }})} für ϵ > 0 {\displaystyle \epsilon >0} , dann erfüllt diese Funktionenschar die Eigenschaften 1 und 2. Betrachtet man den Grenzwert ϵ 0 {\displaystyle \epsilon \to 0} anstatt k {\displaystyle k\to \infty } , so ist auch Eigenschaft 3 erfüllt. Daher nennt man die Funktionenschar δ ϵ {\displaystyle \delta _{\epsilon }} ebenfalls Dirac-Folge.[1]

Bemerkungen

Die Funktion δ k {\displaystyle \delta _{k}} kann man nun mit einer regulären Distribution

δ k ( f ) := δ k , f := R n δ k ( x ) f ( x ) d x {\displaystyle \delta _{k}(f):=\langle \delta _{k},f\rangle :=\int _{\mathbb {R} ^{n}}\delta _{k}(x)\,f(x)\,\mathrm {d} x}

identifizieren. Nur im Limes k {\displaystyle k\to \infty } erhält man das ungewöhnliche Verhalten der Delta-Distribution

lim k δ k ( f ) = lim k δ k , f = f ( 0 ) = δ , f {\displaystyle \lim _{k\to \infty }\delta _{k}(f)=\lim _{k\to \infty }\langle \delta _{k},f\rangle =f(0)=\langle \delta ,f\rangle }

wobei zu beachten ist, dass die Limes-Bildung nicht unter dem Integral, sondern davor erfolgt. Würde man den Limes unter das Integral ziehen, so wäre δ ϵ {\displaystyle \delta _{\epsilon }} fast überall Null, nur nicht bei x = 0 {\displaystyle x=0} . Ein einzelner Punkt hat jedoch das Lebesgue-Maß Null und das ganze Integral würde verschwinden.

Anschaulich stellt man sich die Delta-Distribution als eine beliebig hohe und beliebig schmale Funktion vor, die über der x-Achse eine Fläche mit Größe 1 Flächeneinheit einschließt. Man lässt nun die Funktion immer schmaler und dafür immer höher werden – die Fläche darunter muss konstant 1 bleiben. Es existieren auch mehrdimensionale Dirac-Distributionen, diese werden anschaulich zu mehrdimensionalen „Keulen“ mit dem Volumen 1.

Beispiele für Dirac-Folgen

Im Folgenden werden verschiedene Approximationen (Dirac-Folgen) δ ϵ ( x ) {\displaystyle \delta _{\epsilon }(x)} angegeben, zunächst stetig differenzierbare:

δ ϵ ( x ) = 1 2 π ϵ exp ( x 2 2 ϵ ) {\displaystyle \delta _{\epsilon }(x)={\frac {1}{\sqrt {2\pi \epsilon }}}\,\exp \left(-{\frac {x^{2}}{2\epsilon }}\right)}
Die angegebenen Funktionen besitzen ein sehr schmales und sehr hohes Maximum bei x = 0 {\displaystyle x=0} , die Breite ist etwa ϵ 0 {\displaystyle {\sqrt {\epsilon }}\to 0} und die Höhe etwa 1 / ϵ {\displaystyle 1/{\sqrt {\epsilon }}\to \infty } . Für alle ϵ {\displaystyle \epsilon } ist der Flächeninhalt unter der Funktion 1.
δ ϵ ( x ) = 1 π ϵ x 2 + ϵ 2 {\displaystyle \delta _{\epsilon }(x)={\frac {1}{\pi }}{\frac {\epsilon }{x^{2}+\epsilon ^{2}}}}
δ ϵ ( x ) = 1 i π ϵ exp ( i x 2 ϵ ) {\displaystyle \delta _{\epsilon }(x)={\frac {1}{\sqrt {\mathrm {i} \pi \epsilon }}}\,\exp \left({\frac {\mathrm {i} x^{2}}{\epsilon }}\right)}
die man sich vorstellen kann als eine Linie, die auf einen Zylinder gewickelt ist, und deren Wicklungen durch das x 2 {\displaystyle x^{2}} immer enger werden; die Grundfläche (in x {\displaystyle x} - y {\displaystyle y} -Ausrichtung) des Zylinders wird aus dem Imaginär- und Realteil der Funktion gebildet, die Funktion entwickelt sich dann in z {\displaystyle z} -Richtung.

Es sind aber auch Approximationen möglich, die nur stückweise stetig differenzierbar sind:

δ ϵ ( x ) = rect ( x / ϵ ) ϵ = { 1 ϵ   | x | ϵ 2 0   sonst {\displaystyle \delta _{\epsilon }(x)={\frac {\operatorname {rect} (x/\epsilon )}{\epsilon }}={\begin{cases}{\frac {1}{\epsilon }}&\ |x|\leq {\frac {\epsilon }{2}}\\0&\ {\text{sonst}}\end{cases}}}
δ ϵ ( x ) = { ϵ + x ϵ 2   ϵ x 0 ϵ x ϵ 2   0 < x ϵ 0   sonst {\displaystyle \delta _{\epsilon }(x)={\begin{cases}{\frac {\epsilon +x}{\epsilon ^{2}}}&\ -\epsilon \leq x\leq 0\\{\frac {\epsilon -x}{\epsilon ^{2}}}&\ 0<x\leq \epsilon \\0&\ {\text{sonst}}\end{cases}}}
δ ϵ ( x ) = 1 2 ϵ exp ( | x | ϵ ) {\displaystyle \delta _{\epsilon }(x)={\frac {1}{2\epsilon }}\exp \left(-{\frac {|x|}{\epsilon }}\right)}

Weitere Beispiele

Approximation durch die Sincfunktion
δ ϵ ( x ) = 1 π x sin ( x ϵ ) {\displaystyle \delta _{\epsilon }(x)={\frac {1}{\pi x}}\sin \left({\frac {x}{\epsilon }}\right)}
ist keine Dirac-Folge, da ihre Folgenglieder auch negative Werte annehmen. Betrachtet man allerdings den Ausdruck
lim ϵ 0 1 π x sin ( x ϵ ) ϕ ( x ) d x {\displaystyle \lim _{\epsilon \to 0}\int _{-\infty }^{\infty }{\frac {1}{\pi x}}\sin \left({\frac {x}{\epsilon }}\right)\phi (x)\mathrm {d} x}
so konvergiert für alle ϕ D {\displaystyle \phi \in {\mathcal {D}}} diese Folge im distributionellen Sinn gegen die Delta-Distribution.

Eigenschaften

  • Definierende Eigenschaft der Delta-Distribution: Faltungseigenschaft, auch Ausblendeigenschaft[2], Siebeigenschaft genannt
δ , f = δ ( x ) f ( x ) d x = f ( 0 ) {\displaystyle \langle \delta ,f\rangle =\int _{-\infty }^{\infty }\delta (x)\,f(x)\,\mathrm {d} x=f(0)}
bzw. mit den Eigenschaften Translation und Skalierung (siehe unten) folgt:
f ( x ) δ ( x a ) d x = f ( x ) δ ( a x ) d x = f ( a ) , {\displaystyle \int _{-\infty }^{\infty }f(x)\,\delta (x-a)\,\mathrm {d} x=\int _{-\infty }^{\infty }f(x)\,\delta (a-x)\,\mathrm {d} x=f(a),}
speziell für den Fall der konstanten Funktion 1:
δ ( x a ) d x = 1 {\displaystyle \int _{-\infty }^{\infty }\delta (x-a)\,\mathrm {d} x=1}
  • Linearität:
δ , f + g = δ , f + δ , g = f ( 0 ) + g ( 0 ) {\displaystyle \langle \delta ,f+g\rangle =\langle \delta ,f\rangle +\langle \delta ,g\rangle =f(0)+g(0)}
  • Translation:
δ ( a ) , f = δ , f ( + a ) = f ( a ) {\displaystyle \langle \delta (\cdot -a),f\rangle =\langle \delta ,f(\cdot +a)\rangle =f(a)}
für δ ( a ) {\displaystyle \delta (\cdot -a)} ist auch die Bezeichnung δ a {\displaystyle \delta _{a}} gebräuchlich.
  • Skalierung:
δ ( a ) , f = 1 | a | δ , f ( a ) = 1 | a | f ( 0 ) {\displaystyle \langle \delta (a\cdot ),f\rangle ={\frac {1}{|a|}}\langle \delta ,f({\tfrac {\cdot }{a}})\rangle ={\frac {1}{|a|}}f(0)}
und
δ ( α x ) = 1 | α | δ ( x ) {\displaystyle \delta (\alpha x)={\frac {1}{|\alpha |}}\delta (x)}
das heißt die Delta-Distribution ist positiv homogen vom Grad −1.
  • Dimension
Eine direkte Folgerung aus der Skalierungseigenschaft ist die Dimension bzw. Maßeinheit der Delta-Distribution. Sie entspricht genau der reziproken Dimension ihres Arguments. Hat x {\displaystyle x} beispielsweise die Dimension einer Länge, so hat δ ( x ) {\displaystyle \delta (x)} die Dimension (1/Länge).
  • Hintereinanderausführung:
ϕ ( x ) δ ( g ( x ) ) d x = i = 1 n ϕ ( x ) δ ( x x i ) | g ( x i ) | d x = i = 1 n ϕ ( x i ) | g ( x i ) | , {\displaystyle \int _{-\infty }^{\infty }\phi (x)\,\delta (g(x))\,\mathrm {d} x=\sum _{i=1}^{n}\int _{-\infty }^{\infty }\phi (x){\frac {\delta (x-x_{i})}{|g'(x_{i})|}}\,\mathrm {d} x=\sum _{i=1}^{n}{\frac {\phi (x_{i})}{|g'(x_{i})|}},}
δ ( g ( x ) ) = i = 1 n δ ( x x i ) | g ( x i ) | {\displaystyle \delta (g(x))=\sum _{i=1}^{n}{\frac {\delta (x-x_{i})}{|g^{\prime }(x_{i})|}}}
wobei x i {\displaystyle x_{i}} die einfachen Nullstellen von g ( x ) {\displaystyle g(x)} sind (sofern g ( x ) {\displaystyle g(x)} nur endlich viele und nur einfache Nullstellen hat). Damit folgt als ein Spezialfall die Rechenregel
δ ( x 2 α 2 ) = 1 2 | α | [ δ ( x α ) + δ ( x + α ) ] . {\displaystyle \delta (x^{2}-\alpha ^{2})={\frac {1}{2|\alpha |}}[\delta (x-\alpha )+\delta (x+\alpha )].}

Singularität

Die Singularität der Delta-Distribution lässt sich mit einem Widerspruchsbeweis zeigen:

Angenommen δ {\displaystyle \delta } wäre regulär, dann gäbe es eine lokal integrierbare Funktion δ ( x ) L lok 1 {\displaystyle \delta (x)\in L_{\text{lok}}^{1}} , also eine Funktion, die über jedes kompakte Intervall [ a , b ] {\displaystyle [a,b]} bzgl. des Lebesgue-Maßes integrierbar ist

a b | δ ( x ) | d x < {\displaystyle \int _{a}^{b}|\delta (x)|\mathrm {d} x<\infty }

so dass für alle Testfunktionen f ( x ) {\displaystyle f(x)} gilt:

δ , f = δ ( x ) f ( x ) d x = f ( 0 ) . {\displaystyle \langle \delta ,f\rangle =\int _{-\infty }^{\infty }\delta (x)\,f(x)\,\mathrm {d} x=f(0).}

Insbesondere muss dies für folgende Testfunktion ϕ b ( x ) {\displaystyle \phi _{b}(x)} mit kompaktem Träger [ b , b ] {\displaystyle [-b,b]} gelten:

ϕ b ( x ) = { exp ( b 2 x 2 b 2 ) | x | < b 0 | x | b . {\displaystyle \phi _{b}(x)={\begin{cases}\exp {\Big (}{\frac {b^{2}}{x^{2}-b^{2}}}{\Big )}&|x|<b\\0&|x|\geq b.\end{cases}}}

Die Wirkung der Delta-Distribution auf diese ist:

δ , ϕ b = ϕ b ( 0 ) = exp ( 1 ) = c o n s t b . {\displaystyle \langle \delta ,\phi _{b}\rangle =\phi _{b}(0)=\exp(-1)=\mathrm {const} _{\,b}.}

Mit der angenommenen regulären Distribution

δ , ϕ b = δ ( x ) ϕ b ( x ) d x = b b δ ( x ) ϕ b ( x ) d x {\displaystyle \langle \delta ,\phi _{b}\rangle =\int _{-\infty }^{\infty }\delta (x)\,\phi _{b}(x)\,\mathrm {d} x=\int _{-b}^{b}\delta (x)\,\phi _{b}(x)\,\mathrm {d} x}

lässt sich folgende Abschätzung durchführen:

ϕ b ( 0 ) = | δ , ϕ b | = | b b δ ( x ) ϕ b ( x ) d x | ϕ b ( x ) ϕ b ( 0 ) b b | δ ( x ) | d x < ( b < b c ) ϕ b ( 0 ) . {\displaystyle \phi _{b}(0)=|\langle \delta ,\phi _{b}\rangle |=\left|\int _{-b}^{b}\delta (x)\,\phi _{b}(x)\,\mathrm {d} x\right|\leq \underbrace {\|\phi _{b}(x)\|_{\infty }} _{\phi _{b}(0)}\,\int _{-b}^{b}|\delta (x)|\,\mathrm {d} x{\underset {(b<b_{c})}{<}}\phi _{b}(0).}

Weil δ ( x ) L l o k 1 {\displaystyle \delta (x)\in L_{lok}^{1}} wird das Integral b b | δ ( x ) | d x {\displaystyle \textstyle \int _{-b}^{b}|\delta (x)|\,\mathrm {d} x} für b < b c {\displaystyle b<b_{c}} (wobei b c {\displaystyle b_{c}} ein von der Funktion δ ( x ) {\displaystyle \delta (x)} abhängiger kritischer Wert ist) kleiner 1 (und konvergiert gegen 0 für b {\displaystyle b} gegen 0). Man erhält ϕ b ( 0 ) < ϕ b ( 0 ) {\displaystyle \phi _{b}(0)<\phi _{b}(0)} , also einen Widerspruch; somit ist die Delta-Distribution nicht durch eine lokal integrierbare Funktion darstellbar. Der Widerspruch ergibt sich, weil die Menge {0} für das Lebesgue-Maß vernachlässigbar ist, nicht aber für das Dirac-Maß.

Ableitungen

Ableitung der Delta-Distribution

Die Delta-Distribution kann wie jede Distribution beliebig oft distributiv differenziert werden:

δ , f = δ , f = f ( 0 ) . {\displaystyle \langle \delta ',f\rangle =-\langle \delta ,f'\rangle =-f'(0).}

Dies gilt auch für die n {\displaystyle n} -te distributive Ableitung:

δ ( n ) , f = ( 1 ) n δ , f ( n ) = ( 1 ) n f ( n ) ( 0 ) . {\displaystyle \langle \delta ^{(n)},f\rangle =(-1)^{n}\langle \delta ,f^{(n)}\rangle =(-1)^{n}f^{(n)}(0).}

Ableitung der Dirac-Folge

Die Ableitungen der regulären Distributionen δ ϵ {\displaystyle \delta _{\epsilon }} können mittels partieller Integration berechnet werden (hier exemplarisch für erste Ableitung, analog für höhere)

δ ϵ , f = δ ϵ ( x ) f ( x ) d x = [ δ ϵ ( x ) f ( x ) ] = 0 δ ϵ ( x ) f ( x ) d x = δ ϵ ( x ) f ( x ) d x = δ ϵ , f {\displaystyle {\begin{aligned}\langle \delta _{\epsilon }^{\prime },f\rangle &=\int _{-\infty }^{\infty }\delta _{\epsilon }^{\prime }(x)\,f(x)\,\mathrm {d} x\\&=\underbrace {\left[\delta _{\epsilon }(x)\,f(x)\right]_{-\infty }^{\infty }} _{=0}-\int _{-\infty }^{\infty }\delta _{\epsilon }(x)\,f^{\prime }(x)\,\mathrm {d} x\\&=-\int _{-\infty }^{\infty }\delta _{\epsilon }(x)\,f^{\prime }(x)\,\mathrm {d} x\\&=-\langle \delta _{\epsilon },f^{\prime }\rangle \end{aligned}}}

und ergeben im Limes ϵ 0 {\displaystyle \epsilon \to 0} das Verhalten der distributiven Ableitung:

lim ϵ 0 δ ϵ , f = f ( 0 ) = δ , f . {\displaystyle \lim _{\epsilon \to 0}\langle \delta _{\epsilon }^{\prime },f\rangle =-f^{\prime }(0)=\langle \delta ^{\prime },f\rangle .}

Ableitung der Heaviside-Distribution

Die Heaviside-Funktion Θ ( x ) {\displaystyle \Theta (x)} ist nicht stetig differenzierbar, aber die distributive Ableitung existiert, diese ist nämlich die Delta-Distribution:

Θ , f = Θ , f = Θ ( x ) f ( x ) d x = 0 f ( x ) d x = f ( ) = 0 + f ( 0 ) = δ , f . {\displaystyle \langle \Theta ',f\rangle =-\langle \Theta ,f'\rangle =-\int _{-\infty }^{\infty }\Theta (x)\,f'(x)\,\mathrm {d} x=-\int _{0}^{\infty }f'(x)\,\mathrm {d} x=-\underbrace {f(\infty )} _{=0}+f(0)=\langle \delta ,f\rangle .}

Da die Heaviside-Distribution keinen kompakten Träger hat, müssen hier die Testfunktionen beliebig oft differenzierbare Funktionen mit kompaktem Träger sein f C 0 D {\displaystyle f\in C_{0}^{\infty }\cong {\mathcal {D}}} , das heißt f {\displaystyle f} muss im Unendlichen verschwinden.

Fourier-Laplace-Transformation

Da die Delta-Distribution einen kompakten Träger hat, ist es möglich, die Fourier-Laplace-Transformation dieser zu bilden. Für diese gilt

δ ^ = 1 . {\displaystyle {\hat {\delta }}=1\,.}

Fourier-Transformation

Die Fourier-Laplace-Transformation ist ein Spezialfall der Fourier-Transformation und somit gilt auch

F ( δ ) ( ϕ ) = δ ( F ( ϕ ) ) = δ ( e i x ξ ϕ ( x ) d x ) = 1 , ϕ . {\displaystyle {\mathcal {F}}(\delta )(\phi )=\delta ({\mathcal {F}}(\phi ))=\delta \left(\int _{-\infty }^{\infty }\mathrm {e} ^{-\mathrm {i} x\xi }\phi (x)\mathrm {d} x\right)=\langle 1,\phi \rangle \,.}

Es gibt auch die Konvention, den Faktor 1 2 π {\displaystyle {\tfrac {1}{\sqrt {2\pi }}}} mit der Fourier-Transformation zu multiplizieren. In dem Fall ist 1 2 π {\displaystyle {\tfrac {1}{\sqrt {2\pi }}}} ebenfalls das Ergebnis der Fourier-Transformation der Delta-Distribution. Anschaulich bedeutet das Resultat der Transformation, dass in der Delta-Distribution alle Frequenzen enthalten sind, und zwar mit gleicher Stärke. Die Darstellung δ ( x ) = F 1 ( 1 ) {\displaystyle \delta (x)={\mathcal {F}}^{-1}(1)} (beziehungsweise δ ( x ) = F 1 ( 1 2 π ) {\displaystyle \delta (x)={\mathcal {F}}^{-1}({\tfrac {1}{\sqrt {2\pi }}})} bei der anderen Konvention für den Vorfaktor) ist eine in der Physik wichtige Darstellung der Delta-Distribution.

Laplace-Transformation

Die Laplace-Transformation L {\displaystyle {\mathcal {L}}} der Delta-Distribution erhält man als Spezialfall der Fourier-Laplace-Transformation. Es gilt nämlich auch hier

L ( δ ) = 1 . {\displaystyle {\mathcal {L}}(\delta )=1\,.}

Im Gegensatz zur Fourier-Transformation gibt es hier keine anderen Konventionen.

Anmerkung bezüglich der Darstellung

Oftmals werden die Fourier beziehungsweise die Laplace-Transformation durch die gewöhnliche Integralschreibweise dargestellt. Jedoch sind diese Darstellungen

F ( δ ) ( ξ ) = e i ξ x δ ( x ) d x {\displaystyle {\mathcal {F}}(\delta )(\xi )=\int _{-\infty }^{\infty }\mathrm {e} ^{-\mathrm {i} \xi x}\,\delta (x)\,\mathrm {d} x}

für die Fourier-Transformation beziehungsweise

L ( δ ) ( ξ ) = 0 e ξ x δ ( x ) d x {\displaystyle {\mathcal {L}}(\delta )(\xi )=\int _{0}^{\infty }\mathrm {e} ^{-\xi x}\,\delta (x)\,\mathrm {d} x}

für die Laplace-Transformation nur symbolisch zu verstehen und mathematisch nicht definiert.

Transformation der verschobenen Delta-Distribution

Es ist ebenfalls möglich die Fourier-Transformation beziehungsweise die Laplace-Transformation für die um a > 0 {\displaystyle a>0} verschobene Delta-Distribution δ a {\displaystyle \delta _{a}} zu berechnen. Es gilt

F ( δ a ) = e i ξ a L ( δ a ) = e ξ a . {\displaystyle {\begin{aligned}{\mathcal {F}}(\delta _{a})&=\mathrm {e} ^{-\mathrm {i} \xi a}\\{\mathcal {L}}(\delta _{a})&=\mathrm {e} ^{-\xi a}.\end{aligned}}}

Praktische Anwendung

Praktische Bedeutung hat der Dirac-Stoß bei der Ermittlung der Impulsantwort in der Akustik (in anderen Sparten der Physik spricht man auch von einer δ {\displaystyle \delta } -Größe, wenn man meint, dass die betreffende Größe einer schmalst-möglichen Verteilung genügt). So hat jeder Raum ein eigenes Schallverhalten. Mit einem Dirac-Impuls (angenähert durch ein Klatschen mit den Händen) kann dieses Verhalten (durch Messen des „Echos“, also der Systemantwort) ermittelt werden.

Typische, technisch realisierbare Dirac-Werte:

Eine wichtige Anwendung der Delta-Distribution ist die Lösung inhomogener linearer gewöhnlicher und partieller Differentialgleichungen mit der Methode der Greenschen Funktion.

Mehrdimensionale Delta-Distribution

Definition

Im Mehrdimensionalen ist der Raum der Testfunktionen E {\displaystyle {\mathcal {E}}} gleich C ( R n ) {\displaystyle C^{\infty }(\mathbb {R} ^{n})} , der Raum der beliebig oft total differenzierbaren Funktionen f : R n R {\displaystyle f\colon \,\mathbb {R} ^{n}\to \mathbb {R} } .

Die Delta-Distribution hat auf die Testfunktion f : R n R {\displaystyle f\colon \,\mathbb {R} ^{n}\to \mathbb {R} } die folgende Wirkung:

δ : E R ,   f f ( 0 ) {\displaystyle \delta \colon \,{\mathcal {E}}\to \mathbb {R} \,,\ f\mapsto f({\vec {0}})}

In der informellen Integralschreibweise unter Verwendung von Translation und Skalierung:

f ( x ) δ ( x a ) d n x = f ( x ) δ ( a x ) d n x = f ( a ) {\displaystyle \int f({\vec {x}})\,\delta ({\vec {x}}-{\vec {a}})\,\mathrm {d} ^{n}x=\int f({\vec {x}})\,\delta ({\vec {a}}-{\vec {x}})\,\mathrm {d} ^{n}x=f({\vec {a}})} .

Eigenschaften

Die „mehrdimensionale“ Delta-Distribution lässt sich als Produkt von „eindimensionalen“ Delta-Distributionen schreiben:

δ ( x a ) = δ ( x 1 a 1 ) δ ( x 2 a 2 ) δ ( x n a n ) {\displaystyle \delta ({\vec {x}}-{\vec {a}})=\delta (x_{1}-a_{1})\,\delta (x_{2}-a_{2})\,\dots \,\delta (x_{n}-a_{n})} .

Speziell im Dreidimensionalen gibt es eine Darstellung der Delta-Distribution, die häufig in der Elektrodynamik eingesetzt wird, um Punktladungen darzustellen:

δ ( x a ) = 1 4 π Δ 1 x a 2 {\displaystyle \delta ({\vec {x}}-{\vec {a}})=-{\frac {1}{4\pi }}\Delta {\frac {1}{\|{\vec {x}}-{\vec {a}}\|_{2}}}} .

Delta-Distribution in krummlinigen Koordinatensystemen

In krummlinigen Koordinatensystemen muss die Funktionaldeterminante

d 3 r = d x   d y   d z = det ( x , y , z ) ( a , b , c )   d a   d b   d c {\displaystyle \mathrm {d} ^{3}r=\mathrm {d} x~\mathrm {d} y~\mathrm {d} z=\det {\frac {\partial (x,y,z)}{\partial (a,b,c)}}~\mathrm {d} a~\mathrm {d} b~\mathrm {d} c}

berücksichtigt werden.[3]

Der Ansatz

δ ( r r 0 ) = γ ( a , b , c )   δ ( a a 0 )   δ ( b b 0 )   δ ( c c 0 ) {\displaystyle \delta ({{\vec {r}}-{\vec {r}}_{0}})=\gamma (a,b,c)~\delta (a-a_{0})~\delta (b-b_{0})~\delta (c-c_{0})}

mit r = ( a , b , c ) {\displaystyle {\vec {r}}=(a,b,c)} und r 0 = ( a 0 , b 0 , c 0 ) {\displaystyle {\vec {r}}_{0}=(a_{0},b_{0},c_{0})} führt dabei auf die Gleichung

V δ ( r r 0 )   d 3 r = V det ( x , y , z ) ( a , b , c )   γ ( a , b , c )   δ ( a a 0 )   δ ( b b 0 )   δ ( c c 0 )   d a   d b   d c   = !   1 {\displaystyle \int _{V}\delta ({\vec {r}}-{\vec {r}}_{0})~\mathrm {d} ^{3}r=\iiint _{V}\det {\frac {\partial (x,y,z)}{\partial (a,b,c)}}~\gamma (a,b,c)~\delta (a-a_{0})~\delta (b-b_{0})~\delta (c-c_{0})~\mathrm {d} a~\mathrm {d} b~\mathrm {d} c~{\stackrel {!}{=}}~1} , falls r 0 V {\displaystyle {\vec {r}}_{0}\in V} .

Daran lässt sich ablesen, dass gelten muss

γ = ( det ( x , y , z ) ( a , b , c ) | r 0 ) 1 {\displaystyle \gamma =\left(\left.\det {\frac {\partial (x,y,z)}{\partial (a,b,c)}}\right|_{{\vec {r}}_{0}}\right)^{-1}} .

In krummlinigen Koordinatensystem muss die Delta-Distribution also mit einem Vorfaktor versehen werden, der dem Kehrwert der Funktionaldeterminante entspricht.

Beispiele

In Kugelkoordinaten mit r = ( r , θ , ϕ ) {\displaystyle {\vec {r}}=(r,\theta ,\phi )} und r 0 = ( r 0 , θ 0 , ϕ 0 ) {\displaystyle {\vec {r}}_{0}=(r_{0},\theta _{0},\phi _{0})} gilt:

δ ( r r 0 ) = 1 r 2 sin θ   δ ( r r 0 )   δ ( θ θ 0 )   δ ( ϕ ϕ 0 ) {\displaystyle \delta ({\vec {r}}-{\vec {r}}_{0})={\frac {1}{r^{2}\sin \theta }}~\delta (r-r_{0})~\delta (\theta -\theta _{0})~\delta (\phi -\phi _{0})}

In Zylinderkoordinaten mit r = ( ρ , ϕ , z ) {\displaystyle {\vec {r}}=(\rho ,\phi ,z)} und r 0 = ( ρ 0 , ϕ 0 , z 0 ) {\displaystyle {\vec {r}}_{0}=(\rho _{0},\phi _{0},z_{0})} gilt:

δ ( r r 0 ) = 1 ρ   δ ( ρ ρ 0 )   δ ( ϕ ϕ 0 )   δ ( z z 0 ) {\displaystyle \delta ({\vec {r}}-{\vec {r}}_{0})={\frac {1}{\rho }}~\delta (\rho -\rho _{0})~\delta (\phi -\phi _{0})~\delta (z-z_{0})}

Siehe auch

Literatur

  • Dieter Landers, Lothar Rogge: Nichtstandard Analysis. Springer-Verlag, Berlin u. a. 1994, ISBN 3-540-57115-9 (Springer-Lehrbuch).
  • Wolfgang Walter: Einführung in die Theorie der Distributionen. 3. vollständig überarbeitete und erweiterte Auflage. BI-Wissenschafts-Verlag, Mannheim u. a. 1994, ISBN 3-411-17023-9.
  • F. G. Friedlander: Introduction to the Theory of Distributions. With additional material by M. Joshi. 2. edition. Cambridge University Press, Cambridge u. a. 1998, ISBN 0-521-64015-6.

Weblinks

Commons: Delta-Distribution – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

  1. Hans Wilhelm Alt: Lineare Funktionalanalysis: eine anwendungsorientierte Einführung. 5. überarb. Auflage. Springer-Verlag, Berlin u. a., 2006, ISBN 3-540-34186-2, Seite 109.
  2. Rüdiger Hoffmann: Grundlagen der Frequenzanalyse. Eine Einführung für Ingenieure und Informatiker. Mit 11 Tabellen Expert Verlag, 2005, ISBN 978-3-8169-2447-0, S. 26.
  3. Wolfgang Nolting: Grundkurs Theoretische Physik 3. Elektrodynamik. Berlin, Heidelberg, New York: Springer, 2007, ISBN 978-3-540-71251-0.