Beweis Tausch Limes/Diff < Differentiation < Funktionen < eindimensional < reell < Analysis < Hochschule < Mathe < Vorhilfe
 
 
   | 
  
 
  
   
    
     
	  
	  
 | Aufgabe |   Prop.:
 
Sei $ [mm] f_n \in [/mm] $ C([a,b]) $ [mm] \cap [/mm] $ D((a,b)) und $ [mm] f_n [/mm] $ ' $ [mm] \in [/mm] $ C([a,b])
 
und $ [mm] f_n [/mm] $ -> f $ [mm] (n->\infty) [/mm] $ gleichmäßig
 
$ [mm] f_n' [/mm] $ -> g $ [mm] (n->\infty) [/mm] $ gleichmäßig
 
Dann ist f $ [mm] \in [/mm] $ D([a,b]) und es gilt f' = g  |  
  
Der Beweis im SKript ist mir etwas nunja suspekt ;=)
 
 
gZZ.: [mm] \forall [/mm] x [mm] \in [/mm] (a,b) [mm] \exists lim_{h->0} \frac{f(x+h)-f(x)}{h} [/mm] =g 
 
( da g stetig ist ist dann auch f in den eckpunkten diffbar)
 
 
A(h):= [mm] \begin{cases} \frac{f(x+h)-f(x)}{h} , & \mbox{für }h\not=0 \\ g(x), & \mbox{für } h=0 \end{cases}
 [/mm] 
A(h) ist stetig in h=0, da g stetig
 
ZZ.: A(h) [mm] \in [/mm] C([-c,c]) für c>0
 
> Frage: Wieso wollen wir zeigen A(h) [mm] \in [/mm] C([-c,c]) ??, was hat das damit zutun, dass der Differenzenquotient existiert?
 
 
g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger Funktionen 
 
g.ZZ.: [mm] A_n [/mm] (h) [mm] =\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\ f'_n(x), & \mbox{für } h=0 \end{cases} [/mm] glechmäßig konvergiert da klar ist [mm] A_n (h)\in [/mm] C[-c,c] [mm] ,lim_{h->0} A_n(h) [/mm] = A(h)
 
> Frage:
 
> 1) [mm] A_n [/mm] (h) [mm] \in [/mm] C[-c,c] , für h=0 ist klar f'_n(x) stetig, für [mm] h\not=0 [/mm] ist dass dann stetig weil es eine Differenz von stetigen funktionen ist??
 
 
Sei [mm] \epsilon>0
 [/mm] 
[mm] \forall [/mm] h,n [mm] \exists \epsilon_{n,h} [/mm] mit [mm] A_n [/mm] (h) = [mm] f_n' (\epsilon_{n,h}) [/mm] mit |x- [mm] \epsilon_{n,h}| [/mm] < |h|
 
> Das ist doch der Mittelwertsatz?könnt man nicht auch schreiben [mm] \epsilon_{n,h} \in [/mm] [x+h,h] wie sonst auch?
 
 
Da [mm] f_n' [/mm] gleichmäßig konvergent ist:
 
[mm] \exists [/mm] N [mm] \in \IN [/mm] sodass [mm] |f_n' [/mm] (t) - [mm] f_m' [/mm] (t) | < [mm] \epsilon \forall n,m\ge [/mm] N , [mm] \forall [/mm] t [mm] \in [/mm] [a,b]
 
> Das verstehe ich nicht, wieso folgt aus der gleichmäßigen konvergenz, dass es sich um eine Cauchyfolge handelt?
 
 
Wir behaupten nun, dass es ein [mm] \delta>0 [/mm] gibt,sodass für alle [mm] m\ge [/mm] N und alle s,t [mm] \in [/mm] [a,b] mit [mm] |s-t|<\delta [/mm] die Ungleichung [mm] |f_m' [/mm] (x) - f'_m (t) | < 3 [mm] \epsilon.
 [/mm] 
[mm] |f_m' [/mm] (x) - [mm] f_m' [/mm] (t) | [mm] \le [/mm] | [mm] f_m' [/mm] (s) - [mm] f_N' [/mm] (s) | + [mm] |f_N [/mm] ' (s) - [mm] f_N [/mm] '(t)| + [mm] |f_n'(t) [/mm] - [mm] f_m' [/mm] (t)|< 3 [mm] \epsilon
 [/mm] 
> Warum ist dass nun < 3 [mm] \epsilon [/mm] ? vorallem die abschätzung des mittleren terms verstehe ich nicht.
 
 
für |h| < [mm] \delta/2:
 [/mm] 
[mm] |A_m [/mm] (h) - [mm] A_n [/mm] (h) |= [mm] |f_m' (\epsilon_{m,h}) [/mm] - [mm] f_n' (\epsilon_{n,h})| \le |f_m' (\epsilon_{m,h}) [/mm] - [mm] f_m' (\epsilon_{n,h} [/mm] )| + [mm] |f_m' (\epsilon_{n,h}) [/mm] - [mm] f_n' (\epsilon_{n,h})| \le [/mm] 3 [mm] \epsilon [/mm] + [mm] \epsilon= [/mm] 4 [mm] \epsilon
 [/mm] 
da [mm] |\epsilon_{m,h} [/mm] - [mm] \epsilon_{n,h}| [/mm] < 2|h| [mm] \le \delta [/mm] ist
 
-> [mm] A_n [/mm] Cauchyfolge -> da Banachraum -> konvergent
 
 
      | 
     
    
   | 
  
 |          | 
 
 
   | 
  
 
  
   
    
     
	  
	   Hallo,
 
 
wie ich schon in dem anderen Post geschrieben habe, glaube ich nicht, dass du die gleichmäßige Konvergenz von [mm] $(f_n)$ [/mm] in dem Beweis brauchen wirst.
 
 
 
> Prop.:
 
>  Sei [mm]f_n \in[/mm] C([a,b]) [mm]\cap[/mm] D((a,b)) und [mm]f_n[/mm] ' [mm]\in[/mm] C([a,b])
 
>  und [mm]f_n[/mm] -> f [mm](n->\infty)[/mm] gleichmäßig
 
 
>  [mm]f_n'[/mm] -> g [mm](n->\infty)[/mm] gleichmäßig
 
 
>  Dann ist f [mm]\in[/mm] D([a,b]) und es gilt f' = g
 
>  Der Beweis im SKript ist mir etwas nunja suspekt ;=)
 
>  
 
> gZZ.: [mm]\forall[/mm] x [mm]\in[/mm] (a,b) [mm]\exists lim_{h->0} \frac{f(x+h)-f(x)}{h}[/mm] 
 
> =g 
 
> ( da g stetig ist ist dann auch f in den eckpunkten 
 
> diffbar)
 
 
 
Ab hier ist x fest gewählt in dem Beweis.
 
 
 
> A(h):= [mm]\begin{cases} \frac{f(x+h)-f(x)}{h} , & \mbox{für }h\not=0 \\ 
 g(x), & \mbox{für } h=0 \end{cases}[/mm]
 
 
 
> A(h) ist stetig in h=0, da g stetig
 
 
????
 
Das stimmt nicht, die Stetigkeit von g bringt hier überhaupt nichts (da steht g(x), aber A ist eine Funktion von h. Außerdem ist entspricht g nur bei h = 0 der Funktion A, da kann man keine Eigenschaften wie Stetigkeit von g auf A übertragen).
 
 
Das große Ziel des Beweises ist es doch außerdem zu zeigen, dass $A$ in $h=0$ stetig ist. Wenn man das zeigt, folgt die Behauptung.
 
 
 
>  ZZ.: A(h) [mm]\in[/mm] C([-c,c]) für c>0
 
>  > Frage: Wieso wollen wir zeigen A(h) [mm]\in[/mm] C([-c,c]) ??, 
 
 
> was hat das damit zutun, dass der Differenzenquotient 
 
> existiert?
 
 
Na wenn $A$ in $h=0$ stetig ist, gilt insbesondere:
 
 
[mm] $\lim_{h\to 0}A(h) [/mm] = A(0)$
 
 
Also:
 
 
[mm] $\lim_{h\to 0}\frac{f(x+h)-f(x)}{h} [/mm] = g(x)$.
 
 
Das wollen wir zeigen.
 
 
 
 
 
>  g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger 
 
> Funktionen 
 
> g.ZZ.: [mm]A_n[/mm] (h) [mm]=\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\ 
 f'_n(x), & \mbox{für } h=0 \end{cases}[/mm] 
 
> glechmäßig konvergiert da klar ist [mm]A_n (h)\in[/mm] C[-c,c] 
 
> [mm],lim_{h->0} A_n(h)[/mm] = A(h)
 
 
Hier sollte auf der rechten Seite A(0) stehen bei der letzen Gleichung.
 
 
 
>  > Frage:
 
 
>  > 1) [mm]A_n[/mm] (h) [mm]\in[/mm] C[-c,c] , für h=0 ist klar f'_n(x) 
 
 
> stetig,
 
 
 
??? Nein, selber Fehler wie oben.
 
[mm] $A_n(h)$ [/mm] ist stetig in $h = 0$, weil [mm] $f_n$ [/mm] differenzierbar ist. Daher gilt
 
 
[mm] $\lim_{h\to 0}A_n(h) [/mm] = [mm] \lim_{h\to 0}\frac{f_n(x+h)-f_n(x)}{h} [/mm] = [mm] f_n'(x) [/mm] = A(0)$.
 
 
 
 
für [mm]h\not=0[/mm] ist dass dann stetig weil es eine 
 
> Differenz von stetigen funktionen ist??
 
 
Ja. Die [mm] $f_n'$ [/mm] sind nach Voraussetzung stetig, daher ist [mm] $A_n(h)$ [/mm] für [mm] $h\not= [/mm] 0$ stetig als Differenz/Quotient stetiger Funktionen.
 
[Anmerkung: Es gibt auch Beweise, bei welchen man die Stetigkeit von [mm] $f_n'$ [/mm] nicht braucht (siehe mein anderer Post)]
 
 
 
 
>  Sei [mm]\epsilon>0[/mm]
 
>  [mm]\forall[/mm] h,n [mm]\exists \epsilon_{n,h}[/mm] mit [mm]A_n[/mm] (h) = [mm]f_n' (\epsilon_{n,h})[/mm] 
 
> mit |x- [mm]\epsilon_{n,h}|[/mm] < |h|
 
>  > Das ist doch der Mittelwertsatz?könnt man nicht auch 
 
 
> schreiben [mm]\epsilon_{n,h} \in[/mm] [x+h,h] wie sonst auch?
 
 
Du meinst [mm] $\varepsilon_{n,h} \in [/mm] [x,x+h]$ ?
 
 
Das macht man hier bewusst nicht, weil man nicht weiß ob x oder x+h der größere Wert ist. (h kann auch negativ sein). Deswegen verallgemeinert man zu
 
 
[mm] $\varepsilon_{n,h} \in [/mm] [x-|h|,x+|h|]$
 
 
Das stimmt auf jeden Fall. Und dazu äquivalent ist
 
Und [mm] $|x-\varepsilon_{n,h}| [/mm] < |h|$.
 
 
Und ja, es ist der Mittelwertsatz der Differentialrechnung.
 
 
 
 
 
> Da [mm]f_n'[/mm] gleichmäßig konvergent ist:
 
>  [mm]\exists[/mm] N [mm]\in \IN[/mm] sodass [mm]|f_n'[/mm] (t) - [mm]f_m'[/mm] (t) | < [mm]\epsilon \forall n,m\ge[/mm] 
 
> N , [mm]\forall[/mm] t [mm]\in[/mm] [a,b]
 
>  > Das verstehe ich nicht, wieso folgt aus der 
 
 
> gleichmäßigen konvergenz, dass es sich um eine 
 
> Cauchyfolge handelt?
 
 
 
Aus Konvergenz folgt immer die Cauchy-Folgen-Eigenschaft bzgl. der gewählten Norm!
 
 
Du kennst evtl. $(C, [mm] ||.||_{\infty})$ [/mm] Raum der stetigen Funktionen mit Supremumsnorm. Gleichmäßige Konvergenz [mm] $f_n \to [/mm] f$ ist äquivalent zu
 
 
[mm] $||f_n [/mm] - [mm] f||_{\infty} \to [/mm] 0$,
 
 
d.h. Konvergenz bzgl. der Supremumsnorm.
 
Daraus folgt nun sofort die Cauchy-Folgeneigenschaft wegen
 
 
[mm] $||f_n-f_m|| \le ||f_n [/mm] - f|| + ||f - [mm] f_m||$
 [/mm] 
 
 
 
 
> Wir behaupten nun, dass es ein [mm]\delta>0[/mm] gibt,sodass für 
 
> alle [mm]m\ge[/mm] N und alle s,t [mm]\in[/mm] [a,b] mit [mm]|s-t|<\delta[/mm] die 
 
> Ungleichung [mm]|f_m'[/mm] (x) - f'_m (t) | < 3 [mm]\epsilon.[/mm]
 
 
>  [mm]|f_m'[/mm] (x) - [mm]f_m'[/mm] (t) | [mm]\le[/mm] | [mm]f_m'[/mm] (s) - [mm]f_N'[/mm] (s) | + [mm]|f_N[/mm] 
 
> ' (s) - [mm]f_N[/mm] '(t)| + [mm]|f_n'(t)[/mm] - [mm]f_m'[/mm] (t)|< 3 [mm]\epsilon[/mm]
 
>  > Warum ist dass nun < 3 [mm]\epsilon[/mm] ? vorallem die 
 
 
> abschätzung des mittleren terms verstehe ich nicht.
 
 
 
1 und 3. Term: Cauchy-Folgeneigenschaft
 
2. Term: Gleichmäßige Stetigkeit von [mm] $f_N'$. [/mm] (Du hast gegeben, dass [mm] $f_n'$ [/mm] stetige Funktion auf kompakten Intervall $[a,b]$ ist, also gleichmäßig stetig. Und man kann dann [mm] $\delta [/mm] > 0$ finden sodass $|s-t|< [mm] \delta$ $\Rightarrow$ $|f_N'(s) [/mm] - [mm] f_N'(t)|<\varepsilon$)
 [/mm] 
 
Aber irgendwas in obiger Abschätzung stimmt sowieso noch nicht, links taucht ein x auf, rechts nicht mehr?
 
 
 
> für |h| < [mm]\delta/2:[/mm]
 
>  [mm]|A_m[/mm] (h) - [mm]A_n[/mm] (h) |= [mm]|f_m' (\epsilon_{m,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le |f_m' (\epsilon_{m,h})[/mm] 
 
> - [mm]f_m' (\epsilon_{n,h}[/mm] )| + [mm]|f_m' (\epsilon_{n,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le[/mm] 
 
> 3 [mm]\epsilon[/mm] + [mm]\epsilon=[/mm] 4 [mm]\epsilon[/mm]
 
>  da [mm]|\epsilon_{m,h}[/mm] - [mm]\epsilon_{n,h}|[/mm] < 2|h| [mm]\le \delta[/mm] 
 
> ist
 
>  -> [mm]A_n[/mm] Cauchyfolge -> da Banachraum -> konvergent 
 
 
 
 
Viele Grüße,
 
Stefan
 
 
      | 
     
    
   | 
  
 
 |   
|                  | 
  
 
   | 
  
 
  
   
    
     
	  
	  
  
> Hallo,
 
 
Hallo, ich habe noch paar fragen dazu, ich hoffe - dass ist ok.
 
> wie ich schon in dem anderen Post geschrieben habe, glaube 
 
> ich nicht, dass du die gleichmäßige Konvergenz von [mm](f_n)[/mm] 
 
> in dem Beweis brauchen wirst.
 
>  
 
> 
 
> > Prop.:
 
>  >  Sei [mm]f_n \in[/mm] C([a,b]) [mm]\cap[/mm] D((a,b)) und [mm]f_n[/mm] ' [mm]\in[/mm] 
 
> C([a,b])
 
>  >  und [mm]f_n[/mm] -> f [mm](n->\infty)[/mm] gleichmäßig
 
 
>  >  [mm]f_n'[/mm] -> g [mm](n->\infty)[/mm] gleichmäßig
 
 
>  >  Dann ist f [mm]\in[/mm] D([a,b]) und es gilt f' = g
 
>  >  Der Beweis im SKript ist mir etwas nunja suspekt ;=)
 
>  >  
 
> > gZZ.: [mm]\forall[/mm] x [mm]\in[/mm] (a,b) [mm]\exists lim_{h->0} \frac{f(x+h)-f(x)}{h}[/mm] 
 
> > =g 
 
> > ( da g stetig ist ist dann auch f in den eckpunkten 
 
> > diffbar)
 
>  
 
> 
 
> Ab hier ist x fest gewählt in dem Beweis.
 
>  
 
> 
 
> > A(h):= [mm]\begin{cases} \frac{f(x+h)-f(x)}{h} , & \mbox{für }h\not=0 \\ 
g(x), & \mbox{für } h=0 \end{cases}[/mm]
 
>  
 
> 
 
> > A(h) ist stetig in h=0, da g stetig
 
>  
 
> ????
 
>  Das stimmt nicht, die Stetigkeit von g bringt hier 
 
> überhaupt nichts (da steht g(x), aber A ist eine Funktion 
 
> von h. Außerdem ist entspricht g nur bei h = 0 der 
 
> Funktion A, da kann man keine Eigenschaften wie Stetigkeit 
 
> von g auf A übertragen).
 
>  
 
> Das große Ziel des Beweises ist es doch außerdem zu 
 
> zeigen, dass [mm]A[/mm] in [mm]h=0[/mm] stetig ist. Wenn man das zeigt, folgt 
 
> die Behauptung.
 
>  
 
> 
 
> >  ZZ.: A(h) [mm]\in[/mm] C([-c,c]) für c>0
 
 
>  >  > Frage: Wieso wollen wir zeigen A(h) [mm]\in[/mm] C([-c,c]) ??, 
 
 
> > was hat das damit zutun, dass der Differenzenquotient 
 
> > existiert?
 
>  
 
> Na wenn [mm]A[/mm] in [mm]h=0[/mm] stetig ist, gilt insbesondere:
 
>  
 
> [mm]\lim_{h\to 0}A(h) = A(0)[/mm]
 
>  
 
> Also:
 
>  
 
> [mm]\lim_{h\to 0}\frac{f(x+h)-f(x)}{h} = g(x)[/mm].
 
>  
 
> Das wollen wir zeigen.
 
>  
 
> 
 
> 
 
> 
 
> >  g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger 
 
 
> > Funktionen 
 
> > g.ZZ.: [mm]A_n[/mm] (h) [mm]=\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\ 
f'_n(x), & \mbox{für } h=0 \end{cases}[/mm] 
 
> > glechmäßig konvergiert da klar ist [mm]A_n (h)\in[/mm] C[-c,c] 
 
> > [mm],lim_{h->0} A_n(h)[/mm] = A(h)
 
>  
 
> Hier sollte auf der rechten Seite A(0) stehen bei der 
 
> letzen Gleichung.
 
>  
 
> 
 
> >  > Frage:
 
 
>  >  > 1) [mm]A_n[/mm] (h) [mm]\in[/mm] C[-c,c] , für h=0 ist klar f'_n(x) 
 
 
> > stetig,
 
>  
 
> 
 
> ??? Nein, selber Fehler wie oben.
 
>  [mm]A_n(h)[/mm] ist stetig in [mm]h = 0[/mm], weil [mm]f_n[/mm] differenzierbar ist. 
 
> Daher gilt
 
>  
 
> [mm]\lim_{h\to 0}A_n(h) = \lim_{h\to 0}\frac{f_n(x+h)-f_n(x)}{h} = f_n'(x) = A(0)[/mm].
 
 
Wieso:  [mm] f_n'(x) [/mm] = A(0) ?
 
[mm] f_n' [/mm] (x) = [mm] A_n [/mm] (0) wäre klar, wenn du das meinst - was ich höchst wahrscheinlich danke.
 
> 
 
> für [mm]h\not=0[/mm] ist dass dann stetig weil es eine 
 
> > Differenz von stetigen funktionen ist??
 
>  
 
> Ja. Die [mm]f_n'[/mm] sind nach Voraussetzung stetig, daher ist 
 
> [mm]A_n(h)[/mm] für [mm]h\not= 0[/mm] stetig als Differenz/Quotient stetiger 
 
> Funktionen.
 
 
Warum führt man nun hier die stetigkeit auf die [mm] f_n [/mm] zurück aber im dann  im fall h=0 durfte man dies nicht=?
 
>  [Anmerkung: Es gibt auch Beweise, bei welchen man die 
 
> Stetigkeit von [mm]f_n'[/mm] nicht braucht (siehe mein anderer 
 
> Post)]
 
>  
 
> 
 
> 
 
> >  Sei [mm]\epsilon>0[/mm]
 
 
>  >  [mm]\forall[/mm] h,n [mm]\exists \epsilon_{n,h}[/mm] mit [mm]A_n[/mm] (h) = [mm]f_n' (\epsilon_{n,h})[/mm] 
 
> > mit |x- [mm]\epsilon_{n,h}|[/mm] < |h|
 
>  >  > Das ist doch der Mittelwertsatz?könnt man nicht auch 
 
 
> > schreiben [mm]\epsilon_{n,h} \in[/mm] [x+h,h] wie sonst auch?
 
>  
 
> Du meinst [mm]\varepsilon_{n,h} \in [x,x+h][/mm] ?
 
>  
 
> Das macht man hier bewusst nicht, weil man nicht weiß ob x 
 
> oder x+h der größere Wert ist. (h kann auch negativ 
 
> sein). Deswegen verallgemeinert man zu
 
>  
 
> [mm]\varepsilon_{n,h} \in [x-|h|,x+|h|][/mm]
 
>  
 
> Das stimmt auf jeden Fall. Und dazu äquivalent ist
 
>  Und [mm]|x-\varepsilon_{n,h}| < |h|[/mm].
 
>  
 
> Und ja, es ist der Mittelwertsatz der 
 
> Differentialrechnung.
 
>  
 
> 
 
> 
 
> 
 
> > Da [mm]f_n'[/mm] gleichmäßig konvergent ist:
 
>  >  [mm]\exists[/mm] N [mm]\in \IN[/mm] sodass [mm]|f_n'[/mm] (t) - [mm]f_m'[/mm] (t) | < 
 
> [mm]\epsilon \forall n,m\ge[/mm] 
 
> > N , [mm]\forall[/mm] t [mm]\in[/mm] [a,b]
 
>  >  > Das verstehe ich nicht, wieso folgt aus der 
 
 
> > gleichmäßigen konvergenz, dass es sich um eine 
 
> > Cauchyfolge handelt?
 
>  
 
> 
 
> Aus Konvergenz folgt immer die Cauchy-Folgen-Eigenschaft 
 
> bzgl. der gewählten Norm!
 
>  
 
> Du kennst evtl. [mm](C, ||.||_{\infty})[/mm] Raum der stetigen 
 
> Funktionen mit Supremumsnorm. Gleichmäßige Konvergenz [mm]f_n \to f[/mm] 
 
> ist äquivalent zu
 
>  
 
> [mm]||f_n - f||_{\infty} \to 0[/mm],
 
>  
 
> d.h. Konvergenz bzgl. der Supremumsnorm.
 
>  Daraus folgt nun sofort die Cauchy-Folgeneigenschaft 
 
> wegen
 
>  
 
> [mm]||f_n-f_m|| \le ||f_n - f|| + ||f - f_m||[/mm]
 
 
klar danke!
 
> 
 
> 
 
> > Wir behaupten nun, dass es ein [mm]\delta>0[/mm] gibt,sodass für 
 
> > alle [mm]m\ge[/mm] N und alle s,t [mm]\in[/mm] [a,b] mit [mm]|s-t|<\delta[/mm] die 
 
> > Ungleichung [mm]|f_m'[/mm] (x) - f'_m (t) | < 3 [mm]\epsilon.[/mm]
 
>  
 
> >  [mm]|f_m'[/mm] (x) - [mm]f_m'[/mm] (t) | [mm]\le[/mm] | [mm]f_m'[/mm] (s) - [mm]f_N'[/mm] (s) | + [mm]|f_N[/mm] 
 
 
> > ' (s) - [mm]f_N[/mm] '(t)| + [mm]|f_n'(t)[/mm] - [mm]f_m'[/mm] (t)|< 3 [mm]\epsilon[/mm]
 
>  >  > Warum ist dass nun < 3 [mm]\epsilon[/mm] ? vorallem die 
 
 
> > abschätzung des mittleren terms verstehe ich nicht.
 
>  
 
> 
 
> 1 und 3. Term: Cauchy-Folgeneigenschaft
 
>  2. Term: Gleichmäßige Stetigkeit von [mm]f_N'[/mm]. (Du hast 
 
> gegeben, dass [mm]f_n'[/mm] stetige Funktion auf kompakten Intervall 
 
> [mm][a,b][/mm] ist, also gleichmäßig stetig. Und man kann dann 
 
> [mm]\delta > 0[/mm] finden sodass [mm]|s-t|< \delta[/mm] [mm]\Rightarrow[/mm] [mm]|f_N'(s) - f_N'(t)|<\varepsilon[/mm])
 
 
Zu 2:
 
Aber die Behauptung davor, ist doch genau die argumentation mit der man die abschätzung  des mittleren terms rechtfertigt=?
 
> Aber irgendwas in obiger Abschätzung stimmt sowieso noch 
 
> nicht, links taucht ein x auf, rechts nicht mehr?
 
 
da gehört ein s ;)
 
> > für |h| < [mm]\delta/2:[/mm]
 
>  >  [mm]|A_m[/mm] (h) - [mm]A_n[/mm] (h) |= [mm]|f_m' (\epsilon_{m,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le |f_m' (\epsilon_{m,h})[/mm] 
 
> > - [mm]f_m' (\epsilon_{n,h}[/mm] )| + [mm]|f_m' (\epsilon_{n,h})[/mm] - [mm]f_n' (\epsilon_{n,h})| \le[/mm] 
 
> > 3 [mm]\epsilon[/mm] + [mm]\epsilon=[/mm] 4 [mm]\epsilon[/mm]
 
>  >  da [mm]|\epsilon_{m,h}[/mm] - [mm]\epsilon_{n,h}|[/mm] < 2|h| [mm]\le \delta[/mm] 
 
> > ist
 
>  >  -> [mm]A_n[/mm] Cauchyfolge -> da Banachraum -> konvergent 
 
 
> 
 
> 
 
> 
 
> Viele Grüße,
 
>  Stefan 
 
 
 
      | 
     
    
   | 
  
 
 |   
|                          | 
   
 
   | 
  
 
  
   
    
     
	  
	   Hallo,
 
 
 
 
> > >  g.ZZ.: A(h) der gleichmäßige Grenzwert stetiger 
 
 
> > > Funktionen 
 
> > > g.ZZ.: [mm]A_n[/mm] (h) [mm]=\begin{cases} \frac{f_n(x+h)-f_n(x)}{h} , & \mbox{für }h\not=0 \\ 
 f'_n(x), & \mbox{für } h=0 \end{cases}[/mm] 
 
> > > glechmäßig konvergiert da klar ist [mm]A_n (h)\in[/mm] C[-c,c] 
 
> > > [mm],lim_{h->0} A_n(h)[/mm] = A(h)
 
>  >  
 
> > Hier sollte auf der rechten Seite A(0) stehen bei der 
 
> > letzen Gleichung.
 
 
 
Hier war eigtl. auch [mm] $A_n(0)$ [/mm] auf der rechten Seite gemeint.
 
 
 
 
>  >  [mm]A_n(h)[/mm] ist stetig in [mm]h = 0[/mm], weil [mm]f_n[/mm] differenzierbar 
 
> ist. 
 
> > Daher gilt
 
>  >  
 
> > [mm]\lim_{h\to 0}A_n(h) = \lim_{h\to 0}\frac{f_n(x+h)-f_n(x)}{h} = f_n'(x) = A(0)[/mm].
 
>  
 
> Wieso:  [mm]f_n'(x)[/mm] = A(0) ?
 
>  [mm]f_n'[/mm] (x) = [mm]A_n[/mm] (0) wäre klar, wenn du das meinst - was 
 
> ich höchst wahrscheinlich danke.
 
 
 
 
Ja ich meine natürlich [mm] $A_n(0)$.
 [/mm] 
 
 
 
> > für [mm]h\not=0[/mm] ist dass dann stetig weil es eine 
 
> > > Differenz von stetigen funktionen ist??
 
>  >  
 
> > Ja. Die [mm]f_n'[/mm] sind nach Voraussetzung stetig, daher ist 
 
> > [mm]A_n(h)[/mm] für [mm]h\not= 0[/mm] stetig als Differenz/Quotient stetiger 
 
> > Funktionen.
 
 
>  Warum führt man nun hier die stetigkeit auf die [mm]f_n[/mm] 
 
> zurück aber im dann  im fall h=0 durfte man dies nicht?
 
 
 
Weil h = 0 nur ein Punkt ist.
 
Du hättest ja dann mathematisch nur die Information, dass deine Funktion [mm] $A_n$ [/mm] an der Stelle h = 0 denselben Funktionswert hat wie [mm] $f_n'$. [/mm] Aber das liefert doch gar keine Information darüber, wie sich die Funktion [mm] $A_n$ [/mm] in einer Umgebung von 0 verhält. Demzufolge kannst du da keine Stetigkeit übertragen.
 
 
Extremes Gegenbeispiel: Du behauptest, nur weil für $f(x) = [mm] \begin{cases}1, x < 0\\0, x \ge 0\end{cases}$ [/mm] und $g(x) = [mm] \sin(x)$ [/mm] gilt: $f(0) = g(0)$, folgt dass f stetig in 0 ist. Das funktioniert nicht!
 
 
 
Stetigkeit kannst du nur übertragen, wenn deine Funktion auf einer OFFENEN Menge mit einer stetigen Funktion übereinstimmt.
 
 
 
 
 
 
> > > Wir behaupten nun, dass es ein [mm]\delta>0[/mm] gibt,sodass für 
 
> > > alle [mm]m\ge[/mm] N und alle s,t [mm]\in[/mm] [a,b] mit [mm]|s-t|<\delta[/mm] die 
 
> > > Ungleichung [mm]|f_m'[/mm] (x) - f'_m (t) | < 3 [mm]\epsilon.[/mm]
 
>  >  
 
> > >  [mm]|f_m'[/mm] (s) - [mm]f_m'[/mm] (t) | [mm]\le[/mm] | [mm]f_m'[/mm] (s) - [mm]f_N'[/mm] (s) | + [mm]|f_N[/mm] 
 
 
> > > ' (s) - [mm]f_N[/mm] '(t)| + [mm]|f_n'(t)[/mm] - [mm]f_m'[/mm] (t)|< 3 [mm]\epsilon[/mm]
 
>  >  >  > Warum ist dass nun < 3 [mm]\epsilon[/mm] ? vorallem die 
 
 
> > > abschätzung des mittleren terms verstehe ich nicht.
 
>  >  
 
> > 
 
> > 1 und 3. Term: Cauchy-Folgeneigenschaft
 
>  >  2. Term: Gleichmäßige Stetigkeit von [mm]f_N'[/mm]. (Du hast 
 
> > gegeben, dass [mm]f_n'[/mm] stetige Funktion auf kompakten Intervall 
 
> > [mm][a,b][/mm] ist, also gleichmäßig stetig. Und man kann dann 
 
> > [mm]\delta > 0[/mm] finden sodass [mm]|s-t|< \delta[/mm] [mm]\Rightarrow[/mm] [mm]|f_N'(s) - f_N'(t)|<\varepsilon[/mm])
 
>  
 
> Zu 2:
 
>  Aber die Behauptung davor, ist doch genau die 
 
> argumentation mit der man die abschätzung  des mittleren 
 
> terms rechtfertigt=?
 
 
Deine Frage ist mir noch nicht ganz klar. 
 
Evtl. meinst du das Folgende:
 
 
Beachte, dass das [mm] $\delta$ [/mm] in der gleichmäßigen Stetigkeit von der Funktion abhängt. Man kann also NICHT direkt [mm] $|f_m'(s) [/mm] - [mm] f_m'(t)|< \varepsilon$ [/mm] abschätzen, weil man da jedes mal ein anderes [mm] $\delta_m$ [/mm] mit $|s-t| < [mm] \delta_m$ [/mm] voraussetzen müsste.
 
 
Nur wegen der gleichmäßigen Konvergenz kann man das auf ein [mm] $\delta$ [/mm] zurückführen, und zwar das [mm] $\delta$ [/mm] von der gleichmäßigen Stetigkeit von [mm] $f_N$.
 [/mm] 
 
 
 
Viele Grüße,
 
Stefan
 
 
      | 
     
    
   | 
  
 
 |   
|                                  | 
    
 
   | 
  
 
  
   
    
     
	  
	   Ah verstehe. Ja genau das war meine Frage ;)
 
 
Noch eine Frage dazu:
 
1) Dass [mm] f_n [/mm] -> f glm konvergent ist braucht man also im ganzen beweis nicht?Die punktweise konvergenz aber schon.
 
 
2)Ist die Konvergenz der abgeleiteten Funktion eine notwendige Vorrausetzung für die Differenzierbarkeit der Grenzfunktion?
 
Ich meine: Gibt es eine Funktionenfolge [mm] f_n, [/mm] für welche [mm] f_n [/mm] ' nicht gleichmäßig konvergiert, sodass f= [mm] lim_{n->\infty} f_n [/mm] nicht differenzierbar?
 
 
LG
 
 
      | 
     
    
   | 
  
 
 |   
|                                          | 
     
 
   | 
  
 
  
   
    
     
	  
	   Hallo,
 
 
 
 
> Noch eine Frage dazu:
 
>  1) Dass [mm]f_n[/mm] -> f glm konvergent ist braucht man also im 
 
 
> ganzen beweis nicht?Die punktweise konvergenz aber schon.
 
 
Ja, man braucht punktweise Konvergenz.
 
Bei dir im Beweis braucht man das, damit [mm] $A_n$ [/mm] gegen $A$ konvergiert.
 
 
 
> 2)Ist die Konvergenz der abgeleiteten Funktion eine 
 
> notwendige Vorrausetzung für die Differenzierbarkeit der 
 
> Grenzfunktion?
 
>  Ich meine: Gibt es eine Funktionenfolge [mm]f_n,[/mm] für welche 
 
> [mm]f_n[/mm] ' nicht gleichmäßig konvergiert, sodass f= 
 
> [mm]lim_{n->\infty} f_n[/mm] nicht differenzierbar?
 
 
Guck mal [mm] $f_n(x) [/mm] = [mm] \sqrt{x^2 + \frac{1}{n}}$ [/mm] mit Grenzfunktion $f(x) = |x|$ an.
 
 
 
 
Viele Grüße,
 
Stefan
 
 
      | 
     
    
   | 
  
 
 |   
|                                                  | 
      
 
   | 
  
 
  
   
    
     
	  
	   Hallo
 
> Guck mal [mm]f_n(x) = \sqrt{x^2 + \frac{1}{n}}[/mm] mit 
 
> Grenzfunktion [mm]f(x) = |x|[/mm] an.
 
 
|x| = [mm] lim_{n->\infty} \sqrt{x^2 + 1/n}
 [/mm] 
[mm] f_n [/mm] ' (x) = [mm] \frac{x}{\sqrt{x^2+1/n}} [/mm] 
 
 [mm] lim_{n->\infty}f_n [/mm] ' (x)  = [mm] \frac{x}{\sqrt{x^2}}=\frac{x}{|x|}
 [/mm] 
[mm] \frac{x}{|x|} [/mm] nicht stetig -> keine glm konvergenz
 
 
Offensichtlich ist |x| nicht differenzierbar.
 
ok?
 
 
      | 
     
    
   | 
  
 
 |   
|                                                          | 
       
 
   | 
  
 
  
   
    
     
	  
	   Hallo,
 
 
 
> Hallo
 
>  > Guck mal [mm]f_n(x) = \sqrt{x^2 + \frac{1}{n}}[/mm] mit 
 
 
> > Grenzfunktion [mm]f(x) = |x|[/mm] an.
 
>  |x| = [mm]lim_{n->\infty} \sqrt{x^2 + 1/n}[/mm]
 
>  [mm]f_n[/mm] ' (x) = 
 
> [mm]\frac{x}{\sqrt{x^2+1/n}}[/mm] 
 
> [mm]lim_{n->\infty}f_n[/mm] ' (x)  = 
 
> [mm]\frac{x}{\sqrt{x^2}}=\frac{x}{|x|}[/mm]
 
>  [mm]\frac{x}{|x|}[/mm] nicht stetig -> keine glm konvergenz
 
 
>  
 
> Offensichtlich ist |x| nicht differenzierbar.
 
>  ok? 
 
 
Ja.
 
Dies zeigt, dass die Voraussetzung [mm] "f_n' [/mm] konv. glm. gegen eine Grenzfunktion g" bei dem Satz nicht weggelassen werden darf.
 
 
 
Viele Grüße,
 
Stefan
 
 
      | 
     
    
   | 
  
 
 |   
  
   |