Was ist der Unterschied zwischen idealer und realer Spannungsmessung?
Antwort #1
Dazu wird eine reale Spannungsquelle (d.h. sie hat einen Innenwiderstand) benutzt, um eine Spannung \(U\) an einen Messwiderstand \(R\) anzulegen. Diese Spannung hängt vom gewählten Messwiderstand ab:
Um nun diese Spannung am Messwiderstand zu messen, wird ein Voltmeter (Spannungsmessgerät) parallel zum Messwiderstand geschaltet. Dieses Voltmeter hat einen Innenwiderstand \( R_{\text V} \). Dadurch verändert sich aber der Spannungswert am Messwiderstand, denn nun fließt ein Teil \(I_{\text R}\) des Gesamtstroms \(I\) in den Verbraucher und ein Teil \(I_{\text V}\) in das Voltmeter:
\frac{U}{R_{\text{ges}}} ~&=~ I_{\text R} + I_{\text V} \end{align} $$
Die Spannung am Messwiderstand und Voltmeter sind natürlich die gleichen \(U = R \, I_{\text R}\) und \(U = R_{\text V} \, I_{\text V}\), sodass mit Gl. 2
der Gesamtwiderstand angegeben werden kann:
Das heißt, dass die gemessene Spannung anders ist als die tatsächliche Spannung 1
ohne Voltmeter:
&=~ I \, \frac{R}{\frac{R}{R_{\text V}} + 1} \end{align} $$
Die gemessene Spannung ist wegen \( R \geq R \, R_{\text V} / (R + R_{\text V}) \) kleiner als die tatsächliche Spannung. Um also verlässlich eine Spannung am Messwiderstand \(R\) messen zu können, muss die Spannungsquelle einen möglichst großen Innenwiderstand \(R_{\text V} \) haben.
Eine ideale Spannungsquelle hat im Gegensatz zu einer realen Spannungsquelle einen unendlichen Innenwiderstand \(R_{\text V} \rightarrow \infty \). Eine ideale Spannungsquelle verfälscht also nicht die tatsächliche Spannung am Messwiderstand.