Bahnspannung vs Trafo-/Netzteilspannung
Verfasst: Di 29. Jun 2021, 17:36
Ein hartnäckiges Gerücht das sich hält ist, das die ControlUnit (CU) Spannung "verbrauchen" würde und darum würde man weniger Spannung auf der Bahn messen als am Trafo/Netzteil.
Das ist und bleibt Blödsinn der sich festgesetzt hat und aus Unkenntnis des Digitalsystem stammt!
Es ist für den Laien nicht einfach ersichtlich, bleibt aber faktisch falsch und soll hier verständlich geklärt werden warum dieser Spannungsunterschied bei Messungen mit einfachen Messgeräten zustande kommt.
Die CU selbst "verbraucht" (fast) gar nichts.
Circa 0,4V-0,7V fallen an der Eingangsschutzdiode ab, welche die CU und die dahinter liegenden Komponenten gegen Verpolung schützt.
Dieser Spannungsabfall ist technisch durch die Diode bedingt und nicht vermeidbar.
Danach folgt nur noch der Transistor mit dem die Elektronik der CU das Datenprotokoll in die Bahnspannung einspeist. Das geschieht durch kurzzeitiges getaktetes Abschalten der Spannung.
Wie das Datenprotokoll aussieht und aufgebaut ist kann man auf der Seite von Slotbär nachlesen.
Einen Schaltplan der der BB/CU kann man von Unrene im Freeslotter finden
Ein normales Multimeter kann das Datenprotokoll nicht von der Bahnspannung trennen und mittelt den Wert oder vereinfacht gesagt zieht es das Datensignal von der Eingangsspannung ab.
In ganz grober Betrachtung könnte man das Datenprotokoll mit einem PWM-Signal vergleichen.
Beispiel:
Ein PWM Signal vom 50% ist ein Takt (z.B. 2Millisekunden) in der einen Hälfte seiner Zeit (1ms) eingeschaltet ist und in der anderen ausgeschaltet.
Dies Bedeutet vereinfacht das ein Multimeter bei einer Spannung 10V die mit 50% getaktet ist nur 5V anzeigen würde, da es einen Mittelwert aus 50% 10V und 50% 0V über die Zeit bildet
Ein Oszilloskop gibt da ein genaueres Bild, denn es bildet den Verlauf von Spannungen über die Zeit ab.
Dort kann man dann sehen das die Eingangsspannung fast (s.o.) gleich der Ausgangsspannung ist mit dem Unterschied das die Ausgangsspannung durch das Datensignal immer wieder ganz kurz abgeschaltet wird (ein Datenbit hat ca 50µs)
Beispielmessung (an zum Zeitpunkt der Erstellung des Beitrages vorliegenden BaseUnit):
1. Ausgangsspannung Trafo = Eingangsspannung BU = 14,89V
2. Spannungsmessung nach Schutzdiode =14,64V
3. Ausgangsspannung BU = Bahnspannung = 13,73V
Den Unterschied zwischen 1. und 2. kann man als Technisch nicht vermeidbaren Verlust bezeichnen.
Der Unterschied zwischen 2. und 3. kommt durch das Datensignal zustande das das Multimeter "heraus mittelt".
Ein Oszilloskop würde bei 1. und 2. das gleiche Anzeigen da dies durch die Diode bedingt ist.
Bei 3. hingegen würde das Oszilloskop wie bei 2. die gleiche Spannung anzeigen jedoch sähe man dort auf dem Bildschirm das Digitalprotokoll das aus kleinen "Abschaltungen" der Spannung besteht.
Ein Multimeter zieht diese kurzen Unterbrechungen gemittelt von der Maximalspannung ab und daher kommt es zu einer geringeren Spannungsangabe.
Es ist also Normal das man mit einem Multimeter eine geringere Spannung auf der Bahn gezeigt bekommt gegenüber der Spannung welche man am Netzteiles misst!
Das ist und bleibt Blödsinn der sich festgesetzt hat und aus Unkenntnis des Digitalsystem stammt!
Es ist für den Laien nicht einfach ersichtlich, bleibt aber faktisch falsch und soll hier verständlich geklärt werden warum dieser Spannungsunterschied bei Messungen mit einfachen Messgeräten zustande kommt.
Die CU selbst "verbraucht" (fast) gar nichts.
Circa 0,4V-0,7V fallen an der Eingangsschutzdiode ab, welche die CU und die dahinter liegenden Komponenten gegen Verpolung schützt.
Dieser Spannungsabfall ist technisch durch die Diode bedingt und nicht vermeidbar.
Danach folgt nur noch der Transistor mit dem die Elektronik der CU das Datenprotokoll in die Bahnspannung einspeist. Das geschieht durch kurzzeitiges getaktetes Abschalten der Spannung.
Wie das Datenprotokoll aussieht und aufgebaut ist kann man auf der Seite von Slotbär nachlesen.
Einen Schaltplan der der BB/CU kann man von Unrene im Freeslotter finden
Ein normales Multimeter kann das Datenprotokoll nicht von der Bahnspannung trennen und mittelt den Wert oder vereinfacht gesagt zieht es das Datensignal von der Eingangsspannung ab.
In ganz grober Betrachtung könnte man das Datenprotokoll mit einem PWM-Signal vergleichen.
Beispiel:
Ein PWM Signal vom 50% ist ein Takt (z.B. 2Millisekunden) in der einen Hälfte seiner Zeit (1ms) eingeschaltet ist und in der anderen ausgeschaltet.
Dies Bedeutet vereinfacht das ein Multimeter bei einer Spannung 10V die mit 50% getaktet ist nur 5V anzeigen würde, da es einen Mittelwert aus 50% 10V und 50% 0V über die Zeit bildet
Ein Oszilloskop gibt da ein genaueres Bild, denn es bildet den Verlauf von Spannungen über die Zeit ab.
Dort kann man dann sehen das die Eingangsspannung fast (s.o.) gleich der Ausgangsspannung ist mit dem Unterschied das die Ausgangsspannung durch das Datensignal immer wieder ganz kurz abgeschaltet wird (ein Datenbit hat ca 50µs)
Beispielmessung (an zum Zeitpunkt der Erstellung des Beitrages vorliegenden BaseUnit):
1. Ausgangsspannung Trafo = Eingangsspannung BU = 14,89V
2. Spannungsmessung nach Schutzdiode =14,64V
3. Ausgangsspannung BU = Bahnspannung = 13,73V
Den Unterschied zwischen 1. und 2. kann man als Technisch nicht vermeidbaren Verlust bezeichnen.
Der Unterschied zwischen 2. und 3. kommt durch das Datensignal zustande das das Multimeter "heraus mittelt".
Ein Oszilloskop würde bei 1. und 2. das gleiche Anzeigen da dies durch die Diode bedingt ist.
Bei 3. hingegen würde das Oszilloskop wie bei 2. die gleiche Spannung anzeigen jedoch sähe man dort auf dem Bildschirm das Digitalprotokoll das aus kleinen "Abschaltungen" der Spannung besteht.
Ein Multimeter zieht diese kurzen Unterbrechungen gemittelt von der Maximalspannung ab und daher kommt es zu einer geringeren Spannungsangabe.
Es ist also Normal das man mit einem Multimeter eine geringere Spannung auf der Bahn gezeigt bekommt gegenüber der Spannung welche man am Netzteiles misst!