Artikel aus Mobile Times 3 | |
Startseite : Archiv : Heft 3 : Artikel |
Wie sieht die Grundidee der Positionsbestimmung mittels Satelliten aus? Das Prinzip ist praktische angewandte sphärische Trigonometrie.
Die astronomische Navigation, d.h. die Navigation durch Beobachtung und entsprechende Vermessung von Fixsternen ist ein altes Verfahren. Der Navigator ermittelt die Standlinien durch Beobachtung einzelner Gestirne mit dem Sextanten und wertet die Meßergebnisse nach Tabellenwerten aus. Wichtig dabei ist jedoch immer ein klarer Himmel.
Wenn man will, kann man GPS als modernes astronomisches Navigationsverfahren interpretieren. Jedoch ist es unabhängig von Wetter und Sichtweiten. Man kann die Satelliten als künstliche Gestirne bezeichnen und somit die Beziehung zur Astronavigation herstellen.
Die Grundidee der Positionsbestimmung ist die Entfernungsmessung zu mehreren Satelliten bzw. damit verbunden die Laufzeitmessung eines von mehreren Satelliten ausgestrahlten Signals.
Es ist sicherlich ganz interessant, eine erste Schätzung durchzuführen und die Zeit zu bestimmen, wie lange eigentlich ein Signal vom Satelliten zur Erde benötigt. Radiowellen sind bekanntlich mit Lichtgeschwindigkeit unterwegs. Wissen wir nun, wann genau ein Radiosignal ausgesandt wurde und können wir auf der Erde dann festellen, wie lange dieses Signal für die uns bekannte Entfernung vom Satelliten benötigt hat, so ist es ein leichtes, die genaue Entfernung zu berechnen.
Berechnen wir anhand der bekannten Formel überschlägig die Zeit, die ein derartiges Signal benötigt, um zur Erde zu gelangen:
s 11.000 nmi 20.000 km t = --- = ------------ = ------------ = 6/100 s v 300.000 km/s 300.000 km/s |
Für eine angenommen Auflösung von einem Meter liegt die relative Zeitdifferenz jedoch im Nanosekundenbereich, d.h. 0,000 000 001 Sekunden!
Die meisten Empfänger verfügen über Möglichkeiten der Zeitmessung mit Genauigkeiten in diesem Bereich. Wäre dies nicht gegeben und ginge unsere Uhr im Empfänger auch nur um 1/100 sec falsch, ergäbe dies einen Fehler von ca. 3000 km, was in den meisten Fällen keine befriedigende Genauigkeit darstellt.
Zur Durchführung sehr exakter Berechnungen muß man eine gemeinsame Zeitbasis schaffen. Das Problem scheint nun zu sein, exakt die Zeit zu wissen, zu der dieses Signal den Satelliten verlassen hat. Für den jeweiligen Satelliten ist das kein Problem, denn dieser verfügt über vier sehr teure Atomuhren, die alle mit den Atomuhren der anderen Satelliten synchron laufen. Die Kosten einer Atomuhr belaufen sich auf einige 100.000 $. Hätten wir nun bei unseren Empfängern eine ebenso exakte Atomuhr, könnten wir nun sehr genau die Laufzeit des Signals messen. Da es aber unrealistisch ist, derart teure Atomuhren in jeden handelsüblichen GPS-Empfänger zu setzen, bedient man sich eines Tricks...
Die Trigonometrie sagt, daß man mit drei exakten Messungen eine exakte Positionsbestimmung durchführen kann und mit vier unexakten Messungen einen Zeitfehler korrigieren kann.
Am besten veranschaulichen wir uns dieses Prinzip anhand einer zweidimensionalen Darstellung:
Wir nehmen an, daß unsere Uhr etwa eine Sekunde zu langsam geht, d.h. wenn sie glaubt, es ist 12.00.00, ist es in Wirklichkeit bereits 12.00.01. Sprechen wir zur Vereinfachung nun nicht von Entfernungen in km, sondern von Zeiteinheiten in Sekunden.
Nehmen wir an, wir seien (in Wirklichkeit) 4 sec. von Satellit A entfernt und 6 sec. von Satellit B. Dann würden 2 Messungen genügen, um unsere Position im Punkt X festzustellen. Diesen richtigen Punkt würde man unter der Bedingung, daß alle Uhren synchron laufen, also erhalten.
Was passiert aber, wenn unser Empfänger eine Sekunde zu langsam ist. Dann wäre die Entfernung zu Satellit A nicht vier, sondern fünf Sekunden und die Entfernung zu Satellit B nicht sechs, sondern sieben Sekunden. Damit ergäbe sich eine - allerdings falsche - Position XX. Da wir aber nur zwei Messungen durchgeführt haben, können wir natürlich nicht beurteilen, ob diese gemessene Position richtig oder falsch ist.
Nun kommt der Trick an der Sache: Wir verwenden eine zusätzliche dritte Messung.
Wir messen nun - bei Verwendung von exakten Uhren - z.B. acht Sekunden Entfernung von Satellit C. Damit befinden wir uns eindeutig in Punkt X. Wenn wir nun unseren Offset addieren, erhalten wir drei Schnittpunkte. Da wir uns aber nicht gleichzeitig in drei Punkten befinden können,wird so lange ein Offset subtrahiert, bis sich die Messungen in einem Punkt kreuzen. Tatsächlich wird der Rechner im Empfänger nicht wirklich solange eine Zeitkorrektur subtrahieren, bis er auf ein Ergebnis kommt, sondern es gibt mathematische Vorgangsweisen, um aus vier Gleichungen mit vier Unbekannten alle Berechnungen durchführen zu können.
Obwohl viele Anstrengungen unternommen werden, den Grad der Genauigkeit des ganzen Systems sehr hoch zu halten - wie eben z.B. die Verwendung von Atomuhren in den Satelliten - gibt es einige Faktoren, die nur sehr schwierig zu beherrschen sind.
Einer der entscheidensten Faktoren ist der Einfluß der Ionosphäre auf das übertragene Signal durch in einer Höhe von ca. 150-200 km über der Erdoberfläche vorkommende elektrisch geladene Partikel. Diese Partikel nehmen Einfluß auf die Lichtgeschwindigkeit, mit der sich ja Radiowellen fortpflanzen. Nun könnte man behaupten, daß die Lichtgeschwindigkeit eine der genauesten physikalischen Konstanten ist.
Das ist prinzipiell richtig, nur gilt dies für die Ausbreitung im Vakuum. Und da für die Berechnung die Lichtgeschwindigkeit als konstant angenommen wird, können durch die in diesem dichteren Medium langsamere Lichtgeschwindigkeit Fehler auftreten. Tatsächlich wird für die Berechnung eine durchschnittliche Geschwindigkeit für eine durchschnittliche Atmosphäre an einem durchschnittlichen Tag angenommen - doch wieviele Tage sind schon durchschnittlich!?
Eine andere Möglichkeit, diese Art von Fehlern zu berücksichtigen, ist, zwei unterschiedliche Frequenzen zu verwenden, die sich dann auch mit unterschiedlicher Geschwindigkeit ausbreiten.
Bekannt ist, daß sich die Geschwindigkeit eines Signals in der Ionosphäre umgekehrt proportional zum Quadrat der Frequenz ausbreitet. Wenn man nun den Laufzeitunterschied zweier Signale betrachtet, kann man Rückschlüsse auf die Verzögerung beider Signale ziehen und somit den Einfluß der Ionosphäre korrigieren. Tatsächlich werden auch zwei unterschiedliche Frequenzen verwendet, die man mit L1 und L2 bezeichnet.
Nun gibt es auch noch einige andere Fehler. die Einfluß auf die Genauigkeit nehmen. Obwohl die Atomuhren an Bord des Satelliten sehr genau sind, unterliegen sie trotzdem minimalen Schwankungen. Das US-Verteidigungsministerium mißt diese Zeitabweichungen und kann diese von den Bodenstationen aus korrigieren.
Auch Empfänger können geringfügige Abweichungen durch Rundungen bei Berechnungen verursachen.
Ein weiterer Fehler kann durch Reflexion eines Signals entstehen, bevor es zum Empfänger gelangt, ähnlich der Ursache des Schwunds im KW-Bereich oder den 'Schattenbildern' beim Fernsehen.
Alles in allem ergeben sich durch die genannten Einflüsse Fehler im Bereich von 100 Fuß, also ca. 30 m, was einer Genauigkeit von einer Bogensekunde entspricht.
Befinden sich die Satelliten in einem stumpfen Winkel zueinander, ergibt sich eine hohe Genauigkeit bei der Berechnung.
Bei einem zu spitzen Winkel ergibt sich durch "Verschleifung" der im Bild oben ersichtlichen Box eine größere Ungenauigkeit. Die Rechner in den Empfängern sind jedoch in der Lage, die 4 besten Satelliten auszuwählen, mit denen sich die größtmögliche Genauigkeit ergibt.
Als Maß für die geometrische Genauigkeit wird der PDOP-Faktor angegeben. Ein PDOP=1 ergibt größtmögliche zu erwartende Genauigkeit, Werte >4 sind als mäßig einzustufen, Werte >10 als unbrauchbar.
Werner Oberegger
Letzte Überarbeitung: Montag, 18. Juni 2007
Text © 1995 by Mobile Times; HTML © 2000-2007 by Mobile Times |