Beiträge von kiozen

    Das ganze funktioniert ja nur, wenn Du sehr genau weißt wo gerade die einzelnen Satelliten am Himmel sind. Durch die Korrelation bekommst Du die Laufzeit, aber ohne zu wissen wo die Quelle steht, kannst Du daraus auch keine absolute Position berechnen.


    Aus der Uhrzeit selber alles ableiten funktioniert nicht, weil dann das GPS selber ein hoch genaues Zeitnormal bräuchte. Das wäre aber nicht portabel. Deswegen muss die interne GPS Uhr laufend korrigiert werden.

    Der einzige Vorteil vom eTrex ist die sehr lange Laufzeit mit einem Satz Akkus. Dieser wird jedoch durch einen schwachen Prozessor und ein noch kleineres Display erkauft.


    Die Geräte der GPSMap 6x Serie stehen bei Trackvergleichen immer einen Tick besser da, was wohl der aus dem Gehäuse ragenden Antenne geschuldet ist. Diese hat allerdings eine leichte Richtwirkung. Sprich für optimalen Empfang muss das Gerät senkrecht gehalten werden. Auf dem Rad ist das natürlich nicht immer möglich. Der Effekt wirkt sich aber auch nur bei grenzwertigen Empfangsbedingungen aus. Den meisten fällt es deswegen nicht auf.


    Mit der Garmin-Freizeitkarte hast Du überall die gleiche rudimentäre Abdeckung. Bei OSM ist das nicht so. Wobei man langsam die schwachen Gebiete schon suchen muss. Ich würde mir das zusätzliche Geld sparen und dann bei Bedarf lieber in eine gescheite Karte, wie zum Beispiel die DAV Karten für die Alpen, investieren. Gerade in den Bergen sind Vektorkarten nicht der Bringer. Da ist die Rasterkarte vom DAV deutlich besser. Für Rad- und Paddeltouren dürften die OSM Karten in der Regel reichen.

    Der Nährwert diese Features ist relativ gering. Bei der Positionsbestimmung gibt es 2 verschiedene Fehler. Den Statistischen, den man mit dieser Mittlung tatsächlich kompensieren kann. Und den Systemischen, der zeitabhängig ist. Den kann man nicht so einfach kompensieren.


    D.h. auch wenn Du die Position mittelst, ist die ermittelte Position nicht zwingend genau. Deswegen, wie Du schon selber ahnst, braucht man das nicht wirklich.

    Zitat von "schuasdamichi"

    Ehrlich gesagt, habe ich mir darüber noch nie so wirklich Gedanken gemacht. Jetzt verstehe ich aber (hoffentlich) Deine Gedankengänge.


    Das ist sicherlich richtig. Man muss allerdings auch mal bedenken, wie viel solche Berechnungen von der Gesamtnutzung ausmachen. Wenn ich mal eine Minute eine Route berechne und dann mehrere Stunden der Route folge, dann wird sich in der Minute nur sehr wenig sparen lassen.


    Genauso auch das Zeichnen der Karte. Aus den abgespeicherten Kartendaten das Kartenbild zu rendern ist sehr aufwändig und kostet richtig Strom. Allerdings ist das Format der Karte so aufgebaut, dass man in wenigen Zügen die Bereiche, die überhaupt ausgelesen werden müssen auf das Nötigste beschränken kann. Diese Suche benötigt verglichen mit dem eigentlichen Lese- und Rendervorgang nur marginal Ressourcen.


    Wer Strom sparen will, der spart nicht an der Karte und hat nachher, wenn es dumm läuft, die wichtige Kachel gerade nicht auf dem Gerät. Der versucht den Aufbau des Kartenbildes zu vermeiden. D.h. man verkneift sich gedankenverlorenes Zoomen und Bewegen der Karte. Die Ausrichtung bleibt Nord und nicht in Blickrichtung. Und noch viel effektiver: Man schaltet das Display ab, wenn man es nicht braucht. Damit berechnet das Gerät auch bei Bewegung kein neues Bild. Und alleine das Display ohne Beleuchtung frisst schon genug Energie. Also Display und Beleuchtung auslassen, wo immer es geht.

    Bei den hier gezeigten DEM Daten (rote Linie) handelt es sich um SRTM1 Daten. Also ca 25m Abstand von Punkt zu Punkt. Alle Tracks sind im Bayerischen Wald aufgenommen. Da dort die Topographie nicht gerade zu Extremen neigt, geben die DEM Daten die Wirklichkeit relativ gut wieder. Zudem ist der GPS Empfang meistens sehr gut. D.h. Aufzeichnung und DEM Daten sollten weitgehend übereinstimmen. Was sie in der Regel auch machen, wenn man sich nicht selber im Weg steht und das Gerät falsch bedient.

    Zitat von "scarpanto"

    Super erklärt ...


    Was auch noch beachtet werden sollte ist, dass die in GPS-Geräten eingebauten Barometerchips etwas temperaturabhängig sind, dass also wechselnde Gerätetemperatur Messfehler verursacht. Daher ist es günstig, die Kalibrierung erst bei Erreichen des Temperaturgleichgewichts vorzunehmen.


    Das ist richtig. Wobei die Geräte schon die interne Temperatur messen und auch den Sensor kompensieren. Der Temperaturfühler ist nur meistens ein eigenes Bauteil und sitzt nicht direkt auf dem barometrischen Sensor. Damit sind starke, kurzfristige Schwankungen immer ein Problem.


    Gerade im Winter habe ich es mir zur Pflicht gemacht, das Gerät vor der Hütte auszuschalten und mir die Höhe zu merken. In der Hütte wird das Gerät nicht angeschaltet. Erst wieder wenn ich draußen bin und dann wird die Höhe kontrolliert. Meistens stimmt sie dann noch.


    Wenn man das nicht macht und das eiskalte Gerät in der Hütte anschaltet, dann kommt der Algorithmus reichlich ins Schwitzen. Hier mal ein Beispiel, wie man sich damit die Aufzeichnung versauen kann:


    [Blockierte Grafik: http://www.gps-forum.net/userpix/10751_profil3_1.png]

    Wobei man das Kalibrieren und auch das Wetter bei der Betrachtung nicht außer Acht lassen sollte. Weil das sind die Schwachstellen der barometrischen Messung, die in der Praxis leider recht relevant sind.


    Gerade das richtige Kalibrieren hat in der Praxis seine Tücken. Vergisst man die Anfangshöhe zu recherchieren, dann hat man nur noch die Möglichkeit


    1) Den GPS Wert zu übernehmen.
    2) Wenn die Karte Höhendaten abgespeichert hat, diese zu verwenden
    3) Eine vor Ort verwendete Höhenmarke zu benutzen.


    Das birgt aber alles Risiken. 1 und 2 funktionieren nur wenn guter Empfang vorhanden ist und die Position nicht direkt neben einem starken Anstieg ist. Weil genau dort die DEM Daten wenig taugen. Ein enges Tal ist somit sehr schlecht. Und bei 3 weiß man nie auf was sich die Höhe bezieht. Es gibt verschieden Bezugspunkt.


    Man fängt folglich unter Umständen schon mit einem Fehler an. Die meisten GPS Geräte mit Sensor, versuchen am Anfang die barometrische Höhe mit der GPS Höhe abzugleichen und anzupassen. Bei einem großen Anfangsfehler sieht man das nachher in der Aufzeichnung recht schön. Das ist hier passiert (GPSMap 62s):


    [Blockierte Grafik: http://www.gps-forum.net/userpix/10751_profil_1.png]


    Bis auf ein paar Abstecher war der Rückweg gleich dem Hinweg. Man sieht wie über den Tag die gemessene Höhe sich langsam anpasst. Und hier noch die gleiche Tour mit einem S5min aufgezeichnet. Das hat keinen barometrischen Sensor.


    [Blockierte Grafik: http://www.gps-forum.net/userpix/10751_profil2_1.png]


    Die komische Gerade in der Mitte kommt zustande, weil ich vergessen habe die Aufzeichnung nach der Jause wieder anzuschalten.

    Beide Messmethoden haben ihre Vor- und Nachteile.


    Die Höhenmessung via GPS schwankt über die Zeit um den wirklichen Wert. Ähnlich wie bei der Position können das durchaus 20-30m sein.


    Die barometrische Höhenmessung benötigt immer eine Referenzhöhe mit bekanntem Druck. Ohne die Messung zu kalibrieren kann der Fehler beliebig groß sein. Dafür sind die Schwankungen über einen kurzen Zeitbereich sehr gering. Über den Tag kommt noch die natürliche Luftdruckänderung hinzu.


    Was ist jetzt genau? Wenn ich den Barometer nicht kalibriert habe, messe ich eine Höhe mit einem konstanten Fehler. Die Messwerte schwanken wenig. Wenn ich die absolute Höhe wissen will, ist das aber nicht so gut. Da ist das GPS besser. Hier ist der absolute Fehler geringer. Dafür schwankt das Ergebnis mehr.


    Zeichne ich jetzt eine Tour auf, wird der Barometer über die ganze Tour seinen absoluten Fehler behalten. Da die Messung weniger schwankt, werde ich aber die geschafften Höhenmeter präziser angezeigt bekommen. Bei dem GPS wird das Profil mehr oder weniger dem wirklichen Profil folgen. Da aber der Wert mehr schwankt, wird der Wert für die Höhenmeter zu groß sein.


    Würde man den Barometer am Anfang kalibrieren, wäre das Ergebnis optimal. Wenn sich der Luftdruck über den Tag nicht deutlich ändert. Noch besser wäre es, wenn beide Messungen sich ergänzen und die jeweilige Schwäche der anderen kompensiert.



    Noch eine andere Sichtweise auf das Thema:
    Vor Jahren hat ein Feuerwehrmann in irgendeinem deutschen GPS Forum (war es das grüne Forum fürs GeoCachen?) folgendes berichtet. Für die Feuerwehr ist es wichtig zu wissen was 10m Höhe sind. Ganz klar: Eine Pumpe die Wasser ansaugt schafft nicht mehr. Die Idee war das mit einem GPS auszumessen. Ging natürlich nicht zuverlässig, weil der Wert in dem Bereich schwankt. Dafür kann man mit einem barometrischen Höhenmesser die Höhendifferenz sehr gut ausmessen. Der Feuerwehr ist natürlich die absolute Höhe völlig egal.


    Man kann also sagen, dass eine barometrische Höhenmessung deutlich genauer ist als das GPS, wenn sie kalibriert wurde. Deswegen haben die besseren GPS Geräte auch immer einen solchen Sensor verbaut. Kann man die Messung aber nicht kalibrieren, weil man keine Referenzhöhe kennt, oder gibt man diese falsch an, dann hat man einen konstant Fehler. Während einer Tour ist das reichlich ärgerlich. Nachträglich kann man die Aufzeichnung aber einfach zurecht rücken.

    Auch das Navi im Auto ist nicht genauer. Hier wird einfach nur nicht die gemessene Position angezeigt, sondern die die nah auf der Straße ist. Nennt sich auf Neudeutsch "lock-on-road".


    Wer in engen Straßen wohnt, kennt das. Mein Navi parkt mich manchmal in der parallelen Straße zu meiner. Auch große Kreuzungen mit sehr vielen Oberleitungen können ein Navi im Auto sehr verwirren. Manche Geräte benutzen weitere Sensoren, um bei schlechtem Empfang die Position vorherzusagen. Der Beschleunigungsvektor ist hier ganz praktisch. Und vom Hersteller fest eingebaute Navis können sogar auf noch mehr Daten ihre Schätzung stützen.


    Bei einigen Geräten kann man das "lock-on-road" ein- und ausschalten. Wobei ich als Fußgänger dann doch lieber die "ehrliche" Position habe.

    Das ist durchaus eine Abweichung mit der man in der Stadt und leider auch im alpinen Gelände rechnen muss. Besser sind die Geräte im unteren Preissegment nicht.


    Professionelle Geräte arbeiten mit einer anderen Empfangstechnik und haben eine deutlich bessere Antenne. Kosten fangen im vierstelligen Bereich an.


    Das einzige was Du machen kannst, ist für einen guten Empfang sorgen. Geräte in der Hosentasche -> schlecht. Gerät in der Jacken/Hemdtasche -> schlecht. Gerät am Rucksackträger auf der Schulter -> schon besser. Gerät an einer langen Stange über Dir -> besser, aber das willst Du nicht ;)

    Soweit hat schuasdamichi schon alles gesagt. Ich möchte nur nochmal darauf hinweisen, dass viele TMS Server es sogar ausdrücklich untersagen Kacheln systematisch über mehrere Zoomebenen abzurufen um sie offline zu benutzen. Das macht Sinn, wenn man bedenkt, das große Server nicht mit einer Flatrate angebunden sind, sondern mit einem Volumentarif.


    QLandkarte GT versucht einen kleinen Kompromiss herzustellen, indem es schon einmal gesehene Kacheln exportiert. Für den großflächigen Einsatz wird das allerdings schnell unattraktiv, was durchaus im Sinne der Anbieter von TMS Karten, wie dem OSM Mapnik Server, ist.


    Die Sache mit dem Export habe ich nicht kapiert. Karten und Geodaten sind bei GIS Anwendungen immer getrennt und unabhängig von einander.

    Dann kannst Du eigentlich alles nehmen. Garmin bietet sich wegen der großen Verbreitung an. Bei speziellen Anforderungen können aber auch andere Hersteller interessant werden.


    Prinzipiell gilt:


    * Bildschirmfläche frisst Strom
    * CPU Leistung frisst Strom.


    Deswegen sind die Geräte eTrex10 bis 30 wahre Dauerläufer. Hinsichtlich des Bildschirms und der Geschwindigkeit beim Kartenaufbau eher ein Mäusekino. Einen guten Kompromiss bieten die Oregons. Vor allem die neue Serie ist sehr gut bei Sonne ablesbar. Wer oft in den Bergen bei jedem Wetter unterwegs ist, wird die Tasten des 62s bzw 64s zu schätzen wissen. Und wer nicht mehr so gut sieht, der wird das Montana mit seinem großen Bildschirm vorziehen.


    Wer lieber Raster anstatt Vektorkarten benützt, sollte sich die Geräte von CompeGPS ansehen.


    Einen externen Temperatursensor gibt es meines Wissens nur bei Garmin. Wem die Höhe wichtig ist, der achtet darauf, dass das Gerät einen barometrischen Sensor hat. Die GPS Höhe alleine ist sehr ungenau.


    Am besten gehst Du mal in ein Fachgeschäft und schaust Dir die Geräte an.

    Das Problem ist halt die Laufzeit. Geräte die mit einem Satz Batterien lange laufen sind von der Bildschirmgröße nicht wirklich fürs Auto geeignet. Und die Akkus der Autonavis halten so 1-2h durch. Das Montana von Garmin ist hier sicherlich ein Kompromiss. Wobei meiner Meinung nach auch das Montana als Autonavi kein Vergleich zu einem wirklichen Autonavi ist. Punkto Verkehrssicherheit würde ich keine Abstriche machen.

    Das hätte man aber auch vor dem Kauf herausfinden können. ;)


    Die neueren Geräte, also Oregon 6xx und GPSMap 64xxx können das. Allerdings nur mit einem speziellen Garmin Batteriepack. Oder man sucht nach der Anleitung, wie man den Taster zum Erkennen von Akkus manipuliert.

    Es kommt ein wenig auf das Produkt an. Die Topo Schweiz V3 ist voll routingfähig. Die DAV Karte nicht. Kompass hat meines Wissens noch nie Karten für Garmin angeboten. Hier kann höchstens der Export via KMZ gemeint sein. Was ein Witz ist.


    Grundsätzlich kann man aber jede Karte ohne Routeninformation mit einer Karte mit Routeninformation überlagern und so die gewünschte Funktion erhalten. Problematisch wird es nur wenn 2 Karten mit Routeninformation aktiv sind.


    Wobei das Autorouting und Garmins Erweiterung für Outdooraktivitäten (Activerouting) für Gebiete, in denen Rasterkarten besser sind, eigentlich für die Tonne ist. Zum einen dürfte das Ergebnis oft nicht deinen speziellen Wünschen entsprechen. Bzw es wird dich halte den einzigen gut markierten Weg entlangführen, den Du bisher auch ohne GPS gefunden hast. Außerdem sehe ich ein hohes Risiko, wenn man in unwegsamen Gelände dem Kartenvorschlag folgt. Wege ändern sich in den Bergen häufig und es ist an der Abzweigung nicht immer abzusehen, ob es sich um einen geänderten Weg oder einen anderen Weg handelt. Hier ist immer erhöhte Vorsicht angebracht, die bei zuviel Vertrauen in die Gerätevorgaben abnimmt.


    Neben der Routennavigation gibt es auch noch die Tracknavigation. Also dem Folgen alter Aufzeichnungen, bzw einer künstlichen Aufzeichnung die am PC erstellt wurde. Rein psychologisch ist man eher bereit einen solchen Track als Serviervorschlag anzunehmen und die Tour den wirklichen Verhältnissen anzupassen. Vor allem im Winter, wo man keinen Wegen folgt, sondern der Topographie, ist das recht praktisch.


    Routing ist folglich nur nötig wo es viele Wege gibt. Zum Beispiel beim dichten Wegenetz in den deutschen Mittelgebirgen. Dort sind Rasterkarten aber auch nicht wirklich wichtig.


    In den Bergen, abseits der ausgebauten Touristentrassen, sind Rasterkarten hingegen sehr praktisch. Besonders wenn man die Papierkarte auch als digitale Version im Gerät hat. Routing macht hier wenig Sinn. Wenn man etwas zur Orientierung benötigt, dann nimmt man die Tracknavigation.