In der sich rasant entwickelnden Landschaft der autonomen Fahrzeugtechnologie lösen nur wenige Software-Updates so viel Kontrolle und Erwartung aus wie Teslas Full Self-Driving (FSD)-Veröffentlichungen. Die neueste Version, 14.2.2.5, die am Valentinstag, dem 14. Februar, an die Flotte ausgeliefert wurde, hat eine hitzige Debatte innerhalb der Elektrofahrzeug-Community ausgelöst. Während Tesla-Besitzer an die inkrementelle Natur der Softwareentwicklung gewöhnt sind – oft durch das Sprichwort „zwei Schritte vorwärts, einen Schritt zurück“ gekennzeichnet – wurde diese spezielle Veröffentlichung von erfahrenen Testern als vielleicht das verwirrendste Update in der Geschichte des Programms bezeichnet.
Bei Tesery haben wir Berichte von Langzeit-Beta-Testern und Branchenbeobachtern analysiert, um die Leistung von v14.2.2.5 zu untersuchen. Der Konsens deutet auf einen Software-Build hin, der von Extremen geprägt ist: Er zeigt beispielloses Sicherheitsverhalten in kritischen Szenarien, während er gleichzeitig verblüffende Regressionen bei grundlegenden Navigationsaufgaben aufweist. Diese Dichotomie wirft wichtige Fragen zur aktuellen Entwicklung des neuronalen Netzes von Tesla und den Herausforderungen der Verfeinerung eines End-to-End-KI-Fahrsystems auf.
Das Paradox der Leistung: Extreme an beiden Enden
Jahrelang haben die Teilnehmer des FSD-Beta-Programms ihre Erwartungen mit einer gesunden Portion Realismus gemanagt. Updates sorgen im Allgemeinen für sanftere Beschleunigung, besseres Spurhalten oder verbesserte Kreuzungsbewältigung, gelegentlich begleitet von kleineren Regressionen in anderen Bereichen. Die Version 14.2.2.5 scheint jedoch die Kluft zwischen ihren Erfolgen und Misserfolgen vergrößert zu haben.
Laut umfangreichen Tests, die von Teslarati gemeldet wurden und fast jede gefahrene Meile über einen Zeitraum von drei Wochen abdeckten, erzeugt die Software ein ruckartiges Benutzererlebnis. Die Testparameter umfassten kurze lokale Fahrten, Pendelfahrten mittlerer Dauer und Langstreckenfahrten auf Autobahnen von über 100 Meilen. Das Fazit ist, dass sich die Fähigkeit des Fahrzeugs, Umweltgefahren wahrzunehmen und darauf zu reagieren, geschärft hat, während seine Entscheidungslogik in alltäglichen Szenarien zunehmend erratisch geworden ist.
„Mit jeder Full Self-Driving-Veröffentlichung bin ich realistisch... Diese Verbesserungen sind jedoch relativ mild, ebenso wie die Regressionen. Doch diese Version hat mir gezeigt, dass sie Extreme von beidem enthält.“
Dieses Oszillieren zwischen Brillanz und Verwirrung ist das prägende Merkmal von v14.2.2.5, was darauf hindeutet, dass mit zunehmender Komplexität der neuronalen Netze die Wechselwirkungen zwischen verschiedenen Fahrverhaltensweisen unerwartete Ergebnisse liefern.
Geschwindigkeitsprofile: Konsistenz im Chaos finden
Einer der Schwerpunkte der jüngsten FSD-Updates war die Verfeinerung von „Geschwindigkeitsprofilen“, die es Fahrern ermöglichen, zwischen Modi wie Chill, Standard und Hurry (oft umgangssprachlich oder in früheren Versionen als Mad Max bezeichnet) zu wechseln. Diese Profile sind darauf ausgelegt, die Durchsetzungsfähigkeit des Fahrzeugs in Bezug auf Spurwechsel, Folgeabstände und Beschleunigung anzupassen.
In früheren Versionen bemängelten Tester häufig mangelnde Unterscheidbarkeit zwischen diesen Modi. Insbesondere die aggressiveren Profile schafften es oft nicht, die Geschwindigkeitsbegrenzung einzuhalten, und verhielten sich im Verkehrsfluss zu zaghaft. Berichte über v14.2.2.5 deuten auf eine Stabilisierung in diesem Bereich hin. Der „Hurry“-Modus, der zuvor darunter litt, grundlos unter der Geschwindigkeitsbegrenzung zu fahren, scheint nun wie vorgesehen zu funktionieren und angemessene Geschwindigkeiten ohne die Zögerlichkeit früherer Builds beizubehalten.
Obwohl das subjektive Gefühl dieser Profile von Fahrer zu Fahrer variiert, ist die allgemeine Konsistenz in dieser Version eine deutliche Verbesserung. Die Fähigkeit des Autos, seine Durchsetzungsfähigkeit basierend auf dem ausgewählten Profil anzupassen, ist entscheidend für das Vertrauen der Benutzer, insbesondere in überlasteten Stadtumgebungen, wo Zögern von anderen Fahrern als Unberechenbarkeit interpretiert werden kann.
Die Blinkanomalie: Feature oder Bug?
Der wohl umstrittenste Aspekt von v14.2.2.5 ist sein neu entdecktes und etwas verwirrtes Verhältnis zu Blinkern. Tester haben ein wiederkehrendes Verhalten dokumentiert, bei dem das Fahrzeug Blinker bei scharfen Kurven auf der Straße aktiviert, wo keine Kreuzung vorhanden ist. Dieses Verhalten hat eine philosophische Debatte innerhalb der Tesla-Community darüber ausgelöst, was als „korrektes“ Fahren gilt.
In einem dokumentierten Fall aktivierte das FSD-System konsequent den rechten Blinker, während es eine scharfe Kurve fuhr, an deren Scheitelpunkt eine private Einfahrt lag. Obwohl das Fahrzeug die Straße erfolgreich befuhr, deutete die Signalisierung die Absicht an, in die Einfahrt abzubiegen, was nachfolgende Fahrer potenziell verwirren könnte. Als diese Vorfälle auf Social-Media-Plattformen wie X (ehemals Twitter) geteilt wurden, entstand eine Spaltung zwischen pragmatischen Fahrern und überzeugten Tesla-Verteidigern.
- Die pragmatische Sichtweise: Blinken auf einer durchgehenden Straße, unabhängig von der Krümmung, ist unnötig und verwirrend. Es verletzt die Standarderwartung, dass ein Signal eine Abweichung vom aktuellen Fahrweg anzeigt.
- Die „nach dem Buch“-Verteidigung: Einige Befürworter argumentierten, dass professionelle Fahrstandards das Blinken in extremen Kurven vorschreiben könnten oder dass die hochauflösenden Karten des Autos die Kurve als ein eigenständiges Navigationsereignis klassifizierten.
- Die Realität: Für den Durchschnittsautofahrer ist ein Auto, das in einer scharfen Kurve blinkt, ohne abzubiegen, ein Zeichen für einen Fahrfehler. Bei einem autonomen System deutet dies auf eine Fehlklassifizierung der Straßenführung oder eine Übergewichtung von Kartendaten gegenüber visuellem Kontext hin.
Besorgniserregender als das Phantomblinken in Kurven sind Berichte, dass das Fahrzeug Navigationsanweisungen vollständig ignoriert. Tester bemerkten Fälle, in denen das Auto ein Signal entgegengesetzt zur Routenführung aktivierte – links blinkte, wenn die Karte eine Rechtskurve anzeigte. Diese Trennung zwischen dem Planer (Navigation) und dem Akteur (Fahrzeugsteuerung) weist auf ein tieferes Integrationsproblem in diesem spezifischen Build hin.
Parklogik: Der Kampf mit der Objektidentifikation
Automatisiertes Parken war für Tesla schon immer eine gemischte Sache, aber v14.2.2.5 scheint erhebliche Schwierigkeiten mit der Logik der Parkplatzwahl zu haben. Während die mechanische Ausführung des Parkens – das Einlenken in eine Parklücke – weiterhin kompetent ist, hat der Entscheidungsprozess des Systems, wo geparkt werden soll, gravierende Fehler gezeigt.
Zwei spezifische Vorfälle verdeutlichen diese Regression:
- Der Schneehaufen-Vorfall: Das System versuchte, rückwärts in eine Parklücke zu fahren, die zu etwa 60 % von einem sechs Fuß hohen Schneehaufen belegt war. Dies deutet auf einen Fehler in der semantischen Segmentierungsfähigkeit des Belegungsnetzes hin, bei dem das System die Schneemasse nicht als festes, unüberwindbares Hindernis identifizieren konnte.
- Der Einkaufswagen-Fehler: In einem anderen Fall versuchte das Fahrzeug, in einer Parklücke zu parken, die von einem herrenlosen Einkaufswagen belegt war. Während ein menschlicher Fahrer solche Gefahren instinktiv vermeidet, um Lackschäden zu verhindern, betrachtete das FSD-System den Platz als gültig.
Interessanterweise funktioniert die „Autopark“-Funktion – bei der der Fahrer manuell einen Parkplatz auswählt und das Auto das Manöver ausführt – weiterhin gut. Der Fehler liegt in der autonomen „Suchen und Auswählen“-Logik, bei der die KI die Machbarkeit eines Platzes interpretieren muss. Solange das System nicht zuverlässig zwischen einem leeren Platz und einem mit Schnee oder Trümmern gefüllten Platz unterscheiden kann, bleibt echte „Tür-zu-Tür“-Autonomie unerreichbar.
Beispiellose Sicherheitsgewinne: Schulzonen und Wildtiere
Trotz der betrieblichen Eigenheiten hat v14.2.2.5 Sicherheitsverhaltensweisen eingeführt, die unbestreitbar beeindruckend sind und einen bedeutenden Fortschritt für die Plattform darstellen. Zum ersten Mal haben langjährige Tester berichtet, dass das Fahrzeug aktive Schulzonen und Wildgefahren ohne menschliches Eingreifen korrekt identifiziert und sich daran angepasst hat.
Anpassung an Schulzonen
In einer bemerkenswerten Premiere für viele Benutzer zeigte das Update die Fähigkeit, in einer gekennzeichneten Schulzone langsamer zu fahren. Entscheidend ist, dass das System nicht nur blind einer Kartendatenbankgeschwindigkeit folgte; es passte sich dem Verkehrsfluss an und fuhr mit 20 Meilen pro Stunde statt der vorgeschriebenen 15 Meilen pro Stunde, um sich den umliegenden Autos anzupassen. Dieses nuancierte Verhalten – das Gleichgewicht zwischen strikter gesetzlicher Einhaltung und der Realität des Verkehrsflusses – ist ein Kennzeichen menschlichen Fahrens und eine hochentwickelte Entwicklung für die KI.
Tierschutz
Der wohl wichtigste Erfolg dieser Veröffentlichung war ein dokumentierter Fall, bei dem es um ein Reh ging. Während einer Fahrt an einem regnerischen, nebligen Abend – Bedingungen, die bekanntermaßen Computer-Vision-Systeme plagen – identifizierte das FSD-System erfolgreich ein Reh auf einem Feld am Straßenrand. Das Fahrzeug verlangsamte präventiv, um die Möglichkeit zu antizipieren, dass das Tier die Straße überqueren könnte.
Diese Fähigkeit unterstreicht den Fortschritt der Belegungsnetzwerke von Tesla und ihre Fähigkeit, in Umgebungen mit schlechter Sicht zu funktionieren. Das Erkennen eines biologischen Objekts mit unvorhersehbaren Bewegungsmustern bei Regen und Nebel ist eine massive technische Hürde. Die Tatsache, dass das Auto auf das Reh reagierte, bevor es zu einem unmittelbaren Hindernis wurde, deutet auf eine prädiktive Fähigkeit hin, die ländliche Unfälle erheblich reduzieren könnte.
Navigation: Die hartnäckige Achillesferse
Während sich der Wahrnehmungs-Stack (was das Auto sieht) verbessert, bleibt der Planungs-Stack (wohin das Auto fahren will) eine Quelle der Frustration. Die Überprüfung von v14.2.2.5 beschreibt eine Navigationslogik, die „immer noch schlecht ist“, insbesondere in komplexen Wohngebieten.
Das System hat weiterhin Schwierigkeiten beim Ein- und Ausfahren in Wohngebieten. Ein wiederkehrendes Problem ist der Versuch des Fahrzeugs, eine „Nur Rechtsabbieger“-Ausfahrt zu benutzen, wenn die Navigationsroute eine Linksabbieger erfordert. Trotz wiederholter Versuche und Sprachfeedback an Tesla scheitert das System daran, die korrekte Ausfahrtsgeometrie zu „lernen“. Dies impliziert, dass Kartendaten-Updates nicht schnell genug verbreitet werden oder der lokale Pfadplaner Karteneinschränkungen aufgrund falscher visueller Daten überschreibt.
Darüber hinaus wählt die Routing-Engine oft verwirrende Pfade für einfache Fahrten und nimmt Umwege statt direkter Linien. Diese Ineffizienz ist ein großes Ärgernis für Benutzer, die erwarten, dass das Auto nicht nur sicher, sondern auch intelligent fährt.
Fazit: Ein Sprungbrett mit rauen Kanten
Teslas FSD v14.2.2.5 ist ein Beleg für die Komplexität der Lösung autonomen Fahrens. Es ist eine Veröffentlichung, die den visionsbasierten Ansatz des Unternehmens durch den beeindruckenden Umgang mit Wildtieren und Schulzonen bestätigt und beweist, dass die Kameras die Welt besser denn je sehen und verstehen können. Die Regressionen bei der grundlegenden Signalisierung, der Parklogik und der Navigation erinnern jedoch schmerzlich daran, dass der „Marsch der Neunen“ – der Weg zu 99,9999 % Zuverlässigkeit – kein linearer Pfad ist.
Für den Verbraucher ist diese Veröffentlichung in der Tat verwirrend. Sie verlangt vom Fahrer, dem Auto zu vertrauen, ein Reh im Nebel zu erkennen, während er gleichzeitig an seiner Fähigkeit zweifelt, einen Blinker korrekt zu verwenden. Während Tesla seine neuronalen Netze mit dem massiven Zustrom von Videodaten aus der Flotte weiter trainiert, werden die Benutzer hoffen, dass die nächste Iteration diese Extreme harmonisiert und die grundlegende Betriebslogik auf das Niveau der neu gewonnenen Sicherheitsfähigkeiten des Fahrzeugs bringt. Bis dahin bleibt Wachsamkeit der wichtigste Bestandteil des FSD-Erlebnisses.