Tesla pozwana po wypadku Cybertrucka z FSD. Czy to początek nowej fali sporów o autonomiczną jazdę?
Rozwój systemów wspomagania kierowcy w samochodach elektrycznych wchodzi w nową fazę – nie tylko technologiczną, ale również prawną. Najnowszy pozew złożony w Stanach Zjednoczonych przeciwko Tesli pokazuje, że spór o odpowiedzialność za wypadki z udziałem systemów autonomicznej jazdy, dopiero się zaczyna.
Sprawa dotyczy wypadku z udziałem Tesli Cybertruck korzystającej z systemu Full Self-Driving (FSD). W pozwie, który wzbudził ogromne zainteresowanie branży technologicznej i motoryzacyjnej, odpowiedzialność przypisywana jest nie tylko producentowi pojazdu. Ale także bezpośrednio Elonowi Muskowi.
Dla sektora elektromobilności i autonomicznej jazdy, to sprawa o znaczeniu znacznie większym niż pojedynczy wypadek.
Wypadek Cybertrucka – co wydarzyło się w Teksasie
Do zdarzenia doszło w sierpniu 2025 roku w okolicach Houston w stanie Teksas. Kierująca Teslą Cybertruck korzystała z systemu Full Self-Driving, gdy pojazd zbliżał się do rozjazdu na autostradzie I-69.
Według pozwu samochód:
• nie rozpoznał prawidłowo przebiegu drogi,
• nie podążył za zakrętem rampy autostradowej,
• zamiast tego pojechał prosto w betonową barierę znajdującą się na rozwidleniu drogi.
Kierująca twierdzi, że próbowała przejąć kontrolę nad pojazdem i wyłączyć system, jednak nie zdołała uniknąć kolizji. W wyniku wypadku doznała obrażeń, w tym urazów kręgosłupa i nadgarstka.
Na podstawie nagrania z kamery pojazdu – które według prawników zostało dołączone do pozwu – Cybertruck miał zboczyć z właściwego toru jazdy i uderzyć w przeszkodę. Bez wykonania manewru korekcyjnego trasy.
Pozew na ponad milion dolarów
Poszkodowana właścicielka Cybertrucka złożyła pozew w sądzie w hrabstwie Harris w Teksasie, domagając się odszkodowania przekraczającego 1 milion dolarów.
W pozwie pojawiają się trzy główne zarzuty wobec Tesli:
1. zaniedbanie w projektowaniu systemów autonomicznej jazdy,
2. wprowadzanie klientów w błąd co do możliwości technologii FSD,
3. brak odpowiednich zabezpieczeń awaryjnych w pojeździe.
Co ciekawe – i dość rzadkie w podobnych sprawach – dokumenty sądowe zawierają także bezpośredni zarzut wobec prezesa Tesli.
Elon Musk również w centrum pozwu
Prawnicy powódki twierdzą, że Tesla powinna ponosić odpowiedzialność, także za decyzje strategiczne podejmowane przez Elona Muska.
W pozwie pojawia się m.in. zarzut „negligent retention”, czyli utrzymywania na stanowisku menedżera, którego działania mogą szkodzić bezpieczeństwu produktu.
Argumentacja prawników opiera się na tezie, że:
• Elon Musk publicznie przecenia możliwości technologii autonomicznej jazdy,
• marketing Tesli sugeruje wyższy poziom autonomii niż faktyczny,
• decyzje projektowe – np. rezygnacja z technologii LiDAR – mogły ograniczyć zdolność systemu do wykrywania przeszkód.
W praktyce oznacza to próbę przeniesienia części odpowiedzialności za projekt technologii bezpośrednio na kierownictwo firmy.
Full Self-Driving – czym naprawdę jest ten system

Wbrew nazwie Tesla Full Self-Driving nie jest systemem autonomicznej jazdy w pełnym znaczeniu tego słowa.
Technologicznie jest to zaawansowany system wspomagania kierowcy (ADAS), który według klasyfikacji SAE należy do poziomu 2 autonomii. Oznacza to, że:
• pojazd może sterować kierownicą, przyspieszeniem i hamowaniem,
• ale kierowca musi przez cały czas nadzorować jazdę i być gotowy do przejęcia kontroli.
To fundamentalna różnica, która często staje się przedmiotem sporów sądowych. Krytycy twierdzą, że nazwa „Full Self-Driving” może sugerować pełną autonomię, której system faktycznie nie zapewnia.
Spory sądowe wokół Autopilota nie są nowością
Sprawa Cybertrucka wpisuje się w dłuższą historię sporów prawnych dotyczących technologii Tesli.
Według dostępnych danych w Stanach Zjednoczonych prowadzonych jest co najmniej kilka procesów dotyczących wypadków z udziałem Autopilota.
W jednym z najgłośniejszych przypadków z 2025 roku ława przysięgłych uznała Teslę częściowo odpowiedzialną za wypadek z udziałem Modelu S, nakładając na firmę 243 mln dolarów odszkodowania.
Jednocześnie w innych sprawach sądy przyznawały rację producentowi, uznając że kierowcy zostali wyraźnie poinformowani o konieczności nadzorowania systemu.
Kluczowe pytanie: kto odpowiada za wypadek samochodu z systemem FSD?
Sprawa Cybertrucka dotyka jednego z najważniejszych problemów przyszłej mobilności.
Gdzie kończy się odpowiedzialność kierowcy, a zaczyna odpowiedzialność producenta technologii?
W przypadku systemów poziomu SAE 2 – takich jak Autopilot – formalnie odpowiedzialność wciąż spoczywa na kierowcy. Jednak im bardziej zaawansowane stają się systemy wspomagania jazdy, tym trudniej utrzymać tę prostą zasadę.
Z punktu widzenia branży elektromobilności jest to fundamentalna kwestia, ponieważ:
• autonomizacja pojazdów będzie postępować,
• systemy AI będą podejmować coraz więcej decyzji na drodze,
• odpowiedzialność prawna stanie się jednym z kluczowych elementów rozwoju rynku.
Co ta sprawa oznacza dla przyszłości autonomicznej mobilności
Pozew przeciwko Tesli nie przesądza jeszcze o winie producenta. Sprawa dopiero trafiła do sądu, a Tesla nie przedstawiła jeszcze pełnej odpowiedzi procesowej.
Jedno jest jednak pewne.
Każdy taki proces:
• zwiększa presję regulacyjną na producentów,
• przyspiesza debatę o standardach bezpieczeństwa AI w pojazdach,
• może wpłynąć na sposób marketingu technologii autonomicznej jazdy.
Dla branży elektromobilności to wyraźny sygnał, że technologia rozwija się szybciej niż prawo, a systemy autonomiczne wchodzą w fazę intensywnej weryfikacji – nie tylko technologicznej, ale także prawnej.
Wnioski?
Z punktu widzenia rynku EV sprawa Cybertrucka pokazuje trzy kluczowe rzeczy:
Po pierwsze – autonomiczna jazda wciąż jest technologią przejściową.
Systemy ADAS mogą znacząco zwiększać bezpieczeństwo, ale nadal wymagają aktywnego nadzoru kierowcy.
Po drugie – komunikacja producentów ma ogromne znaczenie.
Sposób prezentowania możliwości technologii może mieć bezpośredni wpływ na odpowiedzialność prawną.
Po trzecie – regulacje prawne będą musiały nadążyć za AI w motoryzacji.
A to oznacza, że w najbliższych latach procesy sądowe, takie jak ten, będą jednym z głównych motorów kształtowania przyszłych zasad autonomicznej mobilności.
Klasyfikacja FSD na dzień dzisiejszy
Jak Tesla klasyfikuje FSD? Na dzień dzisiejszy czyli rok 2026.
Systemy autonomii klasyfikuje się według skali SAE International od 0 do 5.
• Poziom 0–2 – kierowca musi cały czas kontrolować auto
• Poziom 3 – auto prowadzi samo w określonych warunkach
• Poziom 4–5 – pełna autonomia
Tesla FSD
Obecnie znajduje się na poziomie 2.
To oznacza:
• samochód może sterować, przyspieszać i hamować
• ale kierowca musi stale nadzorować jazdę
• prawnie kierowca jest odpowiedzialny za wypadek
Dlatego Tesla w instrukcji pisze wyraźnie: „hands on wheel, pay attention”.
Dlaczego więc auta potrafią jechać setki kilometrów same?
To wynika z dwóch rzeczy:
1. System jest bardzo zaawansowany
2. Drogi i sytuacje są często przewidywalne
Nowe wersje FSD potrafią:
• jechać przez miasta
• zmieniać pasy
• skręcać na skrzyżowaniach
• reagować na światła
• parkować
Radzą sobie również bardzo dobrze na rondach. Dlatego w praktyce często wygląda to jak poziom 4, mimo że formalnie nim nie jest.
Co pisze na ten temat sama Tesla?
Oficjalne stanowisko Tesli wygląda następująco:
Na stronie producenta – system jest dziś nazywany Tesla Full Self-Driving (Supervised) i sama Tesla pisze wprost:
„FSD (Supervised) … nie czyni pojazdu autonomicznym i wymaga aktywnego nadzoru kierowcy.”
Czyli według samej Tesli:
• kierowca musi być cały czas uważny
• system nie zastępuje kierowcy
• odpowiedzialność pozostaje po stronie człowieka
Tak więc bardzo ciekawe jest to, jak zakończy się cała sprawa. Może to potrwać lata. Może też skończy się ugodą, zanim sprawa trafi na salę sądową. Ta opcja wydaje się po pierwsze bardzo prawdopodobna, a po drugie do bólu w amerykańskim stylu.
Fot: x.com/NotATeslaApp
WhatsApp us