Zum Inhalt springen
Morbo

Tesla Inc. (TSLA)

Empfohlene Beiträge

Limit
· bearbeitet von Limit

 

Zitat

Wie man ernsthaft annehmen kann, dass Tesla Radar über den Jordan schickt, ohne zu wissen, dass das funktioniert: Wie verblendet muss man eigentlich sein, um so etwas zu glauben? 

Was hältst du von dieser Hypothese: Tesla hat wegen der allgemeinen Chipknappheit Probleme essentiellen Chips für das Radar zu bekommen, da man aber die Produktion nicht entsprechend drosseln bzw. einstellen will, verkauft man sie ohne Radar. Stattdessen verwertet man einfach die Kameradaten wieder um eine Art Pseudo-Radar zu basteln, das zwar nicht so gut wie echtes Radar ist, aber für eine gewisse Basisfunktionalität ausreicht und damit die Konsumer keine Sicherheitsbedenken haben, erzählt man ihnen die Geschichte, dass das NN sowieso alles ausgleichen kann.

 

Zitat

Es ist genau das Gegenteil der Fall: Nehmen wir mal hypothetisch und kontrafaktisch an, Tesla möchte den Entwicklungsstand von Waymo erreichen. Werden sie nicht. Weil man "vision", also kamerabasierte Objekterkennung, nicht mit Lidar lösen kann.

Warum sollte irgendwer Objekterkennung mittels Lidar lösen wollen? Das ist Aufgabe des Kamerasystems, Lidar und Radar werden nur als zusätzliche Informationsquellen genutzt, da sie für ihre spezifischen Aufgaben bessere Datenqualität liefern als die Kameras.

 

Zitat

Mit anderen Worten: Waymo hat die Milliarden und Jahre völlig umsonst in den Sand gesetzt und ihre Technologie ist nicht alltagstauglich.

Es fühlt sich für mich befremdlich an, einen Wettbewerber bereits zum Sieger oder Verlierer zu erklären bevor irgendjemand das Ziel erreicht hat.

 

Zitat

Du hälst diese Aussage für übertrieben? Dann setzte ein Waymo Taxi dort ab, wo es keine Karte gibt. Game Over.

Bei Waymo hapert es also daran, dass es nicht ausreichend Kartenmaterial gibt? Das hört sich für mich nach einem lösbaren Problem an. Es mag jede Menge Zeit und Geld kosten, aber eine Lösung des Problems ist bekannt. Bei Tesla auf der anderen Seite gibt es immer noch systemische Probleme und wer sich mit der Geschichte von maschinellem Lernen auskennt, weiß, dass sie voll von ambitionierten Projekten ist, die eine ganze Weile sehr vielversprechend aussahen, dann aber stecken blieben und niemals die erhofften Ergebnisse liefern konnten. Vielleicht wird Tesla zu den Ausnahmen gehören, bei denen es am Ende funktioniert, vielleicht aber auch nicht. Der Punkt ist, dass man bei der Entwicklungsphilosophie von Tesla es erst dann wissen wird, wenn es fertig ist und funktioniert – oder eben nicht.

 

Zitat

Was meinst du mit kompensieren? Wenn du, um bei Musk Analogie zu bleiben, als Mensch im Regen, Nebel oder Schnee fährst, geht das ohne Lidar, ohne Radar? Ja. Für die Abstandskollision gibt's ja noch den Ultraschall. Also muss es auch maschinell gehen,

Dir ist schon bewusst, dass es bei schlechten Witterungsbedingungen sehr viel mehr Unfälle als bei gutem Wetter gibt. Es scheint also durchaus Verbesserungspotential in diesem Bereich zu geben und wenn Lidar und Radar für eine Verbesserung sorgen, wäre es dann nicht fahrlässig darauf zu verzichten?

 

Zitat

und wenn Tesla die Radar in US nicht mehr verbaut, heißt es, dass sie es ohne für ausgereift genug halten, logischerweise.

Wenn eine kompetente, unabhängige dritte Partei es für ausgereift genug halten würde, wäre das ein Argument. Für Tesla gibt es andere Anreize es zu tun, egal ob es ausgereift genug ist oder nicht (z.B. Kosten oder Lieferbarkeit). Sie mögen ein System haben, dass ähnliche Funktionalität besitzt, das sagt aber nichts über die Qualität und Zuverlässigkeit der Ergebnisse aus.

 

Zitat

Auch Kritiker Musk müssen zugeben, dass er eine sehr klaren Weg aufzeigt, wie Autonomie erreicht werden soll.

Er hat eine sehr klare Vision wie es funktionieren soll und in der Theorie ist es möglich, dass es funktioniert, d.h. aber noch lange nicht, dass es wahrscheinlich ist, insbesondere, wenn man sich das Leben selbst schwerer macht indem man auf zusätzliche Sensoren verzichtet.

 

Zitat

Wenn man mehrere Kameras hat, dann ist das redundant. Im selben Moment hat man mehrere Winkel, kann mittels Objekterkennung Annahmen treffen, und diese einem Moment später verifizieren: Bis dahin ist etwas Zeit vergangen und Weg zurück gelegt. 

Natürlich funktioniert das im Prinzip, selbst die alten Griechen wussten das schon. Das Problem ist die Präzision bzw. Zuverlässigkeit und den Ergebnissen in der PDF, die du gepostet hat, zu Folge deutlich schlechter als Lidar, insbesondere bei nicht optimalen Randbedingungen wie sie in der realen Welt nun einmal vorkommen.

 

Zitat

Das ist kein Versprechen, sondern eine Tatsache.

Das gibt ein eindeutiges Jein von mir. Betrachtet man das ganze rein theoretisch, dann könnte man es als Tatsache ansehen, denn Menschen fahren ja auch und benutzen dafür auch in erster Linie ihre beiden "Kameras". Diese Betrachtungsweise hat allerdings nicht viel mit der praktischen Umsetzbarkeit zu tun, denn das menschliche Auge ist den verbauten Kameras in vielerlei Hinsicht weit überlegen und auch das menschliche Gehirn, dass die gewonnenen Daten aufbereitet und verarbeitet ist sehr viel leistungsfähiger als die Rechner, die Tesla verbaut. Reicht es dennoch um die versprochene Funktionalität zu liefern? kA, aber dass dem so ist, müsste Tesla erst einmal in der Praxis beweisen und deswegen ist mMn mehr Versprechen als Tatsache.

 

Zitat

Kein anderer Anbieter hat eine vergleichbar ausgestattete Flotte auf der Straße. Punkt.

Kein Anbieter benutzt Kameras und NNs? Das musst du mal näher erläutern.

 

Zitat

Wenn man "vision" mit Kameras gelöst hat, hat man alle Fähigkeiten von Lidar, nur mit besserer Auflösung und günstiger. Eben Psuedo-Lidar.

Man hat die gleiche Funktionalität, nur eben nicht in gleicher Qualität.

 

Zitat

Es gibt keinen Grund, auf die falsche Technolologie zu setzen, und es gibt keinen Grund, nicht mehr benötigte Technolologie weiterhin zu verbauen.

Wie gesagt, es ist keine Ja/Nein-Frage, es geht auch darum welche Qualität die gelieferten Daten haben und bisher reicht Pseudo-Lidar bei weitem noch nicht an echtes Lidar heran und selbst wenn das jemals der Fall wird (unwahrscheinlich), gibt es durchaus noch gute Gründe warum man Lidar trotzdem weiter benutzen sollte, so können Kameras z.B. geblendet werden oder die Ausleuchtung ist einfach zu schlecht für eine zuverlässige Objekterkennung. In beiden Fällen könnte Lidar dazu benutzt werden diese Schwächen auszugleichen. Das gilt natürlich auch andersherum, es gibt auch Fälle wo das Lidar Probleme hat, die Kameras aber nicht. Deswegen ist es ja sinnvoll beides zu benutzen. Je mehr verschiedenartige Datenquellen man hat, desto zuverlässiger wird das System funktionieren.

 

Diesen Beitrag teilen


Link zum Beitrag
YingYang
· bearbeitet von YingYang
vor 11 Stunden von herbert_21:

Wenn man "vision" mit Kameras gelöst hat, hat man alle Fähigkeiten von Lidar, nur mit besserer Auflösung und günstiger. Eben Psuedo-Lidar. Es gibt keinen Grund, auf die falsche Technolologie zu setzen, und es gibt keinen Grund, nicht mehr benötigte Technolologie weiterhin zu verbauen.

 

Ich habe mir jetzt nicht alle technischen Details, Whitepapers und Behauptungen angesehen. Aber wie sieht den die Lösung über "vision" bei folgenden Randbedingungen aus:

 

- Dichter Nebel

- Schneetreiben

- Blendende Fahrzeuge

- Spiegelnde Oberflächen

u.v.m.

 

Das sind recht simple Szenarien. Einfach mal beschreiben wie diese Probleme alleine mit Kameras gelöst werden. Denn das muss bei Level 5 Autonomie zwingend der Fall sein.

 

 

LIDAR erkennt bei diesen Bedingungen problemlos Objekte. Dass eine Kamera dies kann, erscheint mir unwahrscheinlich. Aber ich lasse mich gerne eines Besseren belehren. Ich habe auch noch keine Tesla-Video gesehen, in dem das System bei dichtem Nebel o.ä. unterwegs war.

Diesen Beitrag teilen


Link zum Beitrag
Halicho
· bearbeitet von Halicho
vor 12 Stunden von herbert_21:

Wenn man "vision" mit Kameras gelöst hat, hat man alle Fähigkeiten von Lidar, nur mit besHserer Auflösung und günstiger. Eben Psuedo-Lidar. Es gibt keinen Grund, auf die falsche Technolologie zu setzen, und es gibt keinen Grund, nicht mehr benötigte Technolologie weiterhin zu verbauen.

Mit Kameras lässt sich der Abstand nicht sicher bestimmen. Das ist keine Frage der Technologie. Dafür braucht man, unabhängig vom technologischen Niveau z.B.

 

ein Maßband, einen Zollstock,  Körpermaße wie Schritte, Füße, Ellen, einen Ultraschallsensor, ein Lidar, ein Radar. Eine Kamera ist ungeeignet und Ultraschall nur im Nahbereich verwendbar.

 

 

 

 

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor 14 Minuten von Halicho:

Mit Kameras lässt sich der Abstand nicht sicher bestimmen. Das ist keine Frage der Technologie. Dafür braucht man, unabhängig vom technologischen Niveau z.B.

 

ein Maßband, einen Zollstock,  Körpermaße wie Schritte, Füße, Ellen, einen Ultraschallsensor, ein Lidar, ein Radar. Eine Kamera ist ungeeignet und Ultraschall nur im Nahbereich verwendbar.

 

Naja, wir Menschen können Abstände mit unseren beiden Augen schon abschätzen. Ausreichend genau jedenfalls, um uns im Raum recht zuverlässig fortzubewegen, auch am Steuer eines Fahrzeugs. Entsprechend könnte man das, in der Theorie zumindest, auch mittels zweier (oder mehr) Kameras erreichen. Übrigens kann man auch mit nur einem Auge noch Abstände abschätzen, nur halt nicht mehr so zuverlässig.

 

Es wird bei der Frage mal wieder die Leistungsfähigkeit des menschlichen Gehirns unter und die der aktuell verfügbaren Maschinen/NN überschätzt.

 

Was schlechtes Wetter angeht, so passt sich der Mensch halt an. Er schätzt die Situation ein und verhält sich (halbwegs) angepasst. Wenn es schneit und stürmt, fährt er (hoffentlich) langsamer und defensiver. Wenn die Scheibe nicht mehr frei ist oder man kaum noch etwas sieht, so wird er anhalten oder nur noch extrem langsam fahren.

 

Da sind wir halt wieder beim Thema Entscheidungen. Mag ja sein, dass man in etlichen Jahren die Objekterkennung auch unter widrigen Bedingungen hinbekommt, sei es unter Hinzunahme von Radar oder ohne, aber die immer richtigen und klugen Entscheidungen auf dieser Basis zu treffen, das ist eine ganz andere Liga. Ein Affe, wie auch fast alle wesentlich weniger intelligenten Tiere, kann zuverlässig Objekte erkennen und sich im Raum bewgen. Auto fahren kann er deshalb aber noch lange nicht.

Diesen Beitrag teilen


Link zum Beitrag
YingYang
vor 26 Minuten von Dandy:

Naja, wir Menschen können Abstände mit unseren beiden Augen schon abschätzen. Ausreichend genau jedenfalls, um uns im Raum recht zuverlässig fortzubewegen, auch am Steuer eines Fahrzeugs. Entsprechend könnte man das, in der Theorie zumindest, auch mittels zweier (oder mehr) Kameras erreichen. Übrigens kann man auch mit nur einem Auge noch Abstände abschätzen, nur halt nicht mehr so zuverlässig.

Da täuscht du dich glaube ich.

Nicht unsere Augen schätzen Abstände, sondern meistens schätzt man Abstände anhand von Erfahrungswerten aufgrund von Fixpunkten.

Warst du schonmal in einem Museum für optische Täuschungen? Da gibt es einige Dinge, die dir Vorgaukeln Sachen wären sehr groß oder sehr klein. Das ist nur möglich, weil das Mindset so ist, dass du zum Beispiel mit einem Stuhl immer ein Objekt assoziierst, das eine Größe von 50-70cm hat.

Hier zum Beispiel bei Stelle 0:55

Optische Täuschungen. Was sieht? Auge oder Gehirn? - YouTube

 

 

Diesen Beitrag teilen


Link zum Beitrag
Halicho
· bearbeitet von Halicho
vor 12 Stunden von Dandy:

Naja, wir Menschen können Abstände mit unseren beiden Augen schon abschätzen. 

Aber nicht messen. Und das ist erforderlich so man denn mit autonomen Fahrzeugmagen die Gefahren im Straßenverkehr reduzieren und nicht erhöhen will.

 

Die Billigkameras im Tesla sind dem menschlichem Auge ebevdo massiv unterlegen wie der Rechner. Nur genaues messen ermöglicht Gefahrreduktion durch Assistenten bzw später autonome Systeme. 

 

 

vor 12 Stunden von Dandy:

Übrigens kann man auch mit nur einem Auge noch Abstände abschätzen, nur halt nicht mehr so zuverlässig.

Handwerker ohne Computer und Lasertechnik werfen zur Abstandsmessung keine Murmeln, sondern messen mit dem Zollstock.

vor 12 Stunden von Dandy:

Ein Affe, wie auch fast alle wesentlich weniger intelligenten Tiere, kann zuverlässig Objekte erkennen und sich im Raum bewgen.

Ein Affe ist genetisch fast mit uns identisch. Während ein Tesla nicht fast identisch mit anderen Fahrzeugen, die so autonom sein wollen wie er.

Diesen Beitrag teilen


Link zum Beitrag
Dandy
vor 6 Minuten von Halicho:

Aber nicht messen. Und das ist erforderlich so man denn mit autonomen Fahrzeugmagen die Gefahren im Straßenverkehr reduzieren und nicht erhöhen will.

Wenn es wirklich nötig wäre, dann könnten Menschen keine Autos fahren. Die Abschätzung über des menschlichen Sichtapparates zusammen mit der Leistungsfähigkeit unseres Gehirns reicht ja offensichtlich dazu aus.

vor 6 Minuten von Halicho:

Die Billigkameras im Tesla sind dem menschlichem Auge ebevdo massiv unterlegen wie der Rechner. Nur genaues messen ermöglicht Gefahrreduktion durch Assistenten bzw später autonome Systeme. 

Klar ist es besser, will ich auch nicht bestreiten. Menschen haben nun mal kein Radar verbaut, können also solche Signale auch nicht heranziehen. Es geht ohne, besser ist es aber immer, mehr und präzisere Informationen zu haben. Daher bin ich mir auch sicher, dass Lidar und ähnliche Systeme, zusammen mit Kameras (!), eine bessere Lösung liefern als eine Lösung nur mit einem der beiden Systeme. Das von Musk zitierte Entscheidungsproblem existiert nicht. Vielmehr müssen die Informationen zusammengeführt werden um zu einer bessern Übersicht zu kommen. Damit kann man die kognitiven Einschränkungen verringern.

vor 6 Minuten von Halicho:

Handwerker ohne Computer und Lasertechnik werfen zur Abstandsmessung keine Murmeln, sondern messen mit dem Zollstock.

Auch ein Handwerker fährt ohne Zollstock Auto. Eine exakte Bestimmung der Entfernungen ist dafür nicht nötig. Die Abschätzung reicht.

 

Zitat

Da täuscht du dich glaube ich.

Nicht unsere Augen schätzen Abstände, sondern meistens schätzt man Abstände anhand von Erfahrungswerten aufgrund von Fixpunkten.

Räumliches sehen und damit relativ präzise Abschätzungen von Entfernungen benötigen zwei Augen. Man kann viel mit Erfahrung kompensieren, das ist richtig und habe ich auch erwähnt (auch mit einem Auge darf man unter gewissen Umständen noch Auto fahren), aber dennoch ist man damit eingeschränkt, insbesondere was die präzise Entfernung von Abständen angeht. Halte mal ein Auge zu und greife nach Gegenständen in deiner Umgebung und du wirst sehen, was ich meine.

Diesen Beitrag teilen


Link zum Beitrag
YingYang
· bearbeitet von YingYang
vor 33 Minuten von Dandy:

Räumliches sehen und damit relativ präzise Abschätzungen von Entfernungen benötigen zwei Augen. Man kann viel mit Erfahrung kompensieren, das ist richtig und habe ich auch erwähnt (auch mit einem Auge darf man unter gewissen Umständen noch Auto fahren), aber dennoch ist man damit eingeschränkt, insbesondere was die präzise Entfernung von Abständen angeht. Halte mal ein Auge zu und greife nach Gegenständen in deiner Umgebung und du wirst sehen, was ich meine.

Die räumliche Abschätzung funktioniert recht gut bei geringen Entfernungen, also im Grunde alles was in Reichweite deiner Hände ist. Je weiter die Entfernung, desto schlechter funktioniert es. Die Abstände misst du indirekt über die Winkelunterschiede im Dreieck der Augen zum Gegenstand. Wenn aber das Objekt weiter entfernt ist, funktioniert das nicht mehr, da der Unterschied zu gering wird. Die Augen sind nur ein paar cm voneinander entfernt. Die Winkel gehen gegen 90°, was das Dreieck in der Unendlichkeit zu einer Gerade werden lässt. Ich hoffe das war einigermaßen verständlich ausgedrückt.

 

Musste auch mal nachschauen: Man geht davon aus, dass räumliches Sehen und damit das Abschätzen von Entfernungen bei einem Abstand von 6-10 Meter noch gut möglich sind. 

Diesen Beitrag teilen


Link zum Beitrag
se7eneo
· bearbeitet von mv71

Wieso wird der Radar eigentlich nur in den Nordamerikanischen Model 3 und Y gestrichen?

 

Funktioniert Vision in den anderen Ländern und Model S und X nicht?

 

Bitte eine Erklärung von den Experten holgerli und herbert_21, damit ich es verstehe.

Diesen Beitrag teilen


Link zum Beitrag
Limit
· bearbeitet von Limit
vor einer Stunde von YingYang:

Die räumliche Abschätzung funktioniert recht gut bei geringen Entfernungen, also im Grunde alles was in Reichweite deiner Hände ist. Je weiter die Entfernung, desto schlechter funktioniert es. Die Abstände misst du indirekt über die Winkelunterschiede im Dreieck der Augen zum Gegenstand. Wenn aber das Objekt weiter entfernt ist, funktioniert das nicht mehr, da der Unterschied zu gering wird. Die Augen sind nur ein paar cm voneinander entfernt. Die Winkel gehen gegen 90°, was das Dreieck in der Unendlichkeit zu einer Gerade werden lässt. Ich hoffe das war einigermaßen verständlich ausgedrückt.

Ich hab mal ein bisschen herumgerechnet. Bei einem Abstand der beiden Kameras von 1m und einem Abstand zum Objekt von 300m hat man einen Winkel von 89,904527° sofern sich das Objekt mittig vor dem Auto befindet. Ich kenne die genauen Spezifikationen der Tesla-Kameras nicht, aber was ich im Netz finden konnte ist eine Angabe von 1,2MPixel. Für eine Beispielrechnung gehe ich mal von normalen Breitbildformat und einer FoV von 50° aus (etwa menschliches Blickfeld). Das würde etwa 1460 Pixel Breite ergeben. Das würde bedeuten ein Pixel entspräche ungefähr 0,03°. Das ist die kleinste Einheit, die man mit einer solchen Kamera messen könnte. Eine Abweichung von nur einem Pixel würde einen Entfernungsunterschied von über 100m ergeben. Bei einer Entfernung von 200m wäre der Fehler immer noch bei über 40m.

Dies ist nur eine Beispielrechnung, mit mehr Kameras, weniger FoV und/oder breiterem Bild ließe sich dieser Fehler noch verringern, aber ich denke es wird ersichtlich, dass eine genaue Entfernungsmessung mit dieser Methode nicht ohne weiteres machbar ist.

Diesen Beitrag teilen


Link zum Beitrag
Michalski
· bearbeitet von Michalski
vor 20 Minuten von Limit:

Ich hab mal ein bisschen herumgerechnet. Bei einem Abstand der beiden Kameras von 1m und einem Abstand zum Objekt von 300m hat man einen Winkel von 89,904527° sofern sich das Objekt mittig vor dem Auto befindet. Ich kenne die genauen Spezifikationen der Tesla-Kameras nicht, aber was ich im Netz finden konnte ist eine Angabe von 1,2MPixel. Für eine Beispielrechnung gehe ich mal von normalen Breitbildformat und einer FoV von 50° aus (etwa menschliches Blickfeld). Das würde etwa 1460 Pixel Breite ergeben. Das würde bedeuten ein Pixel entspräche ungefähr 0,03°. Das ist die kleinste Einheit, die man mit einer solchen Kamera messen könnte. Eine Abweichung von nur einem Pixel würde einen Entfernungsunterschied von über 70m ergeben. Bei einer Kamera mit weniger FoV oder mehr Pixeln in der Breite wäre der Wert noch etwas kleiner und mit mehr Kameras ließe sich der Fehler ebenfalls noch verringern, aber diese Beispielrechnung sollte dennoch zeigen, dass selbst geringste Fehler bei der Winkelmessung gewaltige Fehler bei der berechneten Entfernung ergeben.

Tesla nutzt 3 Kameras nach vorn, die in einer Unit dicht beieinander sitzen:

 

ILLUS1_TESLA_MODEL3_Sensors_Computing_SYSTEMPLUSCONSULTING_June2020.jpg 

 

Die Triple-Forward-Kamera des Tesla Model 3 verfügt über drei CMOS-Bildsensoren des ON Semi AR0136A mit 3,75 µm Pixelgröße bei 1280×960 (1,2 MP) Auflösung. Hier die Winkel:

 

ILLUS3_TESLA_MODEL3_ForwardCameras_SYSTE

 

Quelle: Teardown Tesla’s Hardware Retrofits for Model 3 - EE Times Asia (eetasia.com)

Hier das Sichtfeld, das sie abdecken sollen (Grafik von https://www.tesla.com/autopilot):

 

4d668d7bb8d6cc55558fa1216a08e4fdfaf540b3.png

 

Tesla ist seit fast 10 Jahren auf dem kompletten Holzweg, was Autonomes Fahren angeht. Das sieht man auch an den haarsträubenden Prognosen von Elon Musk. Das die Lösung nicht marktreif ist, sieht man vor allem auch daran, dass sie den Radarsensor entfernen und dafür lieber Sicherheitsfähigkeiten des Autos opfern.

Diesen Beitrag teilen


Link zum Beitrag
YingYang
· bearbeitet von YingYang
vor 23 Minuten von Limit:

Ich hab mal ein bisschen herumgerechnet. Bei einem Abstand der beiden Kameras von 1m und einem Abstand zum Objekt von 300m hat man einen Winkel von 89,904527° sofern sich das Objekt mittig vor dem Auto befindet. Ich kenne die genauen Spezifikationen der Tesla-Kameras nicht, aber was ich im Netz finden konnte ist eine Angabe von 1,2MPixel. Für eine Beispielrechnung gehe ich mal von normalen Breitbildformat und einer FoV von 50° aus (etwa menschliches Blickfeld). Das würde etwa 1460 Pixel Breite ergeben. Das würde bedeuten ein Pixel entspräche ungefähr 0,03°. Das ist die kleinste Einheit, die man mit einer solchen Kamera messen könnte. Eine Abweichung von nur einem Pixel würde einen Entfernungsunterschied von über 100m ergeben. Bei einer Entfernung von 200m wäre der Fehler immer noch bei über 40m.

Dies ist nur eine Beispielrechnung, mit mehr Kameras, weniger FoV und/oder breiterem Bild ließe sich dieser Fehler noch verringern, aber ich denke es wird ersichtlich, dass eine genaue Entfernungsmessung mit dieser Methode nicht ohne weiteres machbar ist.

Sehe ich auch so. Man kann dann über zusätzliche Parameter (Änderung der Größe des Objektes in Abhängigkeit der Geschwindigkeit, Position in Abhängigkeit von unbeweglichen Objekten, etc.) den Fehler verringern. Ob das in jeder Situation und vor allem in Millisekunden geschehen kann, wage ich auch zu bezweifeln. Alleine, dass man die Bewegung eines Objektes abwarten muss um diesen Parameter bewerten zu können, dauert eben wertvolle Zeit.

Diesen Beitrag teilen


Link zum Beitrag
reko
· bearbeitet von reko
vor 2 Stunden von YingYang:

Sehe ich auch so. Man kann dann über zusätzliche Parameter (Änderung der Größe des Objektes in Abhängigkeit der Geschwindigkeit, Position in Abhängigkeit von unbeweglichen Objekten, etc.) den Fehler verringern.

Man könnte das auch mit besseren Kameras in größeren Abstand verbessern. Gravierender finde ich, dass Tesla alle ruhende Objekte ausblendet, damit der Rechner mit dem Datenstrom klar kommt. Deshalb werden dann Feuerwehrautos,  Polizeiautos und LKWs gerammt.

Diesen Beitrag teilen


Link zum Beitrag
Halicho
· bearbeitet von Halicho
vor 5 Stunden von Dandy:

Wenn es wirklich nötig wäre, dann könnten Menschen keine Autos fahren. Die Abschätzung über des menschlichen Sichtapparates zusammen mit der Leistungsfähigkeit unseres Gehirns reicht ja offensichtlich dazu aus.

Der Mensch ist keine Maschine. Er kann Dinge erahnen, ist viel komplexer. Es ist vollkommen kindisch, Webcamkarren auf die Menschheit loszulassen. Sowas hat sich der Elektrotrump in der Hotbox ausgedacht.

vor 13 Minuten von reko:

Man könnte das auch mit besseren Kameras in größeren Abstand verbessern.

Die sind weit voneinander entfernt. Viel weiter geht's nicht. Messen können die nix. Ahnen bringt nix.

Diesen Beitrag teilen


Link zum Beitrag
reko
· bearbeitet von reko

Die Geschwindigkeit der Objekte schnell und genau einzuschätzen ist noch schwieriger. Bei 10m Entfernungsungenauigkeit und 10 Frames pro Sekunde ergibt 100m/s =  360 km/h Meßfehler.

 

Diesen Beitrag teilen


Link zum Beitrag
Hauerli

Was ich so faszinierend finde ist das blinde Vertrauen in die Entwicklungsleistung  von Tesla .

es kann hier von allen noch so Defizit und genau belegt werden wo die Probleme und Lücken liegen. Wenn man aber mit dem Glauben an die Sache geht, dass sie Ingenieure dafür schon eine Lösung finden/haben dann gibt es eben faktisch keine Probleme mehr und alles wird möglich. 
Ich kann verstehen dass man in so eine innovative und gehypte gewisse Hoffnungen setzt . 
ich finde es nur erstaunlich wie lange eben der Glaube aufrechterhalten obwohl diese Vorschusslorbeeren nicht zurück gezahlt werden  . 
 

solange dieses Urvertrauen in die leistbarkeit von Tesla nicht hinterfragt wird macht doch keinerlei Diskussion Sinn . 

Diesen Beitrag teilen


Link zum Beitrag
Halicho
· bearbeitet von Halicho
vor 11 Stunden von Dandy:

Auch ein Handwerker fährt ohne Zollstock Auto. Eine exakte Bestimmung der Entfernungen ist dafür nicht nötig. Die Abschätzung reicht

Das ist das Niveau der Fanbois. Man glaubt es kaum. Das Leseverständnis geht gegen null.

vor 11 Stunden von Dandy:

Wenn es wirklich nötig wäre, dann könnten Menschen keine Autos fahren. Die Abschätzung über des menschlichen Sichtapparates zusammen mit der Leistungsfähigkeit unseres Gehirns reicht ja offensichtlich dazu aus.

Du hälst doch nicht ernsthaft einen Rechner in einem heutigen Auto für assoziativ vergleichbar leistungsstark? Das ist ja vollkommen lächerlich.

vor 11 Stunden von Dandy:

Menschen haben nun mal kein Radar verbaut, können also solche Signale auch nicht heranziehen.

Sie fahren trotz ihrer überlegenen Sehleistung 1,2 Mpixel zum mehrere Petapixel gutem Auge nicht unfallfrei. Der Roboter soll weniger unsicher fahren und dafür muss er Objektentfernungen genau kennen. Ohne Mehrfeldlidar ist das nicht machbar und die müssen erst einmal neben schnelleren, billigeren und stromsparenderen Rechnern in den nächsten Jahren/Jahrzehnten entwickelt werden. Die Elektrotrumpbehauptungen bezüglich irgendwelcher autonomer Fahrfähigkeiten sind dreist erlogen.

Diesen Beitrag teilen


Link zum Beitrag
Dandy

Du verdrehst meine Argumente ins Gegenteil. Ich habe genau das angezweifelt. Vielleicht noch mal lesen, zwecks Leseverständnis und so? 

 

 

Diesen Beitrag teilen


Link zum Beitrag
reko
vor 4 Stunden von Michalski:

Tesla Vision ohne Radar funktioniert nachts nur, wenn das Fernlicht eingeschaltet ist. Wird wohl daran liegen, dass Kameraauflösung und Lichtempfindlichkeit zu gering sind. Das bedeutet, dass das Nachts nicht vernünftig funktioniert.

https://www.reddit.com/r/teslamotors/comments/nnf5ta/autopilot_requires_auto_high_beam_with_tesla/

Tesla läßt das Fernlicht einfach immer an. Solange kein anderer Tesla entgegenkommt und blendet ist das kein Problem. Ich gehe davon aus, dass die Kameras enpfindlicher für Blendung sind als das menschliche Auge. Aber beim geringen Tesla Anteil im Verkehr kommt das nicht häufig vor.

Diesen Beitrag teilen


Link zum Beitrag
fancY
vor 14 Stunden von reko:
vor 19 Stunden von Michalski:

Tesla Vision ohne Radar funktioniert nachts nur, wenn das Fernlicht eingeschaltet ist.

https://www.reddit.com/r/teslamotors/comments/nnf5ta/autopilot_requires_auto_high_beam_with_tesla/

Tesla läßt das Fernlicht einfach immer an.

Nicht ganz richtig. Automatisches Fernlicht bedeutet nicht, dass es immer an ist! Im Gegenteil Teslafahrer beklagen sich in dem Link oben, dass das automatische Fernlicht öfters mal unnötigerweise abblendet.

 

 

Tesla hat wohl im neusten Update auch die Innenkamera zur Fahrerüberwachung im Autopilot-Modus aktiviert:

https://www.teslarati.com/tesla-activates-driver-monitoring-system/

Diesen Beitrag teilen


Link zum Beitrag
se7eneo

Halbleitermangel. Ganz einfach. Wieso sollte Tesla nicht die gleichen Probleme haben wie alle anderen Autobauer auch?

Diesen Beitrag teilen


Link zum Beitrag
Beamter48

Tesla ist doch kein Autobauer:o

 

Mal im Ernst; frag die Fanboys; Tesöa kann keinen Chipmangel haben wie die traditionellen Autobauer.. 

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...