• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

Googles selbststeuernde Autos

epiphora

aus Plastik
Veteran

Registriert
14 Juli 2013
Beiträge
3.894
Ort
DE-CIX
Google hat ein neues Video veröffentlicht, in dem ein bisschen was darüber erfährt, wie die Systeme mit Hindernissen umgehen:


Ich finde das wahnsinnig spannend und habe mir mal ein paar Gedanken zu möglichen Fällen gemacht, in denen das System Fehler macht. Die meisten Szenarien enden aber darin, dass das Auto einfach stehen bleibt. Fällt euch eventuell eine Schwachstelle ein?
 

tophirsch

erster Hirsch am Platze

Registriert
6 Aug. 2013
Beiträge
929
Ort
hinterm Wald
Ich vermute, dass die Steuerung mit neuronalen Netzen realisiert wird. Dann hängt es davon ab, wie gut das Netz trainiert wurde. Da ein neuronales Netz zu Generalisierung fähig ist, reagiert es auch auf Situationen, die ihm nicht antrainiert wurden. Nur wie, das lässt sich nicht immer 100% genau vorhersagen.
Also auch nicht mit Sicherheit, in welchen Situationen das System einen Fehler macht.

Interessant wird das Verhalten wahrscheinlich dann, wenn andere Verkehrsteilnehmer sich nicht an die Verkehrsregeln halten, die dem System antrainiert wurden.

Ich könnte mir vorstellen, dass bei den Entscheidungen noch so etwas wie ein Vertrauensniveau generiert wird. Wenn sich das System dann zu unsicher ist, bleibt das Auto stehen und es wird ein Eingreifen vom Fahrer verlangt.
 

epiphora

aus Plastik
Veteran

Registriert
14 Juli 2013
Beiträge
3.894
Ort
DE-CIX
  • Thread Starter Thread Starter
  • #3
Das halte ich auch für wahrscheinlich, aber auch wenn die Prognose für ein Steuerungssignal aus dem neuronalen Netz hervorgeht, muss es sich ja trotzdem auf die Sensoren verlassen, die vorhanden sind.

Aber Du hast recht, wenn die Teilnehmer unvorhersagbare Verhalten zeigen, wird das System so seine Probleme haben. Aber selbst wenn ein Fahrrad zum Beispiel plötzlich rückwärts fährt, würde das Auto vermutlich einfach stehen bleiben.

Eventuell wird das Fahren durch solche Systeme tatsächlich noch sicherer. Bessere Reaktionszeiten, kein toter Winkel, ...
 

tophirsch

erster Hirsch am Platze

Registriert
6 Aug. 2013
Beiträge
929
Ort
hinterm Wald
Das halte ich auch für wahrscheinlich, aber auch wenn die Prognose für ein Steuerungssignal aus dem neuronalen Netz hervorgeht, muss es sich ja trotzdem auf die Sensoren verlassen, die vorhanden sind.

Wie meinste das jetz?
Meinst du, ob das System Fehler macht, weil ein Hindernis/etc. von den Sensoren nicht wahrgenommen wird? Also, wenn dass das Problem wäre, dann würde ja ein Designfehler vorliegen. Dann kann ja die Steuerung nix dafür.
 

epiphora

aus Plastik
Veteran

Registriert
14 Juli 2013
Beiträge
3.894
Ort
DE-CIX
  • Thread Starter Thread Starter
  • #5
Der Sensor wird die Situation ja gar nicht in allen Dimensionen wahrnehmen können. Der sieht halt, OK, hier ist ein Hindernis, das ungefähr folgende Signatur hat. Im neuronalen Netz wird dann daraus eine Prognose gewürfelt, die dann beispielsweise so interpretiert (und in der Demo im Video dargestellt) wird: Da ist ein Fahrradfahrer, der bewegt sich in diese Richtung, also darf ich nur soundso-weit fahren, um nicht mit ihm zu kollidieren.

Klar, wenn der Sensor das Fahrrad gar nicht sieht, weil es beispielsweise aus licht-absorbierendem Material gebaut wurde oder warum auch immer, dann wäre das ein anderes Problem.

Aber es könnte natürlich auch sein, dass der Input für's neuronale Netz aufgrund anderer äußerer Einflüsse oder "unberechenbarem" Verhalten verfälscht wird. Dann würde ja trotzdem die falsche Prognose gemacht, auch wenn der Sensor korrekt arbeitet.

Mir ist bewusst, dass das alles sehr spekulativ ist und man eigentlich keine Aussagen treffen kann, ohne den genauen Aufbau zu kennen (und verstehen zu können :D). Vielleicht sind ja trotzdem ein paar Schwachstellen denkbar.
 

Seedy

A.C.I.D

Registriert
13 Juli 2013
Beiträge
22.591
Das Auto wird relativ hart nach den Sensoren arbeiten:
Wenn sich etwas unvorhersehbar verhält, dann ist das dem Auto eigentlich egal.
Es arbeitet ja nach Sensoreingaben und nicht nach Vermutungen.

Die einzigen Vermutungen die ein Auto anstellen kann wären auf Stochastischer Wahrscheinlichkeit kombiniert mit Sensor angaben.
Und da wird es immer die wahrscheinlichste Option nehmen, falls es mehrere gibt.

Das ist ein großer Taschenrechner.

Als mal ganz doof runter gebrochen:
Sensor sagt Hindernis, Auto bremst.

Mal ein hypothetisches Szenario:
Wenn mir ein Reh vor das Auto springt (ich komm vom Lande, da passiert das pro Jahr ungefähr 5 mal).
Auf die Bremse, so stark bremsen, wie es das Wetter und Auto hergeben, ohne das ich die Kontrolle verliere.
und dann hab ich entweder glück, oder Reh ist hin.

Jetzt ist es aber nen Kind:
Da würde ich so hart reagieren wie ich kann, auch wenn ich mein eigenes Auto dafür in den Graben lenken muss.
Jetzt hab ich aber Passagiere im Auto, fahre ich dann trotzdem in den Graben?
oder Gegenverkehr den ich mit gefährden würde.
wie entscheidet das Auto, was in dem Moment das Richtige ist?

(ich geh mal davon aus das Sensoren fehlerfrei arbeiten und Mensch und Tier unterschieden werden können)

stell ich mir schwierig zu programmieren vor :unknown:
 

Nerephes

Badass No. 1
Veteran

Registriert
16 Juli 2013
Beiträge
12.100
Ort
Borderland
@Seedy:

Der Vergleich mit Reh/Kind ist ausgezeichnet!

Darauf muss man erstmal kommen.

Da das Auto keine "Wahl zwischen Pest und Cholera" treffen kann, also "Überfahr ich lieber das Kind oder rausche ich beim Ausweichen in die Rentnergruppe?", kann das Auto da immer nur nach festgelegten Parametern arbeiten.

Da stehen die Programmierer schon vor einem heftigen ethischen Problem.
 

epiphora

aus Plastik
Veteran

Registriert
14 Juli 2013
Beiträge
3.894
Ort
DE-CIX
  • Thread Starter Thread Starter
  • #8
Na das Auto wird vermutlich einfach bremsen und es aufgrund der niedrigen Reaktionszeit vermutlich sogar schaffen. Ausweichen wäre viel zu riskant. Dazu wird bei Rehen ja nur deswegen geraten, weil man es als Mensch eben nicht schafft, rechtzeitig zu bremsen. Wenn man ohnehin kollidieren würde, bringt ja auch ein Ausweichmanöver aufgrund der Trägheit vom Auto nichts mehr.

Ich denke mal, insgesamt wird es aber eine Kombination aus beidem sein. Das neuronale Netz berechnet eine schlaue Vorgehensweise für eine sichere Fahrt in den nächsten Augenblicken und dieser Output wird nochmal geprüft und mit dem Abstandssensor verglichen. Wenn das System dann feststellt, dass unbedingt gebremst werden muss, da eine Kollision droht, wird der Output vom Netz wahrscheinlich verworfen und eine Vollbremsung eingelegt.
 

tophirsch

erster Hirsch am Platze

Registriert
6 Aug. 2013
Beiträge
929
Ort
hinterm Wald
Klar sind Schwachstellen denkbar. Immer dann, wenn dem neuronalen Netz eine Situation unterkommt, die total anders als alles Trainierte ist. Die Netze können zwar generalisieren, aber da kommt auch nur was sinnvolles raus, wenn eine ähnliche Situation schon mal trainiert wurde. Ansonsten, tja. Das Netz wird zwar schalten, aber ob das dann im Sinne der Insassen ist :D

Oder es kommen Situationen, die bei der Sensorik nicht bedacht wurden. Überschwemmung einer Brücke oder Steinschlag von oben(Berghang) etc.

@Seedy:
Das Entscheidungsverhalten wird - wenn es sich um eine Steuerung mittels neuronaler Netze handelt, wovon stark auszugehen ist - nicht fest einprogrammiert. Das Netz wird trainiert.
Mit einem sogenannten Teacher kannst du dir das so vorstellen:
Das Netz wird mit verschiedenen Situationen konfrontiert und entscheidet dann. Danach wird dem Netz per Feedback mitgeteilt, wie gut die Entscheidung war. Daraufhin passt sich das Netz entsprechend an, sodass es in einer ähnlichen Situation auch wieder ähnlich reagieren wird.
Ist diese Trainingsphase abgeschlossen, verändert sich das Netz nicht mehr, sondern reagiert nur noch.
Man kann das Netz natürlich auch weiter lernen lassen, aber übertreibt man es mit dem Training, verliert es seine Generalisierungsfähigkeit. Es wird sozusagen zum "Fachidiot".
Das mal stark vereinfacht dargestellt.


Man kann dem Netz natürlich auch beibringen, Menschen zu erkennen. Von sich aus wird es natürlich ein Kind nicht bevorzugt behandeln, da ihm das nötige Hintergrundwissen fehlt. Menschen trainieren ja ihr neuronales Netz mind. 16 Jahre lang, bevor sie motorisierte Gefährte bewegen dürfen ;)
Fraglich ist dann nur, ob man da alle Einzelheiten im Voraus bedenken kann. Aber kann man im Voraus mit Sicherheit sagen, wie ein Mensch in dieser und jener Situation reagiert?

--- [2014-04-29 14:29 CEST] Automatisch zusammengeführter Beitrag ---

Da das Auto keine "Wahl zwischen Pest und Cholera" treffen kann, also "Überfahr ich lieber das Kind oder rausche ich beim Ausweichen in die Rentnergruppe?"

Na ob ein Mensch da in einer Notsituation in der Geschwindigkeit so eine reflektierte Entscheidung trifft, das steht auch auf einem andern Blatt.
 

Seedy

A.C.I.D

Registriert
13 Juli 2013
Beiträge
22.591
@epiphora:
Das es eine viel schnellere Reaktionszeit und nach Berechnung bessere Fahrweise haben wird ist klar:
Es kann die Bremskraft auf den Newton genau berechnen, nach Wetter/Geschwindigkeit/Gewicht das beste tun.
Das kann ein Mensch nur mit Erfahrung kompensieren, wenn überhaupt.

Wenn ich meine Antriebstechnik unterlagen wieder finde, wir hatten mal ein Bauplan unserer Uni für sowas (wurde leider nie umgesetzt).
Das fuhr nach Sonar Laserabtastung.
Da sind die Sensoreingaben extrem zuverlässig und fast fehlerfrei.


ich hab ne Unfallstatistik angehängt von NDS 2012 1/4 alle Unfälle sind auf Fahrfehler zurück zu führen, denke das würde sich radikal verbessern.
 

Anhänge

  • statistikPNG.PNG
    statistikPNG.PNG
    247,5 KB · Aufrufe: 158

p3Eq

zu nichts zu gebrauchen

Registriert
15 Juli 2013
Beiträge
358
Ich glaube kaum, dass das Google Auto (ausschließlich) durch neuronale Netze gesteuert wird.
Wäre zwar eine interessante Idee, aber ich denke nicht, dass man sich auf einen Lernprozess, der zusätzlich noch außerhalb der Kontrolle von Google fortgesetzt wird (beim Fahren auf den Straßen), verlassen würde. Da liegen solide Algorithmen zugrunde, die zumal von der Rechen- und Speicherleistung deutlich effizienter sein dürften als ein neuronales Netzwerk.
Denkbar halte ich es eher, dass da aufgrund von Statistiken das Fahrverhalten noch dynamisch angepasst wird, ggf. sogar "global". Wenn Unfallschwerpunkte bekannt sind, wäre es denkbar, dass das Auto diese Information an Google sendet und sie von da aus auch alle anderen Autos informieren, sodass sich das Gefährt direkt auf mögliche Gefahren "vorbereiten" kann.
Ein neuronales Netzwerk wäre übrigens auch wieder für menschliche Fahrfehler anfällig... Und Menschen zu erkennen wäre schon für sich eine ziemliche Leistung. Zur Erinnerung: Es ist erst vor kurzem gelungen, Katzen auf Bildern zu erkennen und dafür wurde ein Rechencluster benötigt.

Eine ethische Frage wie "Überfahre ich das Kind oder rase ich in den Gegenverkehr?" werden die Programmierer sicherlich nicht berücksichtigen. Die Computer reagieren mit Sicherheit schneller als Menschen, aber weitaus wichtiger: Es kann alles gleichzeitig. Es behält immer die Spur links neben einem im Auge. In dem oben geposteten Video sieht man ja: Hält ein LKW auf der eigenen Spur, fährt das Auto daran vorbei. Anders wird es bei Gefahren auf der Straße wohl auch nicht sein: Wenn die Spur frei ist, wird gewechselt, ggf. nach einer Analyse aufgrund der Geschwindigkeit/Beschleunigung der beteiligten Objekte ob es überhaupt zu einer Kollision kommen würde. Die Möglichkeiten sind da recht vielfältig, doch wenn es tatsächlich eine Situation geben sollte, in der das Auto (aus welchem Grund auch immer) in die Situation gekommen ist, dass ein Kind vor dem Auto auf die Straße rennt und ausweichen nicht möglich ist, dann wird das Auto nicht in den Graben oder über den Bürgersteig brettern, sondern bremsen, selbst wenn das Kind dann getroffen wird. Keine ethische Entscheidung, sondern deterministisches Verhalten. Moral bringt man einem Auto eher nicht bei...

Nicht zuletzt muss man ja auch bedenken: Eine Situation, in der ein Kind vors Auto springen könnte, sollte es theoretisch gar nicht geben. Dafür gibt es zumindest in Deutschland Schilder, die in Wohnsiedlungen häufig auf kleine oder spielende Kinder hinweisen und zum vorsichtigen Fahren anleiten, und Tempolimits, die so gewählt werden, dass der Bremsweg ausreichend kurz ist. Und das Google Auto wird sich vermutlich penibler an Gesetze und Schilder halten als Menschen, also wäre in solchen Situation der Unfall kein Verschulden des Autos.
 
Zuletzt bearbeitet:

tophirsch

erster Hirsch am Platze

Registriert
6 Aug. 2013
Beiträge
929
Ort
hinterm Wald
Ich glaube kaum, dass das Google Auto (ausschließlich) durch neuronale Netze gesteuert wird.
Wäre zwar eine interessante Idee, aber ich denke nicht, dass man sich auf einen Lernprozess, der zusätzlich noch außerhalb der Kontrolle von Google fortgesetzt wird (beim Fahren auf den Straßen), verlassen würde.
So hatte ich das nicht gemeint, das Training findet vorher statt. Sicherlich wird man sich auch nicht ausschließlich auf ein Netz verlassen. Aber ich war selbst überrascht, wie viel diese Netzwerke leisten können, als ich das Thema (leider nur)ein Semester lang an der Uni hatte.
Die ersten Versuchsautos konnten schon mit erstaunlich wenig Neuronen und verhältnismäßig spährlicher Sensorik lernen auf der Straße zu fahren. Hier mal ein Beispielaufbau:

alvinn.png

Das Ding ist von 1989, damals konnte man noch nicht so große Netzwerke bauen, da die Rechenleistung fehlte.

Zur Erinnerung: Es ist erst vor kurzem gelungen, Katzen auf Bildern zu erkennen und dafür wurde ein Rechencluster benötigt.
Haste da mal ne Quelle? Würd mich interessieren, wie die das gemacht haben.
 

p3Eq

zu nichts zu gebrauchen

Registriert
15 Juli 2013
Beiträge
358
@tophirsch: Achso, ich dachte, die Autos würden aktiv im Straßenverkehr noch weiter lernen. Das fände ich im Allgemeinen zumindest besser (egal, ob nun auf Basis von Algorithmen oder neuronalen Netzwerken).
Dass die Netzwerke eine ganze Menge leisten können, weiß ich, aber man sollte sich bewusst sein, dass das menschliche Gehirn einfach sehr viele Zellen und Synapsen hat und selbst wir bauen regelmäßig Unfälle, machen Fahrfehler und Ähnliches. Dass ein Auto grundsätzlich schon mit überschaubaren Netzwerkstrukturen fahren kann, überrascht mich nicht, aber interessant sind ja die Fälle, in denen das Auto in ungewöhnliche Situationen gebracht wird.

Nun ja, hier jedenfalls ein Artikel, den ich auf die Schnelle zu den Katzenbildern gefunden habe:
http://www.golem.de/news/maschinenl...rn-mit-16-000-prozessorkernen-1206-92793.html
 

B3n

Corporal Bullshit

Registriert
14 Juli 2013
Beiträge
870
@epiphora:

Hatte ich noch gar nicht dran gedacht, aber das ist natürlich ein Problem, das es so noch nie gab. Was ich auch ganz interssant finde ist das "Problem", dass diese Autos sich an die Verkehrsregeln halten und das so gut, dass sie nach ein paar hundertausend Meilen immer noch keinen Strafzettel bekommen haben. Dieser Artikel rechnet vor, dass der US-Regierung dadurch jährlich Einnahmen von ca. $6.2 Milliarden entgehen könnten.
 

MSX

Retro-Nerd-Hippie

Registriert
14 Juli 2013
Beiträge
15.107
Ort
v01d
Zur Erinnerung: Es ist erst vor kurzem gelungen, Katzen auf Bildern zu erkennen und dafür wurde ein Rechencluster benötigt.
Ich weiß nicht, wie Deine Aussage gemeint war, aber so klingt sie (aus meiner Sicht) falsch für das, was ich zu Google:Brain gelesen habe. Die haben keinen Cluster dafür gebraucht, um Katzen zu erkennen, sondern deren KNN hat selbständig gelernt, was eine Katze *überhaupt ist*, *ohne es zuvor zu wissen*. Das ist ein himmelweiter Unterschied. Insofern passt das dann auch nicht mehr zur durchaus komplexen Gesichtserkennung, zu der es hier einen schönen Text gibt: https://netzpolitik.org/2014/how-to-analyze-everyone-teil-vii-zeig-mir-dein-gesicht/ (auch der Rest der Serie ist sehr gut und lesenswert, nicht nur für Leute, die sich unmittelbar dafür interessieren).

Den Text hier finde ich btw. erklärender zu der Brain-Sache: http://www.smartplanet.com/blog/sci...n-simulator-teaches-itself-to-recognize-cats/

Edit: Schade, daß in dem von B3n verlinkten Artikel nicht steht, wieviel Geld und Leben dadurch eingespart werden könnten. Aber ich halte das alles eh noch für zu unsicher und utopisch, auch wenn es bei den paar Google-Autos funktionieren mag.
 
Zuletzt bearbeitet:

gelöschter Benutzer

Guest

G
... und habe mir mal ein paar Gedanken zu möglichen Fällen gemacht, in denen das System Fehler macht. Die meisten Szenarien enden aber darin, dass das Auto einfach stehen bleibt....

wie kommst du darauf?
Wenn das Auto selbständig agiert kann da in einem Fehlerfall alles passieren.
Lenkt von ner Brücke, rast mit 100 gegen nen Baum usw.

Die Frage ist nur, wie hoch ist die Wahrscheinlichkeit das sowas passiert?
Ist es nicht viel wahrscheinlicher, dass ein Mensch einen Fehler macht?
 
Oben