DE102010044449B4 - Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs - Google Patents

Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs Download PDF

Info

Publication number
DE102010044449B4
DE102010044449B4 DE102010044449.9A DE102010044449A DE102010044449B4 DE 102010044449 B4 DE102010044449 B4 DE 102010044449B4 DE 102010044449 A DE102010044449 A DE 102010044449A DE 102010044449 B4 DE102010044449 B4 DE 102010044449B4
Authority
DE
Germany
Prior art keywords
driver
head
camera
image data
observing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010044449.9A
Other languages
English (en)
Other versions
DE102010044449A1 (de
Inventor
Dipl.-Ing. Kruscha Tatjana
Dipl.-Ing. Langnickel Mirko
Sven Tuscheerer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010044449.9A priority Critical patent/DE102010044449B4/de
Publication of DE102010044449A1 publication Critical patent/DE102010044449A1/de
Application granted granted Critical
Publication of DE102010044449B4 publication Critical patent/DE102010044449B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • B60K2360/21
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Abstract

Verfahren zur Erkennung des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs unter Verwendung einer Fahrerbeobachtungskamera zur Beobachtung des Fahrers und einer Innenraumkamera zur Beobachtung des Kraftfahrzeuginnenraums, wobei die Fahrerbeobachtungskamera den Kopf des Fahrers erfasst und Bilddaten des Fahrerkopfes in zeitlicher Folge bereitstellt, und die Innenraumkamera zumindest teilweise Körperteile des Fahrers erfasst und Bilddaten der Körperteile in zeitlicher Folge bereitstellt, aus den Fahrerkopfbilddaten und den Körperteilbilddaten vorgegebene Fahrerparameter extrahiert und deren zeitliche Abfolge bestimmt wird, so dass für jeden Fahrerparameter ein Bewegungsvektor gebildet wird, Bewertung jedes Bewegungsvektors als Funktion der zeitlichen Entwicklung, und Ermittlung des Grades der Fahrfähigkeit des Fahrers als Ergebnis der Bewertung.

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung des Grades der Fahrfähigkeit eines Fahrers eines Kraftfahrzeugs gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 9.
  • Unfallvermeidende bzw. die Folgen eines Unfalls vermindernde Systeme für Kraftfahrzeuge sind bekannt, bei denen unfallträchtige Situationen durch eine Überwachung des Kraftfahrzeugs und dessen Umfeld ermittelt werden und eine Eskalation der Gefahrensituation durch eine abgestufte Reaktion des Systems vermieden oder die Folgen zumindest vermindert werden. Eine hohe Unfallgefahr geht auch von dem Fahrer des Kraftfahrzeugs aus, falls dessen aktuelle Fahrfähigkeit, beispielsweise wegen Übermüdung, nachgelassen hat. Die Ermittlung des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs ist daher notwendig, um ein Fahrerassistenzsystem für die Auslösung einer geeigneten Reaktion zu veranlassen und damit für eine Verringerung des Unfallrisikos Sorge zu tragen. Um den Grad der Fahrfähigkeit eines Fahrers zu ermitteln, müssen geeignete Merkmale des Fahrers detektiert und beurteilt werden. Derartige Fahrermerkmale können in der Bewegung und der Aktivität des Fahrers, in seiner Mimik, in seinem Fahrverhalten etc. gefunden werden.
  • So beschreibt die DE 10 2005 020 847 A1 in Verfahren und eine Vorrichtung zur berührungslosen Erfassung von biometrischen Merkmalen und Vitalfunktionen von Passagieren in einem Kraftfahrzeug und zwar insbesondere des Herzschlags und der Atmungsaktivitäten. Die Bestimmung der Merkmale erfolgt durch eine im Sitz integrierte Sensoreinheit, wobei die ermittelten Merkmale zur Steuerung diverser Komfort- und Sicherheitssysteme im Kraftfahrzeug benutzt werden.
  • Aus der Druckschrift DE 10 2008 008 555 A1 ist ein Verfahren zum Minimieren von Gefahrensituationen bei einem Kraftfahrzeug bekannt, wobei neben der Analyse der Umfeldsituation des Fahrzeugs und der Fahrzeugsituation eine Analyse der Fahrersituation erfolgt. Die Fahrersituation wird aus den Aktivitäten des Fahrers abgeleitet.
  • Ferner zeigt die Druckschrift DE 10 2006 017 855 A1 ein Verfahren zum Gewinnen von situationsabhängigen Kontextdaten in einem Fahrzeug, bei dem aus ermittelten kontextabhängigen Basisdaten mittels einer Datenverarbeitungseinrichtung Kontextdaten abgeleitet werden, denen eine Wahrscheinlichkeitsverteilung zugeordnet wird. Derartige kontextabhängige Basisdaten werden auch für die Insassen des Fahrzeugs mittels geeigneter Sensoren ermittelt, wobei beispielsweise das Bedienverhalten insbesondere des Fahrers, also beispielsweise die Bedienfrequenz, die Bedienfehlerrate und die Bediengeschwindigkeit bestimmter Bedieneinrichtungen, erfasst werden können. Ferner können physiologische Daten des Fahrers, seine Blickrichtung, Gestik und Mimik etc. mittels einer geeigneten Sensorik, d. h. einer Kamera, ermittelt werden. Daraus können als Kontextdaten die Aufmerksamkeitsbeanspruchung und der Stresslevel des Fahrers abgeleitet werden.
  • Aus der Druckschrift DE 60 2004 013 181 T2 ist ein System und ein Verfahren zur Erkennung eines Insassen und einer Kopfhaltung furch Verwendung von Stereo-Detektoren bekannt. Dabei wird mit einem Paar Stereoameras ein Bildpaar einer Person aufgenommen, wobei das Bildpaar gleichzeitig abgetastet wird, um mindestens eine Komponente in dem Bildpaar zu finden. Für jede Komponente der mindestens einen Komponente werden dann dreidimensionale Orte berechnet und die Kopfhaltung wird mithilfe der dreidimensionalen Orte geschätzt. Zum Erkennen der Kopfhaltung wird auf eine Datenbank mit Köpfen von Personen in unterschiedlichen Haltungen zurückgegriffen, wobei ein Training der Stereodetektoren zum Erkennen der Abhäbgigkeiten zwischen Stereokomponenten der beiden Kameras.
  • Nachteilig bei den bekannten Verfahren zur Bestimmung der Fahrersituation ist, dass die Ermittlung der Aufmerksamkeit und damit der Fahrtüchtigkeit des Fahrers mit nicht ausreichender Genauigkeit erfasst und bestimmt wird.
  • Der Erfindung liegt daher die Aufgabe zugrunde, die Bestimmung der Fahrtüchtigkeit des Fahrers zu verbessern.
  • Diese Aufgabe wird durch ein Verfahren zur Erkennung der Fahrfähigkeit des Fahrers mit den Merkmalen des Anspruchs 1 sowie durch eine entsprechende Vorrichtung mit den Merkmalen des Anspruchs 9 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Das erfindungsgemäße Verfahren zu Erkennung des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs unter Verwendung einer Fahrerbeobachtungskamera zur Beobachtung des Fahrers und einer Innenraumkamera zur Beobachtung des Kraftfahrzeuginnenraums, wobei
    • – die Fahrerbeobachtungskamera den Kopf des Fahrers erfasst und Bilddaten des Fahrerkopfes in zeitlicher Folge bereitstellt, und
    • – die Innenraumkamera zumindest teilweise den Körper des Fahrers des Fahrers erfasst und Bilddaten des Körpers in zeitlicher Folge bereitstellt,
    • – aus den Fahrerkopfbilddaten und den Körperbilddaten vorgegebene Fahrerparameter extrahiert und deren zeitliche Abfolge bestimmt wird, so dass für jeden Fahrerparameter ein Bewegungsvektor gebildet wird,
    • – jeder Bewegungsvektors als Funktion der zeitlichen Entwicklung bewertet wird, und
    • – der Grad der Fahrfähigkeit des Fahrers als Ergebnis der Bewertung ermittelt wird.
  • Vorzugsweise werden aus den zumindest teilweise erfassten Körperbilddaten der Innenraumkamera Bewegungsvektoren bezüglich der Bewegungen des Kopfes, des Torsos und/oder der Gliedmaßen des Fahrers erstellt. Die zumindest teilweise Erfassung der Körperbilddaten bedeutet, dass beispielsweise eine Erfassung der unteren Extremitäten des Fahrers aufgrund der Verdeckung durch das Lenkrad und das Armaturenbrett üblicherweise nicht möglich sein wird. Daher wird von der Innenraumkamera der Körper des Fahrers nur teilweise erfasst, d. h. nur diejenigen Körperteile, die für die Innenraumkamera sichtbar sind. Dies sind üblicherweise der Kopf, der Fahrertorso und Gliedmaße, d. h. zumindest die Arme des Fahrers und vorzugsweise auch die Oberschenkel.
  • Vorzugsweise werden die Bewegungsvektoren mittels Beobachtung bzw. Tracking der Gliedendmaßen und/oder der Gelenke der Gliedmaßen und/oder sonstiger markanter Körpermerkmale des Fahrers erstellt.
  • Weiter bevorzugt- werden aus den Daten der Fahrerkamera Bewegungsvektoren bezüglich Merkmale des Kopfes und Gesichts des Fahrers erstellt.
  • Kopfmerkmale und Gesichtsmerkmale können durch Kopforientierung, Kopfposition, Lidschlag sowie Bewegungen von markanten Markierungen von Gesichtsmerkmale wie Augenwinkel, Mundwinkel, Nasenlöcher, Nasenspitze, Kinnspitze etc. gebildet werden.
  • Insbesondere kann die Bewertung eines Bewegungsvektors durch Vergleich mit statischen und dynamischen Bewegungsräumen und Bewegungsmuster erfolgen.
  • Weiter bevorzugt werden die statischen und dynamischen Bewegungsräume und Bewegungsmuster in den ersten Fahrminuten fahrerspezifisch generiert und/oder siw sind vorbestimmt.
  • Eine erfindungsgemäße Vorrichtung, die zur Durchführung des im Vorangegangenen beschriebenen Verfahrensausgelegt ist, umfasst
    • – eine Kamera zur Beobachtung des Fahrerkopfes,
    • – eine Innenraumkamera zur Beobachtung der Gliedmaßen des Fahrers,
    • – eine Einrichtung zur Extraktion von Fahrerparametern aus den Daten der Kameras,
    • – eine Einrichtung zur Bildung von Bewegungsvektoren bezüglich der zeitlichen Entwicklung der Fahrerparameter,
    • – eine Einrichtung zur Bewertung der Bewegungsvektoren, und
    • – eine Einrichtung zur Ermittlung der Fahrfähigkeit des Fahrers aus den Ergebnissen der Bewertungseinrichtung.
  • Weiterhin kann die Vorrichtung eine Einrichtung zum Erstellen und/oder Speichern von Referenzvektoren bezüglich der Fahrerparameter aufweisen.
  • Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt
  • 1 die Sicht der Fahrerbeobachtungskamera mit Beispiele von Ausgabeparametern,
  • 2 ein Bild der Innenraumkamera mit geeigneten Beobachtungsparametern,
  • 3 die Beziehung zwischen den verschiedenen Koordinatensystemen,
  • 4 ein Beispiel eines Deadband-Events für einen Freiheitsgrad des Kopfes, und
  • 5 das Tracking von Körperteilen mittels der Innenraumkamera.
  • Die Sensorik zur Fahrerbeobachtung besteht aus einer Fahrerbeobachtungskamera zur Beobachtung des Fahrerkopfes und dessen Gesicht sowie einer Innenraumkamera, die den Innenraum und dessen Insassen und hier insbesondere für die Innenraumkamera sichtbare Körperteile wie Kopf, Gliedmaßen und Torso des Fahrers beobachtet. Diese Sensorik kann um weitere Kameras und um Alternativsensoriken ergänzt werden. Damit werden Ergebnisse verifiziert sowie plausibilisiert, da ein einzelnes Ergebnis kein valides Ergebnis liefert.
  • Bei der Fahrerbeobachtungskamera handelt es sich um eine im Kombiinstrument verbaute CMOS-Kamera mit zusätzlicher IR-Beleuchtung, um eine ausreichende Beleuchtung bei allen Tageszeiten zu gewährleisten. Bei der zweiten Kamera, d. h. der Innenraumkamera, handelt es sich in der bevorzugten Ausführungsform ebenfalls um eine CMOS-Kamera, die den kompletten Innenraum erfasst. Dabei handelt es sich vorrangig um ein omnidirektionales System oder eine Kamera mit Weitwinkelobjektiv. Auch dieses System besitzt IR-Leuchten, die den kompletten Innenraum homogen ausleuchten. Zusätzlich gibt es hier die Möglichkeiten, dass man spezielle Bereiche vergrößern und gesondert betrachten kann.
  • 1 zeigt ein Bild des Videostreams der Fahrerbeobachtungskamera mit geeigneten Ausgabesignalen. Als Ergebnis des Kopftrackings liefert die Bildverarbeitungssoftware Daten zur Kopforientierung und Kopfpositionierung des Kopfes 1 des Fahrers F. Zusätzlich erfolgt eine Berechnung der Kopfbreite 2, Kopfhöhe 3, die Höhe 4 beider Augen im Kopf, der Mundposition 5 im Kopf, der Mundwinkel 6 im Kopf, des binären Mundöffnungssignals 7 (auf/zu), Mundöffnungsgrades 8, der Augenränder 9, des mittleren Pupillarabstandes 10, des binären Lidschlagsignals 11 (auf/zu) sowie des Öffnungsgrades 12 des Lidschlags.
  • Eine Auswahl der möglichen Ausgabeparameter der Bildverarbeitung der Fahrerbeobachtungskamera sind beispielhaft in der folgenden Tabelle 1 dargestellt:
    Signalbezeichnung Einheit Größe Wertebereich
    Kopfsignalgüte Prozent 4 Byte 0 ... 100
    Kopfposition xH Meter 4 Byte –0,3 ... 0,3
    Kopfposition yH Meter 4 Byte 0,0 ... 0,6
    Kopfposition ZH Meter 4 Byte 0,3 ... 1,1
    Kopfrotation θ rad 4 Byte –0,78 ... 0,78
    Kopfrotation Ψ rad 4 Byte –0,78 ... 0,78
    Kopfrotation φ rad 4 Byte –0,78 ... 0,78
    Tab. 1
  • 2 zeigt ein Bild der Innenraumkamera (nicht dargestellt) für einen Insassen des Kraftfahrzeugs, hier den Beifahrer BF, wobei mittels der zeitlichen Abfolge der Bilder die Freiheitsgrade der Körperparameter des Beifahrers BF beobachtet bzw. getrackt werden. Dabei wurde in 2 der Beifahrer BF als Beispiel gewählt, da dieser von der Innenraumkamera fast vollständig erfasst wird. Die anhand dieses Beispiels getroffenen Überlegungen gelten jedoch analog für den Fahrer, um dessen Fahrfähigkeit zu bestimmen. Es werden dabei folgende Körperparameter verfolgt bzw. beobachtet:
    • – Kopf 13,
    • – allen relevanten Gliedmaßen wie Oberschenkel 14, Unterschenkel 15, Oberarm 16 und Unterarm 17,
    • – Torso 18.
  • Die 3 beschreibt die Beziehungen zwischen Welt-, Kamera- und Kopfkoordinatensystem (links) sowie die Lage des Kopfkoordinatensystems (rechts) im Kontext der oben dargestellten Tabelle Tab 1, um eine globale Betrachtung und Bewegungsbeurteilung zwischen allen Körperteilen im Fahrzeugkontext zu garantieren. Dargestellt ist das Kopfkoordinatensystem mit den Achsen XH, YH und ZH sowie dem Nullpunkt 0H. Der Winkel θ bezeichnet eine Rotation des Kopfes um die Achse XH, der Winkel Ψ eine Rotation um die Achse YH und der Winkel φ eine Rotation des Kopfes um die Achse ZH. Ferner existieren noch ein Weltkoordinatensystem mit den Achsen XW, YW und ZW sowie eine Kamerakoordinatensystem mit den Achsen XK, YK und ZK, wobei die Nullpunkte des Weltkoordinatensystems 0W und des Kamerakoordinatensystems 0K identisch sind und der Winkel α die Drehung des Kamerakoordinatensystems gegenüber dem Weltkoordinatensystem angibt. Das Kopfkoordinatensystem hat einen Abstand tHW zu dem Welt- bzw. Kamerakoordinatensystem.
  • Aus den Ausgabeparametern der Bildverarbeitung, wie die in Tab. 1 genannten beispielhaften Ausgabeparameter für den Kopf – wird ein Bewegungsvektor K für jeden betrachteten Körperteil gebildet, der für jedes Bild berechnet und über die Laufzeit bewertet wird:
  • Figure DE102010044449B4_0002
  • 4 zeigt eine beispielhafte Möglichkeit, wie Bewegungsänderungen und Verhaltensweisen zum Erkennen einer wahrscheinlichen Fahrfähigkeit/Fahrunfähigkeit detektiert werden. Dabei geht es um eine Historienbetrachtung der jeweiligen Körperteile bzw. Freiheitsgrade und deren Abweichung von einem hinterlegten und zusätzlich in den ersten Fahrminuten angepassten und individuellen Fahrerprofil.
  • 4 zeigt exemplarisch ein Deadband Event 19 für die Kopfrotation θ um die Achse XH des Kopfes, wie es in 3 dargestellt ist, sowie ein Abnicken 20 des Kopfes. Dabei wird Rotation um XH über der Zeit t betrachtet. Tritt für eine definierte Zeit keine Veränderung – im Sinne einer nichtauftretenden Überschreitung von Grenzen, hier dargestellt als Δθ – auf, dann ist das ein Hinweis darauf, dass der Fahrer seinen Kopf nicht mehr bewegt oder aufgrund einer temporär auftretenden Einschränkung nicht mehr bewegen kann. Die stetige Vergrößerung der Kopfrotation im rechten Teil 20 der 4 deutet auf ein Abnicken des Kopfes hin. Dieses Verhalten liefert einen Ansatz zur Prognose von Fahruntüchtigkeit des betrachteten Insassen. Eine Verifizierung der Hinweise kann zusätzlich über weitere Parameter sowie über eine gegebenenfalls vorhandene Alternativsensorik erfolgen.
  • In 5 ist eine weitere Methode schematisch dargestellt, die im Betrachten von Schranken und Regionen, die als zulässig erachtet werden, besteht, wobei ein Überschreiten mitbetrachtet und bewertet wird, wie dies anhand des Beifahrers BF und vier zeitlich aufeinander folgende Aufnahmen der Innenraumkamera beispielhaft dargestellt ist. Dabei sind die verwendeten Schranken und Regionen nutzeradaptiv, d. h. sie werden an den Nutzer angepasst, beispielsweise an dessen Größe und Position. Ferner werden die verwendeten Schranken üblicherweise auch kontinuierlich während der Fahrt an den Nutzer angepasst, da dieser während der Fahrt beispielsweise seine bevorzugte Position verändern kann. Das fahrerabhängige Muster wird daher über einen geeigneten Lernvorgang adaptiv angepasst.
  • Im ersten Schritt (oberes Bild der 5) werden, wie dies bereits in der 2 erläutert wurde, Körperteile wie Kopf 13, Augenverbindungslinie 14, Oberarm 17, Unterarm 18, Unterschenkel 16 und Oberschenkel 15 mit der Bildverarbeitung erkannt, vom Hintergrund separiert, getrackt und im Weiteren als Vektorverlauf beschrieben.
  • Im zweiten Bild der 4 werden eine zulässige Region 22 der Augenlinie, eine zulässige Region 25 bezüglich des rechten Unterarms 18 sowie eine zulässige Region 27 für den linken Oberschenkel 15 festgelegt.
  • Im dritten Bild der 5 ist dargestellt, dass der neue Bereich 23 der Augenlinie 14 sich aus der zulässigen Region 22 herausbewegt hat. Mit anderen Worten, der Beifahrer schaut nach links unten. Falls daher der ursprüngliche Bereich 22 als zulässig definiert wäre, würde dies ein Hinweis auf eine Unaufmerksamkeit des Beifahrers sein, da dieser in eine nicht zulässige Richtung schaut. Für die zulässigen Region 25 des rechten Oberarms 18 und die zulässige Region 27 des linken Oberschenkels 15 hat sich in dem dritten Bild nichts verändert.
  • Im unteren Bild der 5 hat der Beifahrer BF seinen Kopf in die rechte Richtung gedreht, so dass die neue Augenlinienregion 24 außerhalb des zulässigen Bereichs 22 liegt. Auch hat der Beifahrer den rechten Unterarm 18 bewegt, so dass der neue Bereich 26 außerhalb des ursprünglichen Bereichs 25 des rechten Unterarms 18 zu liegen kommt. Für die Region 27 des linken Oberschenkels 15 hat sich nichts verändert.
  • Zusammenfassend kann daher aus der zeitlichen Überwachung der Bewegungen von Körperteilen. der überwachten Person, hier des Beifahrers, auf eine wahrscheinliche Fahrfähigkeit oder Fahrunfähigkeit mit Hilfe der Innenraumkamera geschlossen werden.
  • Anhand der Körperhaltung/Körperbewegung und/oder der Kopfhaltung/Kopfbewegung des Fahrers zum aktuellen Zeitpunkt und über eine Zeitdauer kann mit Hilfe von mindestens zwei im Innern des Fahrzeugs angeordneten Kameras, wie beispielsweise einer Fahrerbeobachtungskamera und einer Innenraumkamera über der Mittelkonsole zwischen Fahrer und Beifahrer am Dach, die Wahrscheinlichkeit einer Fahrfähigkeit bzw. Fahrunfähigkeit des Fahrers ermittelt werden. Beispiele dafür sind bei Fahrausfall/Fahrbeeinträchtigung durch Müdigkeit, Krankheit, Herzinfarkt, Schock, bei falscher Körperhaltung wie gebeugtes Fahren, weil der Fahrer etwas sucht, emotional negativen Zuständen oder Ähnliches. Anhand der Bestimmung der Wahrscheinlichkeit der Fahrfähigkeit des Fahrers werden an den Fahrer vom Fahrzeugsystem rechtzeitig Warnungen, Handlungsempfehlungen und -hinweise gegeben, die Schwellwerte für Fahrerassistenzsysteme (FAS), wie Warnschwellwerte oder Übergabezeitpunkt an den Fahrer, können angepasst sowie generell die Übergabe eines automatischen Fahrvorganges des FAS an den Fahrer angepasst werden.
  • Insbesondere zeichnet sich das Verfahren durch die folgenden Punkte aus:
    • • Ermittlung der Körperhaltung, der Körperbewegung und/oder der Kopfhaltung/Kopfbewegung, und zwar aktuell und über einen Zeitraum,
    • • Ermittlung der Körperhaltung/Körperbewegung und/oder der Kopfhaltung/Kopfbewegung mit Hilfe von virtuellen Schranken, die adaptiv an den Fahrbeginn angepasst werden und auch während der Fahrt adaptiv angepasst werden können,
    • • Ermittlung einzelner Körper- und Kopfmerkmale, wie Oberarme, Unterarme, Schultern (Grad einer gebeugten Haltung), Kopfumriss, Nase, Mund, Augen und Ermittlung der Veränderung einzelner Körpermerkmale sowie der Proportionen zueinander (wie geneigte Kopfhaltung → z. B. Nase vorn und Mund kaum zu sehen aus der Frontalansicht, Kopfumriss kleiner), und
    • • Mustererkennung bei Fahrtüchtigkeit, Erkennung der Abweichung und Erkennung (Klassifikation) der Wahrscheinlichkeit der Fahruntüchtigkeit durch Mustererkennung von Körperhaltung/Körperbewegung und/oder der Kopfhaltung/Kopfbewegung (durch Mustererkennung von sich verändernden Proportionen, Art der Bewegungen innerhalb/durch die virtuellen Schranken).
  • Mittels des geschilderten Verfahrens können mittels der Kameras zur Erkennung des Fahrerzustands sowie gegebenenfalls weiterer sekundärer Sensorik zur Verifikation des Fahrerzustandes beispielsweise folgende medizinische Ereignisse wie Schlaganfall, Herzinfarkt oder epileptischer Anfall anhand der auftretenden Symptomatiken und der darauf erfolgenden Fahrerreaktionen detektiert werden.
  • Bezugszeichenliste
  • 1
    Fahrerkopf
    2
    Kopfhöhe
    3
    Kopfbreite
    4
    Augenhöhe
    5
    Mundposition
    6
    Mundwinkel
    7
    binäres Mundöffnungssignal
    8
    Mundöffnungsgrad
    9
    Augenränder
    10
    mittlerer Pupillenabstand
    11
    binäres Lidschlagsignal
    12
    Öffnungsgrad des Lidschlags
    13
    Kopf Beifahrer
    14
    Augenlinie
    15
    Oberschenkel
    16
    Unterschenkel
    17
    Oberarm
    18
    Unterarm
    19
    Torso
    20
    Deadband Event des Kopfes
    21
    Abnicken des Kopfes
    22
    zulässiger Bereich Augenlinie
    23
    abweichender Bereich Augenlinie
    24
    abweichender Bereich Augenlinie
    25
    rechter Oberarmbereich
    26
    abweichender rechter Oberarmbereich
    27
    Bereich linker Oberschenkel
    XH
    X-Achse Kopf
    YH
    Y-Achse Kopf
    ZH
    Z-Achse Kopf
    XK
    X-Achse Kamera
    YK
    Y-Achse Kamera
    ZK
    Z-Achse Kamera
    XW
    X-Achse Welt
    YW
    Y-Achse Welt
    ZW
    Z-Achse Welt
    0H
    Nullpunkt Kopfkoordinaten
    0K
    Nullpunkt Kamerakoordinaten
    0W
    Nullpunkt Weltkoordinaten
    tHW
    Abstand Nullpunkt Kopfkoordinaten und Nullpunkt Weltkoordinaten
    θ
    Rotation um XH
    Ψ
    Rotation um YH
    φ
    Rotation um ZH
    Δθ
    Differenz
    α
    Rotation des Kamerakoordinatensystems gegenüber dem Weltkoordinatensystem
    t
    Zeit

Claims (10)

  1. Verfahren zur Erkennung des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs unter Verwendung einer Fahrerbeobachtungskamera zur Beobachtung des Fahrers und einer Innenraumkamera zur Beobachtung des Kraftfahrzeuginnenraums, wobei die Fahrerbeobachtungskamera den Kopf des Fahrers erfasst und Bilddaten des Fahrerkopfes in zeitlicher Folge bereitstellt, und die Innenraumkamera zumindest teilweise Körperteile des Fahrers erfasst und Bilddaten der Körperteile in zeitlicher Folge bereitstellt, aus den Fahrerkopfbilddaten und den Körperteilbilddaten vorgegebene Fahrerparameter extrahiert und deren zeitliche Abfolge bestimmt wird, so dass für jeden Fahrerparameter ein Bewegungsvektor gebildet wird, Bewertung jedes Bewegungsvektors als Funktion der zeitlichen Entwicklung, und Ermittlung des Grades der Fahrfähigkeit des Fahrers als Ergebnis der Bewertung.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus den Daten der Innenraumkamera Bewegungsvektoren bezüglich der Bewegungen des Kopfes, des Torsos und/oder der Gliedmaßen des Fahrers erstellt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Bewegungsvektoren mittels Markierungen der Gliedendmaßen und/oder Markierungen der Gelenke der Gliedmaßen und/oder sonstiger markanter Körpermerkmale des Fahrers erstellt werden.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass aus den Daten der Fahrerkamera Bewegungsvektoren bezüglich Merkmale des Kopfes und des Gesichts des Fahrers erstellt werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass Kopfmerkmale und Gesichtsmerkmale durch Kopforientierung, Kopfposition, Lidschlag sowie Bewegungen von markanten Markierungen von Gesichtsmerkmale wie Augenwinkel, Mundwinkel, Nasenlöcher, Nasenspitze, Kinnspitze etc. gebildet werden.
  6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Bewertung eines Bewegungsvektors durch Vergleich mit statischen und dynamischen Bewegungsräumen und Bewegungsmuster erfolgt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die statischen und dynamischen Bewegungsräume und Bewegungsmuster in den ersten Fahrminuten fahrerspezifisch generiert werden und/oder vorbestimmt werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass fahrerspezifischen statischen und dynamischen Bewegungsräume und Bewegungsmuster während der Fahrt adaptiv angepasst werden.
  9. Vorrichtung ausgelegt zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche, aufweisend eine Kamera zur Beobachtung des Fahrerkopfes, eine Innenraumkamera zur Beobachtung der Gliedmaßen des Fahrers, eine Einrichtung zur Extraktion von Fahrerparametern aus den Daten der Kameras, eine Einrichtung zur Bildung von Bewegungsvektoren bezüglich der zeitlichen Entwicklung der Fahrerparameter, eine Einrichtung zur Bewertung der Bewegungsvektoren, und eine Einrichtung zur Ermittlung der Fahrfähigkeit des Fahrers aus den Ergebnissen der Bewertungseinrichtung.
  10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass die Vorichtung eine Einrichtung zum Erstellen und/oder Speichern von Referenzvektoren bezüglich der Fahrerparameter aufweist.
DE102010044449.9A 2009-12-31 2010-09-06 Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs Active DE102010044449B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010044449.9A DE102010044449B4 (de) 2009-12-31 2010-09-06 Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009060918 2009-12-31
DE102009060918.0 2009-12-31
DE102010044449.9A DE102010044449B4 (de) 2009-12-31 2010-09-06 Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs

Publications (2)

Publication Number Publication Date
DE102010044449A1 DE102010044449A1 (de) 2011-07-07
DE102010044449B4 true DE102010044449B4 (de) 2014-05-08

Family

ID=44312596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010044449.9A Active DE102010044449B4 (de) 2009-12-31 2010-09-06 Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs

Country Status (1)

Country Link
DE (1) DE102010044449B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014017913A1 (de) * 2014-12-04 2016-06-09 Audi Ag Verfahren für den Betrieb einer Sicherheitseinrichtung für ein Kraftfahrzeug und zugehöriges Kraftfahrzeug
DE102015011377A1 (de) * 2015-09-04 2017-03-09 Audi Ag Anzeigevorrichtung für ein Kraftfahrzeug-Kombiinstrument
DE102017214542A1 (de) * 2017-08-21 2019-02-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Verifikation eines Fahrerassistenzsystems

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103112352B (zh) * 2012-04-12 2016-05-04 重庆长安汽车股份有限公司 基于偏头监测的驾驶辅助系统
DE102013002686B4 (de) * 2013-02-15 2017-03-23 Audi Ag Verfahren zum Betreiben eines Kraftwagens sowie Kraftwagen
DE102013102528B4 (de) 2013-03-13 2022-04-21 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Bestimmung einer Verbauposition einer Innenraumsensorik in einem Fahrzeug
DE102013021139B4 (de) 2013-12-13 2019-01-31 Audi Ag Kraftfahrzeug mit Spurhalteassistenz bei Verreißen des Lenkrads
DE102013021929B4 (de) * 2013-12-20 2022-01-27 Audi Ag Kraftfahrzeug mit Kameras und Bildanalyseeinrichtungen
DE102014215843A1 (de) * 2014-08-11 2016-02-11 Robert Bosch Gmbh Fahrerbeobachtungssystem für ein Kraftfahrzeug
DE102014224765A1 (de) 2014-12-03 2016-06-09 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Fahreraktivitätserkennung
DE102014225680A1 (de) * 2014-12-12 2016-06-16 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Übernahmeaufforderung einer Fahraufgabe an den Fahrzeugführer eines Fahrzeugs im Rahmen des automatischen Fahrens des Fahrzeugs
DE102015210090A1 (de) 2015-06-01 2016-12-01 Volkswagen Aktiengesellschaft Kalibrierung einer Fahrerbeobachtungskamera
DE102015011522A1 (de) 2015-09-03 2016-05-12 Daimler Ag Fahrerassistenzvorrichtung
JP2017199302A (ja) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 判定装置、判定方法、判定プログラム及び記録媒体
DE102016215302A1 (de) * 2016-08-17 2018-02-22 Bayerische Motoren Werke Aktiengesellschaft System zur adaptiven Anpassung von Fahrerassistenzsystemen
DE102017001313A1 (de) 2017-02-10 2017-10-19 Daimler Ag Verfahren zum Verarbeiten von Bildinformationen betreffend das Gesicht des Fahrers eines Kraftfahrzeugs
FR3069657A1 (fr) * 2017-07-31 2019-02-01 Valeo Comfort And Driving Assistance Dispositif optique pour l'observation d'un habitacle de vehicule
JP7210965B2 (ja) 2018-09-26 2023-01-24 株式会社アイシン 室内監視装置
CN109969195B (zh) * 2019-03-25 2024-02-27 陕西科技大学 一种驾驶员面部行为异常报警系统及方法和基于其的车辆
DE102019209200A1 (de) * 2019-06-26 2020-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen eines Mittelpunkts und einer Augenöffnung eines Auges eines Insassen eines Fahrzeugs
DE102019215307A1 (de) * 2019-10-07 2021-04-08 Volkswagen Aktiengesellschaft System zur Erkennung und Therapieunterstützung einer Parkinsonerkrankung eines Fahrzeuginsassen für die Anwendung in einem Fahrzeug

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
EP1182089A2 (de) * 2000-08-16 2002-02-27 Robert Bosch Gmbh Verfahren zur Warnung eines Fahrers eines Fahrzeugs
DE10133386A1 (de) * 2001-07-10 2003-01-23 Bosch Gmbh Robert Verfahren und Vorrichtung zum Erkennen einer Ist-Position einer Person innerhalb eines vorgebbaren Bereiches und Verwendung des Verfahrens und/oder der Vorrichtung
DE10360176A1 (de) * 2003-12-20 2005-07-21 Volkswagen Ag Kraftfahrzeug mit einem Sensor zur Fahrerüberwachung
DE102004042959A1 (de) * 2004-09-02 2006-03-09 Robert Bosch Gmbh Passagierschutzeinrichtung in einem Fahrzeug
DE102005020847A1 (de) * 2005-05-02 2006-11-09 Carsten Dr. Koch Vorrichtung zur berührungslosen Positionsbestimmung von Körperteilen von Lebewesen im Kraftfahrzeug
DE102005030934B4 (de) * 2005-06-30 2007-04-12 Benteler Automobiltechnik Gmbh Instrumententräger und Kraftfahrzeug
DE60124937T2 (de) * 2000-10-13 2007-09-20 Motorola, Inc., Phoenix Verfahren und gerät zur verbesserung des fahrerverhaltens in einem fahrzeug
DE102006017855A1 (de) * 2006-04-18 2007-11-22 Volkswagen Ag Verfahren und Vorrichtung zum Gewinnen von situationsabhängigen Kontextdaten in einem Fahrzeug
DE102008008555A1 (de) * 2007-02-21 2008-08-28 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zum Minimieren von Gefahrensituationen bei Fahrzeuge n
DE602004013181T2 (de) * 2003-11-21 2009-07-02 Continental Automotive Gmbh System und verfahren zur erkennung eines insassen und einer kopfhaltung durch verwendung von stereo-detektoren

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
EP1182089A2 (de) * 2000-08-16 2002-02-27 Robert Bosch Gmbh Verfahren zur Warnung eines Fahrers eines Fahrzeugs
DE60124937T2 (de) * 2000-10-13 2007-09-20 Motorola, Inc., Phoenix Verfahren und gerät zur verbesserung des fahrerverhaltens in einem fahrzeug
DE10133386A1 (de) * 2001-07-10 2003-01-23 Bosch Gmbh Robert Verfahren und Vorrichtung zum Erkennen einer Ist-Position einer Person innerhalb eines vorgebbaren Bereiches und Verwendung des Verfahrens und/oder der Vorrichtung
DE602004013181T2 (de) * 2003-11-21 2009-07-02 Continental Automotive Gmbh System und verfahren zur erkennung eines insassen und einer kopfhaltung durch verwendung von stereo-detektoren
DE10360176A1 (de) * 2003-12-20 2005-07-21 Volkswagen Ag Kraftfahrzeug mit einem Sensor zur Fahrerüberwachung
DE102004042959A1 (de) * 2004-09-02 2006-03-09 Robert Bosch Gmbh Passagierschutzeinrichtung in einem Fahrzeug
DE102005020847A1 (de) * 2005-05-02 2006-11-09 Carsten Dr. Koch Vorrichtung zur berührungslosen Positionsbestimmung von Körperteilen von Lebewesen im Kraftfahrzeug
DE102005030934B4 (de) * 2005-06-30 2007-04-12 Benteler Automobiltechnik Gmbh Instrumententräger und Kraftfahrzeug
DE102006017855A1 (de) * 2006-04-18 2007-11-22 Volkswagen Ag Verfahren und Vorrichtung zum Gewinnen von situationsabhängigen Kontextdaten in einem Fahrzeug
DE102008008555A1 (de) * 2007-02-21 2008-08-28 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zum Minimieren von Gefahrensituationen bei Fahrzeuge n

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014017913A1 (de) * 2014-12-04 2016-06-09 Audi Ag Verfahren für den Betrieb einer Sicherheitseinrichtung für ein Kraftfahrzeug und zugehöriges Kraftfahrzeug
DE102015011377A1 (de) * 2015-09-04 2017-03-09 Audi Ag Anzeigevorrichtung für ein Kraftfahrzeug-Kombiinstrument
DE102015011377B4 (de) * 2015-09-04 2019-11-14 Audi Ag Anzeigevorrichtung für ein Kraftfahrzeug-Kombiinstrument und Kraftfahrzeug
DE102017214542A1 (de) * 2017-08-21 2019-02-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Verifikation eines Fahrerassistenzsystems

Also Published As

Publication number Publication date
DE102010044449A1 (de) 2011-07-07

Similar Documents

Publication Publication Date Title
DE102010044449B4 (de) Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs
EP3682367B1 (de) Gestensteuerung zur kommunikation mit einem autonomen fahrzeug auf basis einer einfachen 2d kamera
EP3157426B1 (de) Vorrichtung, verfahren und computerprogramm zur detektion eines sekundenschlafs
DE102008019731B4 (de) Verfahren und Vorrichtung zur Fahrer-Beifahrer-Unterscheidung
DE102014004395B3 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Kraftfahrzeug
EP1620289B1 (de) Vorrichtung und verfahren zur kalibrierung eines bildsensors
DE112015002948T5 (de) Vorrichtung zum erfassen eines fahrunvermögenzustands eines fahrers
DE19621435A1 (de) Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands
DE102011081370A1 (de) Vorrichtung zur Unterstützung der Fahrt eines mobilen Objekts auf der Grundlage von dessen Sollortskurve
DE102017214353A1 (de) Fahrerzustands-erfassungssystem, fahrerzustands-erfassungsverfahren und diese enthaltendes fahrzeug
DE102014201036A1 (de) Bildbasierte Klassifikation des Fahrerzustands und/oder des Fahrerverhaltens
DE102014100352A1 (de) Fahrerblickdetektionssystem
EP3392111A1 (de) Verfahren und vorrichtung zum ermitteln einer visuellen ablenkung eines fahrers eines fahrzeugs
DE112018007158T5 (de) Dreidimensional-Positionsabschätzungsvorrichtung und Dreidimensional-Positionsabschätzungsverfahren
EP1569823B1 (de) Verfahren und vorrichtung zur bestimmung der 3d-position von pkw-insassen
WO2021175517A1 (de) Verfahren und vorrichtung zur optischen sitzgurterkennung
DE112017007011T5 (de) Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren
DE10215885A1 (de) Automatische Prozesskontrolle
EP2092408A1 (de) Integrierter schaltkreis zur erkennung von bewegungen von personen
WO2021170421A1 (de) Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug sowie system mit einem kraftfahrzeug und einer datenbrille
DE112020005993T5 (de) Fahrzeugfahrsystem
DE102020126953B3 (de) System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
DE102020117555A1 (de) Verfahren und vorrichtung zur insassenklassifizierung
DE112020006670T5 (de) Aufmerksamkeitsrichtung-Beurteilungsvorrichtung und Aufmerksamkeitsrichtung-Beurteilungsverfahren
DE102008038855B4 (de) System zur Erkennung einer Gefahrensituation

Legal Events

Date Code Title Description
R163 Identified publications notified

Effective date: 20111208

R012 Request for examination validly filed

Effective date: 20120125

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R020 Patent grant now final

Effective date: 20150210