Matches in SemOpenAlex for { <https://semopenalex.org/work/W1590460457> ?p ?o ?g. }
- W1590460457 abstract "espanolRecientes estudios han identificado la inatencion (incluyendo distraccion y somnolencia) como la mayor causa de accidentes, siendo responsable de al menos un 25% de ellos. La distraccion en conductores se ha estudiado menos, ya que depende de muchos factores, aunque representa un mayor riesgo que la fatiga. Ademas, la distraccion esta presente en mas de la mitad de los accidentes causados por algun tipo de inatencion. Cada dia existen mas sistemas de informacion embarcados en los vehiculos (In Vehicle Information Systems, IVIS), lo que incrementa el riesgo de provocar distracciones y modifica el comportamiento de los conductores. Esto hace que las investigaciones en este ambito sean de vital importancia. Para abordar el analisis de las distracciones durante la conduccion, distintos grupos de investigadores han trabajo en diversas tecnicas, entre las que destaca la Vision por Computador dado que permite, mediante el uso de tecnologia relativamente barata, la monitorizacion del conductor de forma no intrusiva. Mediante tecnicas de vision como el seguimiento facial se puede evaluar su movimiento con objeto de caracterizar el estado de atencion del conductor. En esta tesis se presentan varias tecnicas de vision 3D usando una camara estereo para obtener en tiempo real y de forma completamente automatica la direccion de la cara y de la mirada de una persona. A partir de esta informacion se infieren las distracciones en el conductor. Los metodos aqui mostrados funcionan de forma completamente automatica e independiente del usuario. Para detectar la direccion de la cara del conductor, primero se crea un modelo 3D no denso usando las coordenadas de puntos caracteristicos de la misma, obtenidos gracias al par de camaras estereo. Durante la ejecucion del algoritmo, se hace un seguimiento de los puntos caracteristicos, mientras el modelo se va ampliando y corrigiendo automaticamente cuando nuevas partes de la cara, previamente ocultas, se hacen visibles a las camaras. Se evaluan varias tecnicas para la determinacion y seguimiento de los puntos del modelo. Primeramente se estudia el comportamiento de un seguidor basado en descriptores SURF, por ser una de las tecnicas mas ampliamente usadas en vision. Sin embargo, debido a las condiciones de baja iluminacion y lo suaves que son los contornos de una cara, esta tecnica no produce buenos resultados. Este hecho, unido al elevado coste computacional de la misma, hacen que dicha tecnica sea descartada. Por ello, se disena una tecnica de seguimiento mediante correlacion multisize (multitamano), basada en el uso de parches de distintos tamanos a una misma escala. Esta tecnica ofrece una leve mejora en el posicionamiento y tiempos de ejecucion con respecto al uso de parches multiescala. Esta tecnica es robusta gracias a la aportacion de los parches mas grandes, y es de mas precision gracias a los parches mas pequenos. La cara puede rotar en un rango horizontal de ±90◦, lo que hace que la apariencia de los puntos caracteristicos cambie notablemente. Para abordar este problema, se introduce una tecnica novedosa de re-registering para robustecer el seguimiento de las caracteristicas que forman el modelo, aprovechando las vistas que se tienen de la cara desde las distintas camaras. La muestra de cada caracteristica que se tiene almacenada y se usa para la localizaci´on del punto 2D sobre la cara se va actualizando conforme la cara rota, aprovechando los puntos de minimo error en la estimacion de la pose. De este modo, cada muestra solo se usa en el tracking en un rango de ±7, 5◦. Puesto que el modelo se crea inicialmente con una vista frontal de la cara, solo se pueden capturar puntos caracteristicos de la parte frontal. Cuando se producen rotaciones, algunos de esos puntos se ocultan, por lo que se hace necesario anadir nuevos puntos al modelo para evitar que el numero de puntos visibles disminuya. Tras anadir puntos de partes de la cara previamente ocultas, se ejecuta un Bundle Adjustment para reducir el error acumulativo que se puede producir al anadir puntos. El modelo 3D de la cara sirve de apoyo para reconstruir la posicion 3D de la misma usando uno de los dos algoritmos evaluados, bien sea POSIT o Levenberg-Marquardt, siendo el primero mas rapido, y LM mas preciso. Ademas, un proceso RANSAC permite detectar puntos incorrectos o outliers, y descartarlos para la estimacion de la pose. Gracias a la union de todos los metodos mencionados, se consigue un sistema de seguimiento que funciona en el rango completo de rotacion de la cara, y que mejora los resultados del estado del arte. A la estimacion de la pose de la cara se anade una estimacion de la direccion de la mirada y del punto de focalizacion de la misma. Estos datos aportan gran informacion sobre el comportamiento del conductor y su grado de distraccion. En el desarrollo de la tesis se evaluan y comparan las distintas tecnicas mencionadas, usando para ello una extensa coleccion de videos. El algoritmo de estimacion de la mirada propuesto en esta tesis se valida mediante un conjunto de experimentos de conduccion en un simulador realista, definidos por un equipo de psicologos. Se han simulado cambios climatologicos, maniobras y distracciones debidas a IVIS. Las pruebas han sido realizadas por conductores profesionales. Los resultados estadisticos obtenidos sobre la fijacion de la mirada muestran como la utilizacion de IVIS influye en el comportamiento de los conductores, incrementando sus tiempos de reaccion y afectando a la fijacion de su mirada sobre la carretera y sus alrededores. EnglishRecent studies have identified inattention (including distraction and drowsiness) as the main cause of accidents, being responsible of at least 25% of them. Driving distraction has been less studied, since it is more diverse and exhibits a higher risk factor than fatigue. In addition, it is present over half of the inattention involved crashes. The increased presence of In Vehicle Information Systems (IVIS) adds to the potential distraction risk and modifies driving behaviour, and thus research on this issue is of vital importance. Many researchers have been working on different approaches to deal with distraction during driving. Among them, Computer Vision is one of the most common, because it allows for a cost effective and non-invasive driver monitoring and sensing. Using Computer Vision techniques it is possible to evaluate some facial movements that characterise the state of attention of a driver. This thesis presents methods to estimate the face pose and gaze direction of a person in real-time, using a stereo camera as a basic for assessing driver distractions. The methods are completely automatic and user-independent. A set of features in the face are identified at initialisation, and used to create a sparse 3D model of the face. These features are tracked from frame to frame, and the model is augmented to cover parts of the face that may have been occluded before. The algorithm is designed to work in a naturalistic driving simulator, which presents challenging low light conditions. We evaluate several techniques to detect features on the face that can be matched between cameras and tracked with success. Well-known methods such as SURF do not return good results, due to the lack of salient points in the face, as well as the low illumination of the images. We introduce a novel multisize technique, based on Harris corner detector and patch correlation. This technique benefits from the better performance of small patches under rotations and illumination changes, and the more robust correlation of the bigger patches under motion blur. The head rotates in a range of ±90o in the yaw angle, and the appearance of the features change noticeably. To deal with these changes, we implement a new re-registering technique that captures new textures of the features as the face rotates. These new textures are incorporated to the model, which mixes the views of both cameras. The captures are taken at regular angle intervals for rotations in yaw, so that each texture is only used in a range of ±7.5o around the capture angle. Rotations in pitch and roll are handled using affine patch warping. The 3D model created at initialisation can only take features in the frontal part of the face, and some of these may occlude during rotations. The accuracy and robustness of the face tracking depends on the number of visible points, so new points are added to the 3D model when new parts of the face are visible from both cameras. Bundle adjustment is used to reduce the accumulated drift of the 3D reconstruction. We estimate the pose from the position of the features in the images and the 3D model using POSIT or Levenberg-Marquardt. A RANSAC process detects incorrectly tracked points, which are not considered for pose estimation. POSIT is faster, while LM obtains more accurate results. Using the model extension and the re-registering technique, we can accurately estimate the pose in the full head rotation range, with error levels that improve the state of the art. A coarse eye direction is composed with the face pose estimation to obtain the gaze and driver's fixation area, parameter which gives much information about the distraction pattern of the driver. The resulting gaze estimation algorithm proposed in this thesis has been tested on a set of driving experiments directed by a team of psychologists in a naturalistic driving simulator. This simulator mimics conditions present in real driving, including weather changes, manoeuvring and distractions due to IVIS. Professional drivers participated in the tests. The driver's fixation statistics obtained with the proposed system show how the utilisation of IVIS influences the distraction pattern of the drivers, increasing reaction times and affecting the fixation of attention on the road and the surroundings." @default.
- W1590460457 created "2016-06-24" @default.
- W1590460457 creator A5073123070 @default.
- W1590460457 date "2011-01-01" @default.
- W1590460457 modified "2023-09-24" @default.
- W1590460457 title "Face pose estimation with automatic 3D model creation for a driver inattention monitoring application" @default.
- W1590460457 cites W1508616463 @default.
- W1590460457 cites W1511665872 @default.
- W1590460457 cites W1562215661 @default.
- W1590460457 cites W1585406901 @default.
- W1590460457 cites W1601140663 @default.
- W1590460457 cites W1677409904 @default.
- W1590460457 cites W1713689486 @default.
- W1590460457 cites W1734489760 @default.
- W1590460457 cites W178398015 @default.
- W1590460457 cites W1838052923 @default.
- W1590460457 cites W1918198676 @default.
- W1590460457 cites W1930931594 @default.
- W1590460457 cites W1963623641 @default.
- W1590460457 cites W1966278331 @default.
- W1590460457 cites W1973667933 @default.
- W1590460457 cites W1983561474 @default.
- W1590460457 cites W1989175224 @default.
- W1590460457 cites W1995426701 @default.
- W1590460457 cites W2000221426 @default.
- W1590460457 cites W2020741953 @default.
- W1590460457 cites W2029835507 @default.
- W1590460457 cites W2030808768 @default.
- W1590460457 cites W2035379092 @default.
- W1590460457 cites W2038952578 @default.
- W1590460457 cites W2051075137 @default.
- W1590460457 cites W2051281833 @default.
- W1590460457 cites W2052770734 @default.
- W1590460457 cites W2054511520 @default.
- W1590460457 cites W2066399172 @default.
- W1590460457 cites W2081474223 @default.
- W1590460457 cites W2085261163 @default.
- W1590460457 cites W2087070363 @default.
- W1590460457 cites W2088115584 @default.
- W1590460457 cites W2088185241 @default.
- W1590460457 cites W2096568301 @default.
- W1590460457 cites W2097886782 @default.
- W1590460457 cites W2102210486 @default.
- W1590460457 cites W2102512156 @default.
- W1590460457 cites W2105396347 @default.
- W1590460457 cites W2107169682 @default.
- W1590460457 cites W2109200236 @default.
- W1590460457 cites W2111308925 @default.
- W1590460457 cites W2111773888 @default.
- W1590460457 cites W2113594567 @default.
- W1590460457 cites W2118877769 @default.
- W1590460457 cites W2119799745 @default.
- W1590460457 cites W2120455201 @default.
- W1590460457 cites W2121601095 @default.
- W1590460457 cites W2121783279 @default.
- W1590460457 cites W2123215156 @default.
- W1590460457 cites W2124386111 @default.
- W1590460457 cites W2126771657 @default.
- W1590460457 cites W2128958079 @default.
- W1590460457 cites W2129348295 @default.
- W1590460457 cites W2131150275 @default.
- W1590460457 cites W2131189471 @default.
- W1590460457 cites W2133192850 @default.
- W1590460457 cites W2133658999 @default.
- W1590460457 cites W2133797512 @default.
- W1590460457 cites W2134427011 @default.
- W1590460457 cites W2136897672 @default.
- W1590460457 cites W2137104937 @default.
- W1590460457 cites W2140297034 @default.
- W1590460457 cites W2141901794 @default.
- W1590460457 cites W2142458388 @default.
- W1590460457 cites W2142727917 @default.
- W1590460457 cites W2146985079 @default.
- W1590460457 cites W2147555557 @default.
- W1590460457 cites W2147575376 @default.
- W1590460457 cites W2148381543 @default.
- W1590460457 cites W2148900202 @default.
- W1590460457 cites W2150761159 @default.
- W1590460457 cites W2152671441 @default.
- W1590460457 cites W2153293376 @default.
- W1590460457 cites W2154376992 @default.
- W1590460457 cites W2155217597 @default.
- W1590460457 cites W2156717798 @default.
- W1590460457 cites W2157898655 @default.
- W1590460457 cites W2158497138 @default.
- W1590460457 cites W2165497495 @default.
- W1590460457 cites W2167020116 @default.
- W1590460457 cites W2179214582 @default.
- W1590460457 cites W2273607050 @default.
- W1590460457 cites W2532644526 @default.
- W1590460457 cites W2575061595 @default.
- W1590460457 cites W2613779721 @default.
- W1590460457 cites W3097096317 @default.
- W1590460457 cites W55018851 @default.
- W1590460457 cites W601322659 @default.
- W1590460457 cites W619997548 @default.
- W1590460457 cites W625439727 @default.
- W1590460457 hasPublicationYear "2011" @default.
- W1590460457 type Work @default.
- W1590460457 sameAs 1590460457 @default.