Sistema de Codificación Facial

Codificación Facial es un sistema para denominar movimientos faciales humanos por su apariencia en la cara, basado en un sistema desarrollado originalmente por un anatomista sueco llamado Carl- Herman Hjortsjö.[1] Fue tomado después por Paul Ekman y Wallace V. Friesen, y publicado en 1978[2] Ekman, Friesen, and Joseph C. Hager publicaron una importante actualización de la Programación y Codificación facial en 2002.[3] Los movimientos individuales de los músculos faciales son codificadas por ' FACS ' desde leves cambios instantáneos en la apariencia facial.[4] Se trata de un estándar común de clasificar sistemáticamente la expresión física de emociones , y ha demostrado ser útil para la psicología y para la animación. Debido a cuestiones de tiempo y problemas en la percepción subjetiva, la codificación facial (FACS) se ha establecido como un sistema computarizado automático que detecta los rostros en vídeos , extrae las características geométricas de las caras , y luego produce perfiles temporales de cada movimiento facial.[4] El pionero F-M Facial Action Coding System 2.0 (F-M FACS 2.0)[5] fue creado en 2017 por el Dr. Freitas-Magalhães, y presenta 2.000 segmentos en 4K, utilizando tecnología 3D y reconocimiento automático y en tiempo real. El pionero F-M Facial Action Coding System 3.0 (FM FACS 3.0)[6] fue creado en 2018 por el Dr. Freitas-Magalhães, y presenta 4.000 segmentos en 4K, utilizando tecnología 3D y reconocimiento automático y en tiempo real (FaceReader 7.1). FM FACS 3.0 presenta 8 unidades de acción pioneras (AU) y 22 movimientos de lengua (TM) pioneros, además de la nomenclatura funcional y estructural.

Músculos de cabeza y cuello.

Usos

Utilizando la codificación facial (FACS),[7] diversos codificadores humanos pueden manualmente detectar casi cualquier expresión facial anatómicamente posible , descodificando en las unidades específicas de acción ( UA) y los segmentos temporales que produjeron la expresión. Como las unidades específicas de acción (UA) son independientes de cualquier interpretación, estas pueden ser utilizadas para la toma de decisiones de orden superior incluyendo el reconocimiento de emociones básicas, o los comandos pre-programados para un entorno ambiental inteligente. El Manual de FACS es de más de 500 páginas de extensión y enseña las UA´S, así como la interpretación de Ekman acerca de su significado .

La codificación facial define UA, como una contracción o la relajación de uno o más músculos. También define una serie de descriptores de acción, que se diferencian de las UA debido a que la codificación facial no ha especificado la base muscular para la acción y tienen comportamientos específicos no distinguidos con tanta precisión como lo han hecho por la UA.

Por ejemplo, la codificación facial puede ser utilizada para distinguir dos tipos de sonrisa como se muestra:[8]

Aunque el etiquetado de las expresiones actualmente requiere de expertos entrenados, los investigadores han tenido cierto éxito en el uso de computadoras para identificar automáticamente los códigos faciales, y así identificar rápidamente las emociones.[9] Modelos faciales computarizados, como CANDIDE o Artnatomy , permiten expresiones artificialmente planteadas mediante el establecimiento de las unidades de acción deseadas.

El uso de FACS se ha propuesto para su uso en el análisis del Trastorno depresivo mayor,[10] y la medición del dolor en pacientes que no pueden expresarse verbalmente.[11] FACS está diseñado para ser auto - dirigido. La gente puede aprender la técnica a partir de una serie de fuentes incluyendo los manuales y talleres,[12] y obtener una certificación a través de evaluación.[13] El FACS original ha sido modificado para analizar los movimientos faciales en varios primates no humanos , a saber chimpancés,[14] macacos,[15] gibones,[16] y orangutanes[17] Más recientemente , se ha adaptado para una especie doméstica, el perro[18] Por lo tanto, FACS se puede utilizar para comparar los repertorios faciales a través de especies debido a su base anatómica. Un estudio realizado por Vick y otros (2006) sugiere que FACS se puede modificar mediante la adopción de las diferencias en la morfología subyacente en cuenta. Tales consideraciones permiten una comparación de los movimientos faciales homólogas presentes en los seres humanos y los chimpancés, para demostrar que las expresiones faciales de ambas especies son el resultado de cambios de apariencia extremadamente notables. El desarrollo de herramientas de FACS para diferentes especies permite el estudio objetivo y anatómico de las expresiones faciales en contextos comunicativos y emocionales. Por otra parte, un análisis transversal de las especies en las expresiones faciales pueden ayudar a responder preguntas interesantes, como por ejemplo por qué las emociones son exclusivamente humanas.[19]

EMFACS, por sus siglas en inglés (Emotional Facial Action Coding System)[20] y FACSAID (Facial Action Coding System Affect Interpretation Dictionary)[21] consideran solo acciones faciales relacionadas con la emoción. Como ejemplo:

EmociónUnidades de acción
Felicidad6+12
Tristeza1+4+15
Sorpresa1+2+5B+26
Miedo1+2+4+5+7+20+26
Coraje4+5+7+23
Disgusto9+15+16
DesprecioR12A+R14A

Nomenclatura para unidades de acción

Para mayor claridad, FACS es un índice de las expresiones faciales, pero en realidad no proporciona ninguna información biomecánica sobre el grado de activación del músculo. Aunque la activación del músculo no es parte de FACS, los principales músculos implicados en la expresión facial se han añadido aquí para el beneficio del lector.

Unidades de acción (AUS) son las acciones fundamentales de músculos o grupos individuales de los mismos.

Nominadores de acción son movimientos unitarios que pueden implicar las acciones de varios grupos musculares (por ejemplo, un movimiento hacia adelante empujando de la mandíbula). La base muscular para estas acciones no se ha especificado y comportamientos específicos no han sido distinguidos con la mayor precisión para la UA.

Para anotación más precisa, FACS sugiere acordar a partir de al menos dos codificadores FACS certificados independientes.

Notación de intensidad

Las intensidades de FACS se anotan añadiendo las letras A-E (para la intensidad mínima-máxima) y números para la unidad de acción (por ejemplo, AU 1A es la traza más débil de AU 1 y AU 1E es la máxima intensidad posible para el gesto facial).

  • A Rastro
  • B Leve
  • C Pronunciado
  • D Severo o extremo
  • E Máximo

Códigos Principales

Número de acciónNombre de acción
0Rostro Neutral
1Levantamiento interior de ceja
2Levantamiento exterior de ceja
4Bajar cejas
5Levantamiento del párpado superior
6Levantamiento de mejillas
7Apretar párpado(s)
8Labios encimados uno de otro
9Arrugar la nariz
10Levantamiento del labio superior
11Profundidad nasolabial
12Tiramiento labial esquinal
13Tiramiento labial frontal
14Hoyuelo facial
15Depresión labial esquinal
16Depresión labial frontal
17Levantamiento de barbilla
18Arruga labial
19Muestro de lengua
20Apretar los labios
21Apretamiento de cuello
22Embudo labial
23Morder labios
24Presión Labial
25Deslizamiento labial
26Caída de la mandíbula
27Apretamiento bucal
28Lamido labial
29Tracción de la mandíbula
30Deslizamiento de mandíbula
31Contracción mandibular
32Mordida labial
33Succión de mejillas
34Inflar mejillas
35Soplido de mejillas
36Protuberancia de lengua
37Limpieza labial
38Dilatado nasal
39Compresión nasal
41Bajada de párpados
42Contracción retinal
43Ojos cerrados
44Recolector retinal
45Parpadeo
46Guiño

Códigos motores de cabeza

Número de acciónNombre de acción
51Girar cabeza a la izquierda
52Girar cabeza a la derecha
53Alzar la cabeza
54Bajar la cabeza
55Inclinación de la cabeza hacia la derecha
M55Inclinación de la cabeza a la izquierda
56Leve inclinación
M56Inclinación derivada en el cuello
57Head Forward
M57Empujar cabeza hacia adelante
58Empujar hacia atrás
M59Agitar cabeza hacia arriba y abajo
M60Agitar cabeza de lado a lado
M83Inclinación diagonal

Códigos de movimiento ocular

Número de acciónNombre de acción
61Mover ojos hacia la izquierda
M61Ojos a la izquierda
62Mover ojos a la derecha
M62Ojos a la derecha
63Ojos hacia arriba
64Ojos hacia abajo
65Leucoma
66Estrabismo
M68Deslizamiento ocular
69Fijar los ojos en otra persona
M69Posicionamiento ocular y frontal

Códigos de visibilidad

Número de acciónNombre de acción
70Frente y cejas no visibles
71Ojos no visibles
72Mentón no visible
73Rostro sin movimiento
74Indescifrable

Códigos de comportamiento bruto

Estos códigos están reservados para el registro de información sobre conductas manifiestas que pueden ser relevantes para las acciones faciales a calificar.

Número de acciónNombre de acción
40Estornudo
50Discurso
80Tragar
81Masticar
82Encogimiento de hombros
84Sacudir cabeza
85Asentir con la cabeza
91Movimiento instantáneo
92Movimiento instantáneo parcial
97*Temblar
98*Barrido ocular

Referencias

  1. Hjortsjö, CH (1969). Man's face and mimic language.
  2. P. Ekman and W. Friesen. Facial Action Coding System: A Technique for the Measurement of Facial Movement. Consulting Psychologists Press, Palo Alto, 1978.
  3. Paul Ekman, Wallace V. Friesen, and Joseph C. Hager. Facial Action Coding System: The Manual on CD ROM. A Human Face, Salt Lake City, 2002.
  4. Hamm, J.; Kohler, C. G.; Gur, R. C.; Verma, R. (2011). "Automated Facial Action Coding System for dynamic analysis of facial expressions in neuropsychiatric disorders". Journal of Neuroscience Methods 200 (2): 237–256. doi:10.1016/j.jneumeth.2011.06.023. PMC 3402717. PMID 21741407
  5. Freitas-Magalhães, A. (2017). Facial Action Coding System 2.0: Manual de Codificación Científica de la Cara Humana. Porto: FEELab Science Books. ISBN 978-989-8766-90-8.
  6. Freitas-Magalhães, A. (2018). Facial Action Coding System 3.0: Manual de Codificación Científica de la Cara Humana. Porto: FEELab Science Books. ISBN 978-989-8766-90-8.
  7. Freitas-Magalhães, A. (2012). Microexpression and macroexpression. In V. S. Ramachandran (Ed.), Encyclopedia of Human Behavior (Vol. 2, pp. 173–183). Oxford: Elsevier/Academic Press. ISBN 978-0-12-375000-6
  8. Del Giudice, M.; Colle, L. (2007). "Differences between children and adults in the recognition of enjoyment smiles". Developmental Psychology 43 (3): 796–803. doi:10.1037/0012-1649.43.3.796. PMID 17484588
  9. Facial Action Coding System. Retrieved July 21, 2007.
  10. Reed, L. I.; Sayette, M. A.; Cohn, J. F. (2007). "Impact of depression on response to comedy: A dynamic facial coding analysis". Journal of Abnormal Psychology 116 (4): 804–809. doi:10.1037/0021-843X.116.4.804. PMID 18020726
  11. Lints-Martindale, A. C.; Hadjistavropoulos, T.; Barber, B.; Gibson, S. J. (2007). "A Psychophysical Investigation of the Facial Action Coding System as an Index of Pain Variability among Older Adults with and without Alzheimer's Disease". Pain Medicine 8 (8): 678–689. doi:10.1111/j.1526-4637.2007.00358.x. PMID 18028046
  12. https://web.archive.org/web/20090206232546/http://www.erikarosenberg.com/FACS.html Example and web site of one teaching professional: Erika L. Rosenberg, Ph.D
  13. https://web.archive.org/web/20090301161920/http://www.face-and-emotion.com/dataface/facs/fft.jsp
  14. Parr, L. A.; Waller, B. M.; Vick, S. J.; Bard, K. A. (2007). "Classifying chimpanzee facial expressions using muscle action". Emotion 7 (1): 172–181. doi:10.1037/1528-3542.7.1.172. PMC 2826116. PMID 1735257
  15. Parr, L. A.; Waller, B. M.; Burrows, A. M.; Gothard, K. M.; Vick, S. J. (2010). "Brief communication: MaqFACS: A muscle-based facial movement coding system for the rhesus macaque". American Journal of Physical Anthropology 143 (4): 625–630. doi:10.1002/ajpa.21401. PMC 2988871. PMID 20872742
  16. Waller, B. M.; Lembeck, M.; Kuchenbuch, P.; Burrows, A. M.; Liebal, K. (2012). "GibbonFACS: A Muscle-Based Facial Movement Coding System for Hylobatids". International Journal of Primatology 33 (4): 809. doi:10.1007/s10764-012-9611-6
  17. Caeiro, C. T. C.; Waller, B. M.; Zimmermann, E.; Burrows, A. M.; Davila-Ross, M. (2012). "OrangFACS: A Muscle-Based Facial Movement Coding System for Orangutans (Pongo spp.)". International Journal of Primatology 34: 115. doi:10.1007/s10764-012-9652-x
  18. Waller, B. M.; Peirce, K.; Caeiro, C. C.; Scheider, L.; Burrows, A. M.; McCune, S.; Kaminski, J. (2013). "Paedomorphic Facial Expressions Give Dogs a Selective Advantage". PLoS ONE 8 (12): e82686. doi:10.1371/journal.pone.0082686. PMC 3873274. PMID 24386109
  19. Vick, S. J.; Waller, B. M.; Parr, L. A.; Smith Pasqualini, M. C.; Bard, K. A. (2006). "A Cross-species Comparison of Facial Morphology and Movement in Humans and Chimpanzees Using the Facial Action Coding System (FACS)". Journal of Nonverbal Behavior 31 (1): 1–20. doi:10.1007/s10919-006-0017-z. PMC 3008553. PMID 21188285
  20. Friesen, W.; Ekman, P. (1983). EMFACS-7: Emotional Facial Action Coding System. Unpublished manual, University of California, California.
  21. https://web.archive.org/web/20110520164308/http://face-and-emotion.com/dataface/facsaid/description.jsp Facial Action Coding System Affect Interpretation Dictionary (FACSAID)

Enlaces externos

Este artículo ha sido escrito por Wikipedia. El texto está disponible bajo la licencia Creative Commons - Atribución - CompartirIgual. Pueden aplicarse cláusulas adicionales a los archivos multimedia.