Empatía artificial
La empatía artificial o empatía computacional es el desarrollo de sistemas de IA, como robots acompañantes o agentes virtuales, que pueden detectar emociones y responder a ellas de manera empática.[1]
Si bien dicha tecnología puede percibirse como aterradora o amenazante,[2] también podría tener una ventaja significativa sobre los humanos para roles en los que la expresión emocional puede ser importante, como en el sector de la atención médica.[3] Por ejemplo, los cuidadores que realizan un trabajo emocional que va más allá de los requisitos del trabajo remunerado pueden experimentar estrés crónico o agotamiento y pueden volverse insensibles a los pacientes.
El juego de roles emocionales entre un receptor de cuidados y un robot podría teóricamente resultar en menos miedo y preocupación por la situación del receptor ("si es solo un robot que me cuida, no puede ser tan crítico"). Los académicos debaten el posible resultado de dicha tecnología utilizando dos perspectivas diferentes: la empatía artificial podría ayudar a la socialización de los cuidadores o servir como modelo a seguir para el desapego emocional.[3] [4]
Una definición más amplia de empatía artificial es "la capacidad de modelos no humanos para predecir el estado interno de una persona (p. ej., cognitivo, afectivo, físico) dadas las señales que emite (p. ej., expresión facial, voz, gesto) o para predecir la reacción de una persona (incluidos, entre otros, los estados internos) cuando se expone a un conjunto determinado de estímulos (por ejemplo, expresión facial, voz, gestos, gráficos, música, etc.) )".[5]
Áreas de investigación
Hay una variedad de preguntas filosóficas, teóricas y de aplicación relacionadas con la empatía artificial. Por ejemplo:
- ¿Qué condiciones tendrían que cumplirse para que un robot respondiera de manera competente a una emoción humana?
- ¿Qué modelos de empatía pueden o deben aplicarse a la robótica social y asistencial?
- ¿Debe la interacción de humanos con robots imitar la interacción afectiva entre humanos?
- ¿Puede un robot ayudar a la ciencia a aprender sobre el desarrollo afectivo de los humanos? [6]
- ¿Crearían los robots categorías imprevistas de relaciones no auténticas?
- ¿Qué relaciones con los robots se pueden considerar auténticas?
Ejemplos de investigación y práctica de la empatía artificial
Las personas a menudo se comunican y toman decisiones basadas en inferencias sobre los estados internos de los demás (p. ej., estados emocionales, cognitivos y físicos) que a su vez se basan en señales emitidas por la persona, como la expresión facial, el gesto corporal, la voz y las palabras. En términos generales, la empatía artificial se centra en desarrollar modelos no humanos que logran objetivos similares utilizando datos similares.
Corrientes de investigación sobre empatía artificial
La empatía artificial se ha aplicado en varias disciplinas de investigación, incluida la inteligencia artificial y los negocios. Dos corrientes principales de investigación en este dominio son:
- El uso de modelos no humanos para predecir el estado interno de una persona (p. ej., cognitivo, afectivo, físico) dadas las señales que emite (p. ej., expresión facial, voz, gesto)
- El uso de modelos no humanos para predecir la reacción de una persona cuando está expuesta a un conjunto determinado de estímulos (por ejemplo, expresión facial, voz, gestos, gráficos, música, etc.) ).[5]
La investigación sobre computación afectiva, como el reconocimiento emocional del habla y la detección de expresiones faciales, se enmarca dentro de la primera corriente de empatía artificial. Los contextos que se han estudiado incluyen entrevistas orales,[7] centros de llamadas,[8] interacción humano-computadora, argumentos de venta,[9] e informes financieros.[10]
La segunda corriente de empatía artificial se ha investigado más en contextos de marketing, como publicidad,[11] creación de marca,[12] reseñas de clientes,[13] sistemas de recomendación en la tienda,[14] películas,[15] y citas en línea.[16]
Aplicaciones de la empatía artificial en la práctica
Con el creciente volumen de datos visuales, de audio y de texto en el comercio, se han desarrollado muchas aplicaciones comerciales para la empatía artificial. Por ejemplo, Affectiva [17] analiza las expresiones faciales de los espectadores de las grabaciones de video mientras miran anuncios para optimizar el diseño del contenido de la propaganda. Software como HireVue,[18] BarRaiser,[19] una empresa de inteligencia de contratación, ayuda a las empresas a tomar decisiones de contratación mediante el análisis de la información de audio y video de las entrevistas en video de los candidatos. Lapetus Solutions [20] desarrolla un modelo para estimar la longevidad, el estado de salud y la susceptibilidad a enfermedades de un individuo a partir de una foto del rostro. Su tecnología se ha aplicado en la industria de seguros.[21]
Empatía artificial y servicios humanos
Aunque la inteligencia artificial aún no puede reemplazar a los propios trabajadores sociales, la tecnología se ha desplegado en ese campo. La Universidad Estatal de Florida publicó un estudio sobre el uso de la Inteligencia Artificial en el campo de los servicios humanos.[22] La investigación utilizó algoritmos informáticos para analizar los registros de salud en busca de combinaciones de factores de riesgo que pudieran predecir un futuro intento de suicidio. El artículo informa que "el aprendizaje automático, una frontera futura para la inteligencia artificial, puede predecir con una precisión del 80% al 90% si alguien intentará suicidarse hasta dos años en el futuro. Los algoritmos se vuelven aún más precisos a medida que se acerca el intento de suicidio de una persona. Por ejemplo, la precisión sube al 92% una semana antes de un intento de suicidio cuando la inteligencia artificial se enfoca en los pacientes del hospital general".
Tales máquinas algorítmicas pueden ayudar a los trabajadores sociales. El trabajo social opera en un ciclo de compromiso, evaluación, intervención y evaluación con los clientes. Una evaluación más temprana del riesgo de suicidio puede conducir a intervenciones y prevención más tempranas y, por lo tanto, a salvar vidas. El sistema aprendería, analizaría y detectaría los factores de riesgo, alertando al médico de la puntuación de riesgo de suicidio de un paciente (análoga a la puntuación de riesgo cardiovascular de un paciente). Luego, los trabajadores sociales podrían intervenir para una evaluación adicional y una intervención preventiva.
Véase también
Referencias
- Yalçın, Ö.N., DiPaola, S. "Modeling empathy: building a link between affective and cognitive processes." Artificial Intelligence Review 53, 2983–3006 (2020). doi 10.1007/s10462-019-09753-0.
- Jan-Philipp Stein; Peter Ohler (2017). «Venturing into the uncanny valley of mind—The influence of mind attribution on the acceptance of human-like characters in a virtual reality setting». Cognition (en inglés) 160: 43-50. ISSN 0010-0277. PMID 28043026. doi:10.1016/j.cognition.2016.12.010.
- Bert Baumgaertner; Astrid Weiss (26 de febrero de 2014). «Do Emotions Matter in the Ethics of Human-Robot Interaction?». Artificial Empathy and Companion Robots (European Community’s Seventh Framework Programme (FP7/2007-2013) under grant agreement No. 288146 (“HOBBIT”); and the Austrian Science Foundation (FWF) under grant agreement T623-N23 (“V4HRC”)).
- Minoru Asada (14 de febrero de 2014). «Affective Developmental Robotics». How Can We Design the Development of Artificial Empathy? (Osaka, Japan: Dept. of Adaptive Machine Systems, Graduate School of Engineering, Osaka University).
- Xiao, L., Kim, H. J., & Ding, M. (2013). "An introduction to audio and visual research and applications in marketing". Review of Marketing Research, 10, p. 244. doi 10.1108/S1548-6435(2013)0000010012.
- Angelica Lim, Hiroshi G. Okuno, A Recipe for Empathy Integrating the Mirror System, Insula, Somatosensory Cortex and Motherese. International Journal of Social Robotics 7, 35-49, 2014. https://link.springer.com/article/10.1007/s12369-014-0262-y
- Hansen, J. H., Kim, W., Rahurkar, M., Ruzanski, E., & Meyerhoff, J. (2011). "Robust emotional stressed speech detection using weighted frequency subbands". EURASIP Journal on Advances in Signal Processing, 2011, 1–10.
- Lee, C. M., & Narayanan, S. S. (2005). "Toward detecting emotions in spoken dialogs. IEEE transactions on speech and audio processing, 13(2), 293–303.
- Allmon, D. E., & Grant, J. (1990). "Real estate sales agents and the code of ethics: A voice stress analysis." Journal of Business Ethics, 9(10), 807–812.
- Hobson, J. L., Mayew, W. J., & Venkatachalam, M. (2012). "Analyzing speech to detect financial misreporting." Journal of Accounting Research, 50(2), 349–392.
- Xiao, L., & Ding, M. (2014). "Just the faces: Exploring the effects of facial features in print advertising". Marketing Science, 33(3), 338–352.
- Netzer, O., Feldman, R., Goldenberg, J., & Fresko, M. (2012). "Mine your own business: Market-structure surveillance through text mining." Marketing Science, 31(3), 521–543.
- Büschken, J., & Allenby, G. M. (2016). "Sentence-based text analysis for customer reviews." Marketing Science, 35(6), 953–975.
- Lu, S., Xiao, L., & Ding, M. (2016). "A video-based automated recommender (VAR) system for garments." Marketing Science, 35(3), 484-510.
- Liu, X., Shi, S. W., Teixeira, T., & Wedel, M. (2018). "Video content marketing: The making of clips." Journal of Marketing, 82(4), 86–101.
- Zhou, Yinghui, Shasha Lu, & Min Ding (2020), "Contour-as-Face (CaF) Framework: A Method to Preserve Privacy and Perception", Journal of Marketing Research, forthcoming.
- «Affectiva».
- «Pre-employment Testing & Video Interviewing Platform».
- «Interview Intelligence Software».
- «Lapetus Solutions, Inc».
- «CHRONOS - Get Started».
- Patronis, Amy Farnum (28 de febrero de 2017). «How artificial intelligence will save lives in the 21st century». Florida State University News (en inglés estadounidense). Consultado el 28 de junio de 2022.