Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Cómo logra el cerebro diferenciar las señales del rostro y el contexto al comprender las emociones en otros

    Buenos Aires » Infobae

    Fecha: 18/12/2025 08:35

    Un estudio de la Universidad de California revela cómo el cerebro integra señales faciales y contextuales para interpretar emociones (Imagen Ilustrativa Infobae) Hay personas que captan al instante el clima emocional de una situación, mientras que otras tienen dificultades para interpretar lo que sienten quienes las rodean. Según un estudio reciente de la Universidad de California, esta diferencia no es casual: depende de cómo el cerebro procesa e integra las señales emocionales que provienen del rostro y del contexto. Cómo el cerebro integra expresión y contexto La investigación, buscó entender cómo el cerebro combina información de las expresiones faciales y del entorno para evaluar el estado emocional de los demás. El estudio fue publicado en la revista Nature Communications. El equipo liderado por Jefferson Ortega, doctorando en psicología, y David Whitney, profesor de psicología, diseñó un experimento en el que participaron 944 voluntarios. Durante la prueba, los participantes vieron videos donde, en algunos casos, el fondo aparecía difuminado y, en otros, era el rostro el que se mostraba borroso. Esta estrategia permitió separar y analizar la influencia relativa de las señales faciales y ambientales en la interpretación de emociones. El experimento con 944 voluntarios demuestra que el cerebro prioriza la información más clara entre rostro y entorno al leer emociones (Imagen Ilustrativa Infobae) Los resultados mostraron que el cerebro utiliza un mecanismo de integración flexible: cuando la expresión facial es nítida y el contexto resulta confuso, predomina la información que aporta el rostro. Si, en cambio, la expresión facial es borrosa pero el entorno es claro, el cerebro otorga más peso al contexto. Este proceso se denomina “integración bayesiana”; en términos simples, significa que el cerebro evalúa cuánto confiar en cada señal según cuán clara sea. Dos estilos para “leer” emociones: integración compleja o promedio simple Uno de los hallazgos más llamativos del estudio fue la gran variabilidad individual en las estrategias utilizadas. Aproximadamente un 70% de las personas aplicó integración bayesiana, ajustando el peso de cada señal según su nitidez. El 30% restante adoptó una estrategia diferente y más simple: promediaba la información de ambos canales (rostro y entorno) de forma indiferenciada, sin distinguir cuál aportaba datos más fiables. Las diferencias en la interpretación emocional pueden deberse a variaciones en el desarrollo cerebral o a preferencias cognitivas individuales (Imagen Ilustrativa Infobae) Jefferson Ortega aclaró que esta segunda estrategia requiere menos recursos cognitivos y puede deberse a diferencias en el desarrollo cerebral o simplemente a una preferencia por la sencillez. “No sabemos exactamente por qué ocurren estas diferencias”, explicó Ortega en declaraciones recogidas por la Universidad de California. “La idea es que algunas personas podrían usar esta estrategia más simple porque demanda menos recursos cognitivos, o tal vez por déficits subyacentes”. Implicancias sociales y el vínculo con el autismo El estudio no solo ayuda a explicar por qué hay personas más “intuitivas” socialmente que otras, sino que también podría ser clave para entender mejor condiciones como el autismo. En investigaciones previas, se vio que quienes presentan rasgos del espectro autista suelen tener dificultad para combinar información evidente del rostro y del contexto, complicando la interpretación de emociones en situaciones sociales. Los autores sugieren que analizar las diferentes estrategias de integración puede ofrecer una nueva perspectiva sobre los sistemas de procesamiento en personas con estas condiciones, y quizá ayudar a diseñar intervenciones más personalizadas. Comprender cómo el cerebro procesa emociones abre nuevas vías para intervenciones personalizadas en educación y salud menta (Imagen Ilustrativa Infobae) David Whitney subrayó la variabilidad individual encontrada: “Algunos observadores son muy buenos integrando contexto y expresiones faciales para entender emociones, y otros no tanto”, apuntó, según la Universidad de California. Estos hallazgos abren nuevas líneas de investigación: comprender cómo cada cerebro prioriza o combina señales emocionales podría ayudar a desentrañar las claves de la empatía, la comunicación y la adaptación social. El equipo Berkeley, considera que profundizar en estos mecanismos permitirá avanzar en la comprensión de la diversidad cognitiva y en cómo apoyarla en contextos educativos, clínicos y sociales. Así, el secreto para “leer” emociones ajenas no está solo en nuestros ojos o percepción, sino en cómo nuestro cerebro elige y procesa las pistas que le da cada persona y cada situación.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por