Le espressioni facciali non bastano per leggere le emozioni?

Quando si tratta di comprendere lo stato d’animo di una persona, lo scenario e le azioni che si compiono sono tanto importanti quanto le espressioni facciali e il linguaggio del corpo.

Il nuovo punto di vista sfida decenni di ricerca che afferma che l’intelligenza e il riconoscimento emotivo si basano in gran parte sulla capacità di leggere le espressioni facciali. Si riteneva che le espressioni fossero un indicatore di felicità, tristezza, rabbia, paura, sorpresa, disgusto, disprezzo e altri stati d’animo e sentimenti positivi e negativi.

I ricercatori dell’Università della California, Berkeley, danno l’esempio dell’attore James Franco nel film candidato all’Oscar “127 ore”. In una scena, Franco sembra vagamente felice mentre registra un diario video nel film. Ma quando la telecamera si ingrandisce, il pubblico vede che il suo braccio è schiacciato sotto un masso e che il suo sorriso smentisce la sua agonia.

Il nuovo studio, apparso sulla rivista Proceedings of National Academy of Sciences, suggerisce che il rilevamento emotivo richiede più di una “lettura” facciale.

“Il nostro studio rivela che il riconoscimento delle emozioni è fondamentalmente una questione di contesto tanto quanto una questione di volti”, ha detto l’autore principale Zhimin Chen, uno studente di dottorato in psicologia presso l’UC Berkeley.

Nello studio, i ricercatori hanno offuscato i volti e i corpi degli attori in dozzine di clip mute di film di Hollywood e di video domestici. Nonostante l’invisibilità virtuale dei personaggi, centinaia di partecipanti allo studio sono stati in grado di riconoscere accuratamente le emozioni esaminando lo sfondo e il modo in cui interagivano con l’ambiente circostante.

Il modello di “tracciamento affettivo” che Chen ha creato per lo studio consente ai ricercatori di tenere traccia di come le persone valutano le emozioni dei personaggi mentre guardano i video.

Il metodo di Chen è in grado di raccogliere grandi quantità di dati in breve tempo e potrebbe eventualmente essere utilizzato per valutare come le persone con disturbi come l’autismo e la schizofrenia leggano le emozioni in tempo reale e potrebbe aiutare con le diagnosi.

“Alcune persone potrebbero avere deficit nel riconoscere le espressioni facciali, ma possono riconoscere le emozioni dal contesto. Per gli altri, è il contrario”.

Inoltre, i risultati, basati su analisi statistiche delle valutazioni raccolte, potrebbero aiutare nello sviluppo della tecnologia di riconoscimento facciale.

“In questo momento, le aziende stanno sviluppando algoritmi di apprendimento automatico per riconoscere le emozioni, ma addestrano i loro modelli solo su volti ritagliati e quei modelli possono solo leggere le emozioni dai volti”, ha detto Chen. “La nostra ricerca mostra che i volti non rivelano le emozioni vere in modo molto accurato e che l’identificazione dello stato d’animo di una persona dovrebbe tener conto anche del contesto”.

“Nel complesso, i risultati suggeriscono che il contesto non è solo sufficiente per percepire l’emozione, ma anche necessario per percepire l’emozione di una persona”, ha affermato il dottor David Whitney, autore senior dello studio e professore di psicologia alla UC Berkeley. “Ammettiamolo, il volto non è abbastanza per percepire l’emozione”.

Vuoi saper riconoscere le emozioni e conoscere il Linguaggio del Corpo per facilitare la tua vita? Clicca qui per info e training o contattami direttamente a info@francescodifant.it.

Tratto da https://psychcentral.com/news/2019/03/18/facial-expressions-alone-may-not-convey-emotional-state/143285.html