Placeholder ¿Cómo reconocen las máquinas las emociones humanas y por qué debería importarme? | SINSMART

ROIPRESS / EXPERTOS / TECNOLOGÍA / IA / NEUROMARKETING - Para responder a estas preguntas, debemos partir de esta otra: ¿Cómo se dota de emociones a una máquina? Todo el mundo sabe que una de las grandes diferencias entre humanos y máquinas o robots es que solo las personas pueden sentir emociones.

Una máquina no es más que una combinación de ceros y unos, programada por humanos para realizar distintas tareas, como el control de semáforos, cálculos matemáticos, videojuegos, etc. Incluso dotadas de la llamada inteligencia artificial, son capaces de vencer a los mejores. ajedrecistas (1951) o más recientemente en el juego del Go (2016).

Este crecimiento exponencial de las capacidades de la inteligencia artificial (IA) ha dado lugar a nuevas palabras clave muy populares como #deepLearning, #machineLearning, #AI o #NeuralNetworks. Los avances tecnológicos de las redes neuronales en los últimos cinco años han sido increíbles, desde el punto de vista matemático y con respecto a su uso en computadoras, permitiendo resolver problemas que, hasta la fecha, estaban fuera de su alcance o requerían un uso excesivo. tiempo. procesamiento, de semanas a meses.

Esto es lo que ha permitido, a través de la IA, que las máquinas identifiquen las emociones humanas. Estas máquinas no pueden (por el momento) sentir emociones como nosotros los humanos, pero son capaces de comprender nuestro estado emocional a través de imágenes y videos. Pero la pregunta es ¿cómo es posible?

Al igual que algunos humanos, utiliza la información proporcionada por las microexpresiones en los rostros de las personas.

El potencial de las microexpresiones universales en las facciones humanas.

Las microexpresiones son un movimiento muy rápido (del orden de ¼ de segundo) que los humanos no pueden controlar. Estos incluyen uno o más músculos faciales que están directamente conectados al cerebro. Estas microexpresiones han sido estudiadas por la comunidad científica, incluido Paul Ekman en 1978, quien fue capaz de clasificar los diferentes músculos faciales y determinar que todos los humanos universalmente expresamos siete emociones básicas de forma idéntica, independientemente de nuestro origen u origen. cultura. Estas expresiones son: alegría, sorpresa, tristeza, miedo, ira, asco y desprecio.

Los seres humanos han sido entrenados desde una edad muy temprana para ver y comprender esas expresiones en los rostros de quienes nos rodean y actuar en consecuencia. Por ejemplo, si viajas al extranjero, aunque no hables el idioma de los nativos, instintivamente entiendes que es mejor no acercarse a alguien como la persona de la imagen de la izquierda para preguntarle algo o incluso mantendrás la distancia. . Sin embargo, nos acercaríamos a la persona de la derecha y podríamos hacerle una pregunta sin sentir ningún riesgo.

Bien, las máquinas que usan microexpresiones están inspiradas en las teorías de Ekman con la ayuda de la IA. Pero esto no explica cómo funcionan.

Respondamos esa pregunta. Las máquinas usan redes neuronales convolucionales que usan funciones matemáticas como Leaky Relu para deducir emociones humanas usando una imagen o video.

Si no soy doctor en matemáticas o ingeniería informática, y tampoco soy experto en neurociencia, ¿puedo entender cómo funcionan estas máquinas?

No te preocupes. En menos de cinco minutos, después de leer los siguientes párrafos, podrás responder a esta pregunta por ti mismo. Para ayudarnos en este proceso, utilicemos un ejemplo.

¿Cuál es la principal emoción que una persona puede expresar?

Tomemos como ejemplo las siguientes 4 imágenes de un video, donde una persona está expresando una emoción profunda. Son las primeras 30 decenas de segundos desde el nacimiento de esa emoción. Como persona, deberías poder adivinar cuál es la emoción principal, ¿verdad?

Si miras las dos imágenes de la izquierda, ¿crees que es un hombre feliz, a punto de estallar en carcajadas?

Pero si miras ahora las dos imágenes de la derecha, ¿crees que es un hombre triste, que está a punto de llorar? ¿O está enojado por empezar a gritar? Eres un ser humano con neuronas biológicas, y no es tan obvio, ¿verdad?

Veamos cómo la máquina afronta este reto utilizando redes neuronales, o lo que es lo mismo, IA, y aprovechemos para explicar este funcionamiento de forma sencilla. Puedes probar si la explicación es realmente sencilla, porque hasta un niño mayor de 10 años debería entenderlo.

¿Qué es una red neuronal?

Sobre estas líneas tenemos una neurona. Obtenga la información de la flecha de la izquierda. Los cálculos matemáticos analizan la información y el resultado se transmite a través de la flecha de la derecha.

Bajo estas líneas tenemos una red de 6 neuronas. Todos reciben información, la procesan y la transmiten. Están todas interconectadas, como lo están las neuronas biológicas humanas, con la diferencia de que en este caso son ceros y unos en una computadora.

Debajo de este párrafo puedes ver un ejemplo de una red neuronal compuesta por varios "grupos" de neuronas organizadas en columnas llamadas "capas ocultas". Cada columna se ocupa de procesar la información y enviarla a la columna de su derecha, hasta llegar a un punto determinado. resultado final Por ejemplo, toma la imagen #2 para mostrar, paso a paso, el funcionamiento de la máquina a través de su red neuronal.

El primer paso es proporcionar a la máquina la imagen (la primera flecha de la izquierda). La primera neurona se ocupa de convertir esta imagen en una tabla numérica que representa la cantidad de rojo, verde y azul en cada píxel de la imagen. Hay que tener en cuenta que las pantallas de nuestros dispositivos están formadas por muchos puntos (píxeles), compuestos a su vez por una cierta cantidad de rojo, verde y azul, cuya mezcla da lugar al color final de cada punto. Estas tablas numéricas se envían a la segunda columna de neuronas cuya tarea es identificar los rostros en la imagen.

El tercer paso es transmitir el rostro a la tercera columna de neuronas, que se encarga de detectar puntos estratégicos del rostro. La mayoría de las redes neuronales identifican entre 68 y 105 puntos en una cara.

El cuarto paso es identificar partes de la cara como la mandíbula, la boca, los ojos o las cejas.

El quinto paso es identificar el número de emociones correspondientes a cada parte de la cara. Una boca con forma de sonrisa nos dará información relacionada con la felicidad. Las cejas levantadas se pueden asociar con una sorpresa, etc.

La máquina finalmente deducirá que la imagen #2 contiene un rostro humano que asocia con un 65% de felicidad y un 31% de ira. Según la máquina, en esta imagen el hombre está a punto de reír, y por lo tanto expresa felicidad. Para dar un resultado relevante, la máquina analizará una sucesión de imágenes de un vídeo, como lo haría una persona durante un diálogo con otro humano, que tampoco es una acción estática.

Volvamos a nuestro ejemplo y veamos qué deduciría la máquina basándose en estas 4 imágenes.

¿Cuál es la principal emoción de este hombre según la máquina?

Como vimos anteriormente, la máquina seguirá cuatro pasos, según cada columna de neuronas artificiales. Inicialmente aislarás las caras de cada una de las cuatro imágenes.

Luego identificará 68 puntos en cada cara y deducirá dónde se encuentra cada parte de la cara (aquí agrupamos los pasos 2 y 3)

Finalmente, la máquina identifica la cantidad de emociones en cada una de las imágenes:

La máquina computará los resultados de cada imagen y deducirá la emoción principal que sintió la persona. Según la máquina, este hombre está un 66% triste. Como humano, seguro que tú también llegaste a la misma conclusión (pero quizás sin asignar un porcentaje).

Si has llegado hasta aquí, podrás explicar brevemente cómo una máquina puede deducir emociones. Agregue algunas palabras elegantes como redes neuronales convolucionales o Leaky Relu y será considerado un científico por unos minutos.

Pero seguro que te estás preguntando: ¿para qué sirve? ¿Qué puede lograr una máquina con esa información?

¿Por qué las máquinas deberían preocuparse por las emociones humanas?

Mientras esperamos que las máquinas finalmente puedan sentir emociones, verlos expresarse como humanos, ¿no sería genial si al menos pudieran entender nuestras emociones?

Por ejemplo, para evitar enviarnos un recordatorio de "No olvides leerle un cuento a tu hijo esta noche" cuando estamos de viaje de negocios o aislados en el extranjero debido al COVID-19, lejos de nuestros seres queridos.

Si las máquinas pueden entender la tristeza que uno siente en una noche en esa situación, quizás en su lugar podrían ofrecernos la posibilidad de una videollamada, o ver un álbum de fotos familiar.

En el mundo de los negocios, esto puede tener muchas implicaciones beneficiosas para los humanos. En el sector de la salud, por ejemplo, la máquina puede ayudar a los pacientes con autismo ayudándolos a comprender a otros seres humanos.

En el mundo de la publicidad, la máquina podría analizar las emociones de los usuarios y decirle a las marcas si el consumidor es neutral o favorable a un nuevo producto o servicio, o cuál es el impacto de determinados mensajes o consignas.

Para la industria del cine, podría mejorar la calidad de las películas asegurándose de que las notas humorísticas sean realmente graciosas o que un momento dramático realmente transmita ese sentimiento a los espectadores, y con qué intensidad.

Sí, las aplicaciones son infinitas.

Sin embargo, como experto en matemáticas, informática, neurociencia y comunicación no verbal, creo que usar IA solo en microexpresiones faciales puede conducir a errores y sesgos significativos.

El límite de las microexpresiones

Como humanos, el rostro es una de las partes principales de nuestra fisonomía para entender cómo se sienten los demás, pero no es la única. Cada segundo y sin darnos cuenta, analizamos si nuestro interlocutor nos mira directamente o tiene la mirada desviada, analizamos sus gestos y la velocidad de su discurso, así como su tono de voz.

La distancia a la que se posiciona nuestro interlocutor también indica el grado de relación que tenemos con él (si es un amigo cercano, será cercano, o más si es un extraño o alguna relación laboral). Por lo tanto, la máquina no puede limitarse solo a los datos recopilados de las expresiones faciales y debe construir una inteligencia capaz de analizar muchos otros criterios.

La combinación ganadora de humanos + máquinas.

¿Para qué sirve esta inteligencia artificial y las emociones en el contexto profesional?

¿Puede el análisis de la comunicación no verbal por sí solo ser suficiente para deducir emociones y cuantificar su intensidad? Como experto, mi respuesta directa es NO.

Depende en particular del contexto en el que la persona está interactuando. Por ejemplo, una risa real con amigos será trivial y aceptable. Por el contrario, si esa misma risa se produce durante una reunión profesional en la que tu cliente te expresa su disconformidad, será muy desagradable y las consecuencias podrían ser desastrosas, aunque para la máquina ambas situaciones serían percibidas como una expresión de felicidad. .

Para un uso profesional, las máquinas necesitarán del conocimiento humano para acertar en su análisis, especialmente en cuanto al contexto de las situaciones en las que se recibe la información, y muchos otros criterios que son muy complejos de automatizar para una máquina.

Si usamos inteligentemente esta alianza de humanos con máquinas, las capacidades humanas mejorarán, pudiendo facilitar los intercambios entre hombres y mujeres, empresas y clientes o gobiernos y ciudadanos.

Estoy convencido de que la alianza humano/máquina centrada en el análisis de las emociones humanas mejorará las interacciones entre las personas y mejorará la relevancia de las relaciones entre empresas y clientes.

Reimpreso en: La Voz de La Empresa

Dejar un comentario

Carrito de compra

×