_
_
_
_
_

Rana el Kaliouby, sentimientos por ordenador

Rana el Kaliouby.

RANA EL KALIOUBY no es una estrella de la canción, sino de la tecnología. Aun así, llena los auditorios adonde acude para explicar que su ordenador sabe si ha tenido un mal día o está de buenas. Nacida hace 37 años en El Cairo (Egipto), es cofundadora de Affectiva, una empresa dedicada a la inteligencia emocional en ordenadores. No se trata de una promesa, sino de una empresa que ha cumplido siete años de vida y entre cuyos clientes se encuentran el 30% de las compañías más importantes del mundo según la revista Forbes. Con 26 años, The New York Times eligió a El Kaliouby como una de las grandes innovadoras del mundo tecnológico; hace cuatro años ingresó en el Salón de la Fama de las Ingenieras, hace tres que el Massachusetts Institute of Technology (MIT) en Boston (EE UU) la incluyó entre sus lista de visionarias, hace dos que fue top tech women.

Hablamos y la fotografiamos minutos antes de su acto en la Web Summit de Lisboa. Una tableta y 15 minutos le bastan para explicar en qué consiste la inteligencia emocional artificial y que la gente lo entienda. “Los ordenadores tienen datos, pero no emociones”, comienza a explicar la científica, afincada en Estados Unidos. “Si el volante de mi coche captara que estoy estresada o que tengo demasiado alcohol en la sangre, podría no arrancar y evitar un accidente. Mi trabajo consiste en que los aparatos y las aplicaciones con las que interactuamos capten nuestro estado de ánimo, en incorporar las emociones a la tecnología”.

Rana el Kaliouby demuestra el funcionamiento de los algoritmos que identifican las expresiones de la cara.

Licenciada en la Universidad Americana de El Cairo, sus brillantes notas le permitieron acceder a una beca en el MIT, donde empezó a investigar la relación persona-ordenador. En los años setenta, el psicólogo Paul Ekman había desarrollado el Facial Action Coding System. Identificó siete gestos que, independientemente del sexo, edad, razas o cultura, son iguales en todos los humanos. Son las expresiones para momentos de rabia, miedo, tristeza, disgusto, desprecio, sorpresa y alegría. A partir de ahí, codificó 46 diferentes movimientos del rostro. El paso de El Kaliouby fue crear algoritmos para las principales expresiones de la cara. Gracias a ellos, la pantalla –da igual un ordenador que un móvil– distingue una nariz respingona de un grano, un grano de una peca, la posición del rictus de los labios. “Los latinoamericanos son los más expresivos, más que los europeos, y estos, más que los asiáticos, y dentro de estos, las caras de los japoneses son las menos expresivas de todas”, explica.

La capacidad de deducir emociones de la audiencia en tiempo real es un avance fundamental para algunos sectores económicos como el publicitario o el cine. “Con nuestra aplicación Affdex”, señala, “pueden medir el efecto de un nuevo anuncio, de una nueva bolsa de patatas o del tráiler de una película. Pero no solo, esta tecnología se empleó en el debate entre Obama y Romney: 200 personas lo vieron en sus tabletas y, por los gestos de sus caras, la aplicación Affdex dedujo a quién iba a votar cada uno. El acierto fue del 73%.

En la Web Summit de Lisboa del pasado mes de noviembre.

El Kaliouby dice que queda mucho por hacer. “La inteligencia emocional del ordenador es fundamental para la mejora de la comunicación de los autistas, para el mundo de la salud y de la enseñanza. El día de los robots con emociones está cerca”.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_