Cuando era adolescente, solía disfrutar mirando un programa de televisión semanal llamado “Perdidos en el espacio”. En esa serie de ciencia ficción, uno de los personajes principales era un robot que tenía identidad masculina. Hablaba un inglés perfecto, pero su forma de hablar sonaba monótona y aburrida, estando desprovista de inflexiones y variaciones de volumen y tono. En resumen: sonaba poco natural. Esta representación de los robots como máquinas cuyas “voces” estaban desprovistas de emociones humanas resultaba bastante común en aquella época: quizá porque los productores pensaban que resultaba necesario reforzar las diferencias entre los seres humanos y las máquinas. No obstante, en una reciente película denominada Her (que se estrenó en 2014), el personaje principal llamado Theodore utiliza un sistema operativo de inteligencia artificial que habla el lenguaje que cabe encontrar en una conversación. Theodore asignó género femenino a su sistema operativo y lo denominó Samantha. Así, Samantha hablaba con una voz humana muy sensible y cálida, no pudiendo distinguirse de las voces humanas. La máquina interactúa con Theodore a un nivel muy personal y ambos desarrollan una vinculación íntima desde un punto de vista emocional. Hasta tal punto que, finalmente, se enamora de Samantha (que no es más que una voz compuesta de unos y ceros).
Este cambio en el uso de máquinas con aspecto antropomórfico en las películas refleja con claridad la forma en que los diseñadores de inteligencia artificial están incorporando las emociones en las nuevas aplicaciones – tanto a la hora de detectar como de expresar las emociones humanas. Algunas personas consideran que la simulación de emociones es uno de los aspectos más complejos de la inteligencia artificial – considerando que replicar y comprender el espectro de las emociones humanas podría resultar muy difícil. Muchos proyectos actuales de inteligencia artificial están demostrando lo contrario [1,2]. Por ejemplo, Google, en su conferencia para desarrolladores Duplex de mayo de 2018, presentó una extensión de su programa de IA Helper. Esta extensión puede efectuar llamadas telefónicas en determinadas situaciones que pueden simular de manera convincente una comunicación con un ser humano. Ahora, la empresa ha reconocido que cuando se despliegue el sistema se utilizará un programa de IA en lugar de emplear voces humanas reales.
En este artículo, describo brevemente el concepto de las emociones tanto desde la perspectiva de un ser humano como desde la perspectiva de una máquina, al tiempo que se revisan algunas aplicaciones y tecnologías que se utilizan a la hora de replicar y comprender las emociones humanas.
Emociones humanas
Las emociones humanas cumplen un propósito evolutivo que sirve para nuestra supervivencia como especie. Constituyen una reacción a un estímulo externo o una expresión espontánea de un proceso de pensamiento interno. Emociones como el miedo suelen constituir una reacción a un estímulo externo, como cuando cruzamos una carretera atiborrada el miedo de ser atropellados hace que nuestro mecanismo de supervivencia evolutivo se active. Se trata de causas externas que disparan las emociones dentro de nuestro cerebro. Sin embargo, las emociones pueden ser invocadas como resultado de un proceso de pensamiento interno. Por ejemplo, si he intentado encontrar una solución a un ecuación diferencial de carácter complejo, esto podría hacerme feliz como resultado de una sensación de satisfacción personal. Puede tratarse de una acción exclusivamente introspectiva sin causas externas, pero resolver la ecuación sigue activando emociones.
De la misma manera, los diseñadores de IA pueden simular esta emoción desde la lógica interna de las máquinas. Podría tratarse de la emoción de alegría que se desprende de resolver, por ejemplo, una ecuación diferencial. Además, la simulación de emociones desencadenadas a partir de estímulos externos como puede ser la alegría, la tristeza, la sorpresa, la decepción, el miedo y la angustia podría invocarse mediante interacciones a través del lenguaje escrito, los sensores, y así sucesivamente. Luego, se requeriría el uso de métodos informáticos para el procesamiento y la expresión de emociones que se producen con la interacción humana.
Las emociones de las máquinas
En cierta ocasión, alguien preguntó a Marvin Minsky [3], uno de los fundadores de la IA, acerca de las emociones de las máquinas y dijo: “la cuestión no es si las máquinas inteligentes pueden sentir alguna clase de emoción, sino si las máquinas pueden ser inteligentes sin emociones”. Ciertamente, sin emociones no habríamos logrado sobrevivir como especie y nuestra inteligencia ha mejorado como resultado de nuestras emociones. Por otro lado, no podemos desligar nuestras emociones de la manera en que aplicamos nuestra inteligencia. Por ejemplo, basándose en razones clínicas un médico puede decidir que la mejor opción de tratamiento para un paciente hospitalario de avanzada edad es un procedimiento quirúrgico. Sin embargo, la empatía emocional del médico con el paciente podría invalidar esta visión. Teniendo en cuenta la edad del paciente, el médico puede decidir que el estrés emocional que probablemente sufrirá el paciente no compensará el riesgo de la operación y, por tanto, la descartaría. Al igual que el conocimiento técnico, la inteligencia emocional también se emplea a la hora de decidir las opciones de tratamiento. Lógicamente, las máquinas nunca podrían sentir las emociones de la misma forma en que las sentimos los seres humanos. No obstante, podrían simular emociones que les permitan interactuar con los seres humanos de maneras más apropiadas.
Ray Kurzweil explica en su libro “How to Create a Mind” [4], que en teoría cualquier proceso neuronal puede ser reproducido digitalmente en un ordenador. Por ejemplo, sensaciones tales como el calor -el hecho de sentir frío o calor-, podría simularse a partir del entorno si la máquina estuviera equipada con los sensores adecuados. Sin embargo no siempre tiene sentido intentar replicar en una máquina todo aquello que el ser humano siente. Por ejemplo, algunas sensaciones fisiológicas, como es el caso del hambre y el cansancio son sensaciones que nos alertan acerca del estado de nuestro cuerpo y, habitualmente, son desencadenadas por las hormonas y por nuestro sistema digestivo. Es preciso distinguir las diferencias que existen entre los robots móviles y un ordenador incorpóreo. Este último tendría un rango de emociones mucho más limitado, ya que sería incapaz de interactuar físicamente con su entorno como podría hacerlo un robot. Cuanto mayor sea la respuesta sensorial que reciba una máquina, más amplia será la gama de sensaciones y emociones que podrá experimentar.
Replicar y humanizar el lenguaje de la IA
Desde hace mucho tiempo, la capacidad de generar lenguaje que suene natural ha constituido un verdadero reto para programas de IA que transformen el texto en habla. Los asistentes personales basados en la inteligencia artificial (IA), como es el caso de Siri (el programa de comprensión del lenguaje natural de Apple para iPhone), Alexa (asistente personal virtual de Amazon) y Google Assistant (mencionado anteriormente) utilizan software de conversión de texto a lenguaje hablado para crear una interfaz más cómoda con sus usuarios. Estos sistemas funcionan generando palabras y frases a partir de archivos pregrabados de una determinada voz. Cambiar a una voz distinta -por ej., lograr que Alexa tenga la voz de un niño-, requiere un nuevo archivo de audio que contenga cada posible palabra que el dispositivo deba utilizar para comunicarse con los usuarios.
No obstante, humanizar el sonido único de la voz de un individuo incorporando emociones es algo relativamente nuevo y comienza a tener un impacto. Por ejemplo, una empresa con sede en Canadá llamada Lyrebird [5], ha creado un sistema de IA que aprende a imitar la voz de una persona analizando grabaciones de voz y las correspondientes transcripciones de texto. Según afirma el fabricante, el software de Lyrebird es capaz de “crear las voces artificiales más realistas del mundo”, al tiempo que puede imitar prácticamente cualquier voz. Mediante la escucha por extenso de audio hablado, puede extrapolar dicho material para generar frases nuevas que incluyan las distintas entonaciones y emociones de cada voz. Lyrebird, al igual que muchos programas de reconocimiento de voz, utiliza redes neuronales artificiales para aprender a reconocer voces y transformar fragmentos de sonido en habla.
La comprensión de las emociones humanas utilizando IA
En los últimos años, la IA ha mejorado significativamente en lo que respecta a su capacidad para detectar emociones en los seres humanos a través de la voz, el lenguaje corporal, las expresiones, etc. Por ejemplo, los sistemas en software de IA de reconocimiento de voz, están aprendiendo a detectar las emociones humanas a través de la entonación del habla, las pausas del habla, etc., de la misma forma que detectamos cambios en el ánimo de nuestros allegados, nuestros amigos o nuestros compañeros de trabajo. Recientemente, ciertos investigadores [6] han desarrollado un programa de IA de aprendizaje profundo que puede señalar si una determinada persona es un criminal simplemente mirando las características de su rostro con un porcentaje de precisión cercano al 90 %. En 2016, Apple adquirió una start-up que creó un software que lee expresiones faciales, denominado Emotient [7]. Este sistema podría utilizarse para lograr que programas de IA tales como SIRI y Alexa comprendan los estados de ánimo de sus propietarios. Otra aplicación de este software podría ser la industria minorista: con la ayuda de las cámaras de televisión por circuito cerrado, podrían determinar cuál es el pensamiento del cliente a partir de su lenguaje corporal. Por ejemplo, el hecho de contemplar que un cliente vuelve a examinar el mismo producto o exhibe un estudio concentrado de un determinado elemento podría indicar que tiene mucho interés en el mismo, y eso podría dar pie a que el personal de la tienda se acerque a ayudar al cliente.
The Future of AI emotions
Existen varias ventajas potenciales que implica el uso de programas de IA: no cobran un sueldo, no se cansan y pueden funcionar 24 horas al día tomando decisiones coherentes. Por otro lado, la visión de que las emociones humanas están más allá de los límites de las máquinas que funcionan de forma lógica carece de fundamento. En su libro “Homo Deus”, Yuval Noah Harari [8], afirma que esencialmente los seres humanos constituyen una serie de algoritmos biológicos conformados por millones de años de evolución. Esto significa que los algoritmos no orgánicos podrían replicar e incluso podrían superar todo aquello que los algoritmos orgánicos pueden hacer actuando en los seres humanos. En el futuro, continuaremos oyendo hablar de la IA emocional.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Introducción
Cuando era adolescente, solía disfrutar mirando un programa de televisión semanal llamado “Perdidos en el espacio”. En esa serie de ciencia ficción, uno de los personajes principales era un robot que tenía identidad masculina. Hablaba un inglés perfecto, pero su forma de hablar sonaba monótona y aburrida, estando desprovista de inflexiones y variaciones de volumen y tono. En resumen: sonaba poco natural. Esta representación de los robots como máquinas cuyas “voces” estaban desprovistas de emociones humanas resultaba bastante común en aquella época: quizá porque los productores pensaban que resultaba necesario reforzar las diferencias entre los seres humanos y las máquinas. No obstante, en una reciente película denominada Her (que se estrenó en 2014), el personaje principal llamado Theodore utiliza un sistema operativo de inteligencia artificial que habla el lenguaje que cabe encontrar en una conversación. Theodore asignó género femenino a su sistema operativo y lo denominó Samantha. Así, Samantha hablaba con una voz humana muy sensible y cálida, no pudiendo distinguirse de las voces humanas. La máquina interactúa con Theodore a un nivel muy personal y ambos desarrollan una vinculación íntima desde un punto de vista emocional. Hasta tal punto que, finalmente, se enamora de Samantha (que no es más que una voz compuesta de unos y ceros).
Este cambio en el uso de máquinas con aspecto antropomórfico en las películas refleja con claridad la forma en que los diseñadores de inteligencia artificial están incorporando las emociones en las nuevas aplicaciones – tanto a la hora de detectar como de expresar las emociones humanas. Algunas personas consideran que la simulación de emociones es uno de los aspectos más complejos de la inteligencia artificial – considerando que replicar y comprender el espectro de las emociones humanas podría resultar muy difícil. Muchos proyectos actuales de inteligencia artificial están demostrando lo contrario [1,2]. Por ejemplo, Google, en su conferencia para desarrolladores Duplex de mayo de 2018, presentó una extensión de su programa de IA Helper. Esta extensión puede efectuar llamadas telefónicas en determinadas situaciones que pueden simular de manera convincente una comunicación con un ser humano. Ahora, la empresa ha reconocido que cuando se despliegue el sistema se utilizará un programa de IA en lugar de emplear voces humanas reales.
En este artículo, describo brevemente el concepto de las emociones tanto desde la perspectiva de un ser humano como desde la perspectiva de una máquina, al tiempo que se revisan algunas aplicaciones y tecnologías que se utilizan a la hora de replicar y comprender las emociones humanas.
Emociones humanas
Las emociones humanas cumplen un propósito evolutivo que sirve para nuestra supervivencia como especie. Constituyen una reacción a un estímulo externo o una expresión espontánea de un proceso de pensamiento interno. Emociones como el miedo suelen constituir una reacción a un estímulo externo, como cuando cruzamos una carretera atiborrada el miedo de ser atropellados hace que nuestro mecanismo de supervivencia evolutivo se active. Se trata de causas externas que disparan las emociones dentro de nuestro cerebro. Sin embargo, las emociones pueden ser invocadas como resultado de un proceso de pensamiento interno. Por ejemplo, si he intentado encontrar una solución a un ecuación diferencial de carácter complejo, esto podría hacerme feliz como resultado de una sensación de satisfacción personal. Puede tratarse de una acción exclusivamente introspectiva sin causas externas, pero resolver la ecuación sigue activando emociones.
De la misma manera, los diseñadores de IA pueden simular esta emoción desde la lógica interna de las máquinas. Podría tratarse de la emoción de alegría que se desprende de resolver, por ejemplo, una ecuación diferencial. Además, la simulación de emociones desencadenadas a partir de estímulos externos como puede ser la alegría, la tristeza, la sorpresa, la decepción, el miedo y la angustia podría invocarse mediante interacciones a través del lenguaje escrito, los sensores, y así sucesivamente. Luego, se requeriría el uso de métodos informáticos para el procesamiento y la expresión de emociones que se producen con la interacción humana.
Las emociones de las máquinas
En cierta ocasión, alguien preguntó a Marvin Minsky [3], uno de los fundadores de la IA, acerca de las emociones de las máquinas y dijo: “la cuestión no es si las máquinas inteligentes pueden sentir alguna clase de emoción, sino si las máquinas pueden ser inteligentes sin emociones”. Ciertamente, sin emociones no habríamos logrado sobrevivir como especie y nuestra inteligencia ha mejorado como resultado de nuestras emociones. Por otro lado, no podemos desligar nuestras emociones de la manera en que aplicamos nuestra inteligencia. Por ejemplo, basándose en razones clínicas un médico puede decidir que la mejor opción de tratamiento para un paciente hospitalario de avanzada edad es un procedimiento quirúrgico. Sin embargo, la empatía emocional del médico con el paciente podría invalidar esta visión. Teniendo en cuenta la edad del paciente, el médico puede decidir que el estrés emocional que probablemente sufrirá el paciente no compensará el riesgo de la operación y, por tanto, la descartaría. Al igual que el conocimiento técnico, la inteligencia emocional también se emplea a la hora de decidir las opciones de tratamiento. Lógicamente, las máquinas nunca podrían sentir las emociones de la misma forma en que las sentimos los seres humanos. No obstante, podrían simular emociones que les permitan interactuar con los seres humanos de maneras más apropiadas.
Ray Kurzweil explica en su libro “How to Create a Mind” [4], que en teoría cualquier proceso neuronal puede ser reproducido digitalmente en un ordenador. Por ejemplo, sensaciones tales como el calor -el hecho de sentir frío o calor-, podría simularse a partir del entorno si la máquina estuviera equipada con los sensores adecuados. Sin embargo no siempre tiene sentido intentar replicar en una máquina todo aquello que el ser humano siente. Por ejemplo, algunas sensaciones fisiológicas, como es el caso del hambre y el cansancio son sensaciones que nos alertan acerca del estado de nuestro cuerpo y, habitualmente, son desencadenadas por las hormonas y por nuestro sistema digestivo. Es preciso distinguir las diferencias que existen entre los robots móviles y un ordenador incorpóreo. Este último tendría un rango de emociones mucho más limitado, ya que sería incapaz de interactuar físicamente con su entorno como podría hacerlo un robot. Cuanto mayor sea la respuesta sensorial que reciba una máquina, más amplia será la gama de sensaciones y emociones que podrá experimentar.
Replicar y humanizar el lenguaje de la IA
Desde hace mucho tiempo, la capacidad de generar lenguaje que suene natural ha constituido un verdadero reto para programas de IA que transformen el texto en habla. Los asistentes personales basados en la inteligencia artificial (IA), como es el caso de Siri (el programa de comprensión del lenguaje natural de Apple para iPhone), Alexa (asistente personal virtual de Amazon) y Google Assistant (mencionado anteriormente) utilizan software de conversión de texto a lenguaje hablado para crear una interfaz más cómoda con sus usuarios. Estos sistemas funcionan generando palabras y frases a partir de archivos pregrabados de una determinada voz. Cambiar a una voz distinta -por ej., lograr que Alexa tenga la voz de un niño-, requiere un nuevo archivo de audio que contenga cada posible palabra que el dispositivo deba utilizar para comunicarse con los usuarios.
No obstante, humanizar el sonido único de la voz de un individuo incorporando emociones es algo relativamente nuevo y comienza a tener un impacto. Por ejemplo, una empresa con sede en Canadá llamada Lyrebird [5], ha creado un sistema de IA que aprende a imitar la voz de una persona analizando grabaciones de voz y las correspondientes transcripciones de texto. Según afirma el fabricante, el software de Lyrebird es capaz de “crear las voces artificiales más realistas del mundo”, al tiempo que puede imitar prácticamente cualquier voz. Mediante la escucha por extenso de audio hablado, puede extrapolar dicho material para generar frases nuevas que incluyan las distintas entonaciones y emociones de cada voz. Lyrebird, al igual que muchos programas de reconocimiento de voz, utiliza redes neuronales artificiales para aprender a reconocer voces y transformar fragmentos de sonido en habla.
La comprensión de las emociones humanas utilizando IA
En los últimos años, la IA ha mejorado significativamente en lo que respecta a su capacidad para detectar emociones en los seres humanos a través de la voz, el lenguaje corporal, las expresiones, etc. Por ejemplo, los sistemas en software de IA de reconocimiento de voz, están aprendiendo a detectar las emociones humanas a través de la entonación del habla, las pausas del habla, etc., de la misma forma que detectamos cambios en el ánimo de nuestros allegados, nuestros amigos o nuestros compañeros de trabajo. Recientemente, ciertos investigadores [6] han desarrollado un programa de IA de aprendizaje profundo que puede señalar si una determinada persona es un criminal simplemente mirando las características de su rostro con un porcentaje de precisión cercano al 90 %. En 2016, Apple adquirió una start-up que creó un software que lee expresiones faciales, denominado Emotient [7]. Este sistema podría utilizarse para lograr que programas de IA tales como SIRI y Alexa comprendan los estados de ánimo de sus propietarios. Otra aplicación de este software podría ser la industria minorista: con la ayuda de las cámaras de televisión por circuito cerrado, podrían determinar cuál es el pensamiento del cliente a partir de su lenguaje corporal. Por ejemplo, el hecho de contemplar que un cliente vuelve a examinar el mismo producto o exhibe un estudio concentrado de un determinado elemento podría indicar que tiene mucho interés en el mismo, y eso podría dar pie a que el personal de la tienda se acerque a ayudar al cliente.
The Future of AI emotions
Existen varias ventajas potenciales que implica el uso de programas de IA: no cobran un sueldo, no se cansan y pueden funcionar 24 horas al día tomando decisiones coherentes. Por otro lado, la visión de que las emociones humanas están más allá de los límites de las máquinas que funcionan de forma lógica carece de fundamento. En su libro “Homo Deus”, Yuval Noah Harari [8], afirma que esencialmente los seres humanos constituyen una serie de algoritmos biológicos conformados por millones de años de evolución. Esto significa que los algoritmos no orgánicos podrían replicar e incluso podrían superar todo aquello que los algoritmos orgánicos pueden hacer actuando en los seres humanos. En el futuro, continuaremos oyendo hablar de la IA emocional.
Keith Darlington
Referencias
Fuente
Compartir esto: