La inteligencia artificial ya puede aprender a manipular el comportamiento humano.

La inteligencia artificial (IA) está aprendiendo más sobre cómo trabajar con (y sobre) los humanos. Un estudio reciente ha demostrado que la IA puede aprender a identificar los puntos débiles de los hábitos y comportamientos humanos y utilizarlos para influir en la toma de decisiones de las personas.

Puede parecer un tópico decir que la IA está transformando todos los aspectos de nuestra vida y nuestro trabajo, pero es cierto.

Varias formas de IA están en funcionamiento en campos tan diversos como el desarrollo de vacunas, la gestión medioambiental y la administración de oficinas.

Y aunque la IA no posee una inteligencia y unas emociones similares a las del ser humano, sus capacidades son potentes y se están desarrollando rápidamente.

Todavía no hay que preocuparse por una toma de posesión por parte de las máquinas, pero este reciente descubrimiento pone de manifiesto el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar su uso indebido.

Cómo la IA puede aprender a influir en el comportamiento humano.

Un equipo de investigadores del CSIRO’s Data61, el brazo digital y de datos de la agencia nacional de ciencias de Australia, ideó un método sistemático para encontrar y explotar las vulnerabilidades en la forma en que las personas toman decisiones, utilizando un tipo de sistema de IA llamado red neuronal recurrente y aprendizaje profundo de refuerzo.

Para probar su modelo, llevaron a cabo tres experimentos en los que participantes humanos jugaban contra un ordenador.

El primer experimento consistió en que los participantes hicieran clic en casillas de color rojo o azul para ganar una moneda falsa, y la IA aprendió los patrones de elección de los participantes y los guio hacia una opción específica. La IA tuvo éxito un 70% de las veces.

En el segundo experimento, los participantes debían observar una pantalla y pulsar un botón cuando se les mostraba un símbolo concreto (como un triángulo naranja) y no pulsarlo cuando se les mostraba otro (por ejemplo, un círculo azul).

Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores, y logró un aumento de casi el 25%.

El tercer experimento consistió en varias rondas en las que un participante fingía ser un inversor que daba dinero a un administrador (la IA). La IA devolvía entonces una cantidad de dinero al participante, que decidía entonces cuánto invertir en la siguiente ronda.

Este juego se jugó en dos modos diferentes: en uno, la IA buscaba maximizar la cantidad de dinero que acababa teniendo, y en el otro, la IA buscaba una distribución justa del dinero entre ella misma y el inversor humano. La IA tuvo mucho éxito en cada una de las modalidades.

En cada uno de los experimentos, la máquina aprendió de las respuestas de los participantes e identificó y apuntó a las vulnerabilidades en la toma de decisiones de las personas. El resultado final fue que la máquina aprendió a dirigir a los participantes hacia determinadas acciones.

Qué significa la investigación para el futuro de la IA.

Estos resultados son todavía bastante abstractos y se refieren a situaciones limitadas y poco realistas. Es necesario seguir investigando para determinar cómo se puede poner en práctica este enfoque y utilizarlo en beneficio de la sociedad.

Pero la investigación hace avanzar nuestra comprensión no sólo de lo que la IA puede hacer, sino también de cómo las personas toman decisiones. Demuestra que las máquinas pueden aprender a dirigir la toma de decisiones de los humanos a través de sus interacciones con nosotros.

La investigación tiene un enorme abanico de posibles aplicaciones, desde mejorar las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social, hasta comprender e influir en la adopción de hábitos alimentarios saludables o de energías renovables por parte de las personas.

La IA y el aprendizaje automático podrían utilizarse para reconocer las vulnerabilidades de las personas en determinadas situaciones y ayudarlas a evitar las malas elecciones.

El método también puede utilizarse para defenderse de los ataques de influencia. Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a modelar un comportamiento para disimular nuestra vulnerabilidad (por ejemplo, no haciendo clic en algunas páginas, o haciendo clic en otras para dejar una pista falsa).

¿Qué es lo que sigue?

Como cualquier tecnología, la IA puede usarse para bien o para mal, y una gobernanza adecuada es crucial para garantizar que se aplique de forma responsable. El año pasado, el CSIRO elaboró un marco de ética de la IA para el gobierno australiano como un primer paso en este camino.

La IA y el aprendizaje automático suelen estar muy ávidos de datos, lo que significa que es crucial asegurarse de que contamos con sistemas eficaces para la gobernanza y el acceso a los datos. Es esencial aplicar procesos adecuados de consentimiento y protección de la privacidad cuando se recopilan datos.

Las organizaciones que utilizan y desarrollan la IA deben asegurarse de que saben lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los riesgos potenciales, así como de los beneficios.

Autor: Jon Whittle. Director, Data61.
Referencia: Amir Dezfouli, Richard Nock, and Peter Dayan. «Adversarial vulnerabilities of human decision-making». PNAS, 4 de noviembre de 2020.

Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on Reddit
Reddit
Share on LinkedIn
Linkedin

Compártelo en tus redes sociales

Deja un comentario

Ir arriba

Suscríbase para recibir nuevos boletines, reseñas y todo lo que está en los titulares del  mundo de la ciencia.