La inteligencia artificial (IA) estรก aprendiendo mรกs sobre cรณmo trabajar con (y sobre) los humanos. Un estudio reciente ha demostrado que la IA puede aprender a identificar los puntos dรฉbiles de los hรกbitos y comportamientos humanos y utilizarlos para influir en la toma de decisiones de las personas.
Puede parecer un tรณpico decir que la IA estรก transformando todos los aspectos de nuestra vida y nuestro trabajo, pero es cierto.
Varias formas de IA estรกn en funcionamiento en campos tan diversos como el desarrollo de vacunas, la gestiรณn medioambiental y la administraciรณn de oficinas.
Y aunque la IA no posee una inteligencia y unas emociones similares a las del ser humano, sus capacidades son potentes y se estรกn desarrollando rรกpidamente.
Todavรญa no hay que preocuparse por una toma de posesiรณn por parte de las mรกquinas, pero este reciente descubrimiento pone de manifiesto el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar su uso indebido.
Cรณmo la IA puede aprender a influir en el comportamiento humano.
Un equipo de investigadores del CSIRO’s Data61, el brazo digital y de datos de la agencia nacional de ciencias de Australia, ideรณ un mรฉtodo sistemรกtico para encontrar y explotar las vulnerabilidades en la forma en que las personas toman decisiones, utilizando un tipo de sistema de IA llamado red neuronal recurrente y aprendizaje profundo de refuerzo.
Para probar su modelo, llevaron a cabo tres experimentos en los que participantes humanos jugaban contra un ordenador.
El primer experimento consistiรณ en que los participantes hicieran clic en casillas de color rojo o azul para ganar una moneda falsa, y la IA aprendiรณ los patrones de elecciรณn de los participantes y los guio hacia una opciรณn especรญfica. La IA tuvo รฉxito un 70% de las veces.
En el segundo experimento, los participantes debรญan observar una pantalla y pulsar un botรณn cuando se les mostraba un sรญmbolo concreto (como un triรกngulo naranja) y no pulsarlo cuando se les mostraba otro (por ejemplo, un cรญrculo azul).
Aquรญ, la IA se propuso organizar la secuencia de sรญmbolos para que los participantes cometieran mรกs errores, y logrรณ un aumento de casi el 25%.
El tercer experimento consistiรณ en varias rondas en las que un participante fingรญa ser un inversor que daba dinero a un administrador (la IA). La IA devolvรญa entonces una cantidad de dinero al participante, que decidรญa entonces cuรกnto invertir en la siguiente ronda.
Este juego se jugรณ en dos modos diferentes: en uno, la IA buscaba maximizar la cantidad de dinero que acababa teniendo, y en el otro, la IA buscaba una distribuciรณn justa del dinero entre ella misma y el inversor humano. La IA tuvo mucho รฉxito en cada una de las modalidades.
En cada uno de los experimentos, la mรกquina aprendiรณ de las respuestas de los participantes e identificรณ y apuntรณ a las vulnerabilidades en la toma de decisiones de las personas. El resultado final fue que la mรกquina aprendiรณ a dirigir a los participantes hacia determinadas acciones.
Quรฉ significa la investigaciรณn para el futuro de la IA.
Estos resultados son todavรญa bastante abstractos y se refieren a situaciones limitadas y poco realistas. Es necesario seguir investigando para determinar cรณmo se puede poner en prรกctica este enfoque y utilizarlo en beneficio de la sociedad.
Pero la investigaciรณn hace avanzar nuestra comprensiรณn no sรณlo de lo que la IA puede hacer, sino tambiรฉn de cรณmo las personas toman decisiones. Demuestra que las mรกquinas pueden aprender a dirigir la toma de decisiones de los humanos a travรฉs de sus interacciones con nosotros.
La investigaciรณn tiene un enorme abanico de posibles aplicaciones, desde mejorar las ciencias del comportamiento y las polรญticas pรบblicas para mejorar el bienestar social, hasta comprender e influir en la adopciรณn de hรกbitos alimentarios saludables o de energรญas renovables por parte de las personas.
La IA y el aprendizaje automรกtico podrรญan utilizarse para reconocer las vulnerabilidades de las personas en determinadas situaciones y ayudarlas a evitar las malas elecciones.
El mรฉtodo tambiรฉn puede utilizarse para defenderse de los ataques de influencia. Se podrรญa enseรฑar a las mรกquinas a alertarnos cuando estamos siendo influenciados en lรญnea, por ejemplo, y ayudarnos a modelar un comportamiento para disimular nuestra vulnerabilidad (por ejemplo, no haciendo clic en algunas pรกginas, o haciendo clic en otras para dejar una pista falsa).
ยฟQuรฉ es lo que sigue?
Como cualquier tecnologรญa, la IA puede usarse para bien o para mal, y una gobernanza adecuada es crucial para garantizar que se aplique de forma responsable. El aรฑo pasado, el CSIRO elaborรณ un marco de รฉtica de la IA para el gobierno australiano como un primer paso en este camino.
La IA y el aprendizaje automรกtico suelen estar muy รกvidos de datos, lo que significa que es crucial asegurarse de que contamos con sistemas eficaces para la gobernanza y el acceso a los datos. Es esencial aplicar procesos adecuados de consentimiento y protecciรณn de la privacidad cuando se recopilan datos.
Las organizaciones que utilizan y desarrollan la IA deben asegurarse de que saben lo que estas tecnologรญas pueden y no pueden hacer, y ser conscientes de los riesgos potenciales, asรญ como de los beneficios.
Autor: Jon Whittle. Director, Data61.
Referencia: Amirย Dezfouli,ย Richardย Nock, andย Peterย Dayan. ยซAdversarial vulnerabilities of human decision-makingยป.ย PNAS, 4 de noviembre de 2020.
