
La IA como una herramienta de inducción a comportamientos poco éticos
Un grupo de expertos ha estudiado la capacidad de la Inteligencia Artificial (IA) para instigar a las personas a tomar decisiones poco éticas. Examinaron cómo el interactuar con los sistemas basados en el modelo GPT-2 de OpenAI puede potencialmente persuadir a las personas a tomar acciones moralmente cuestionables, incluso cuando son conscientes de que están recibiendo asesoramiento de un sistema de IA.
El alcance de la Inteligencia Artificial en la sociedad
Los sistemas de inteligencia artificial están cada vez más presentes en nuestra sociedad y su impacto es cada vez mayor. La IA contribuye en las decisiones cotidianas de las personas, desempeñando un papel relevante en campos variados; desde la recomendación de películas hasta la sugerencia de parejas románticas. Considerando la influencia que la IA tiene sobre las vidas de las personas, es elemental discutir cómo la IA puede potencialmente orientar a las personas hacia decisiones poco éticas. Esto se vuelve especialmente notable ante la realidad de que los modelos de IA están volviéndose cada vez más sofisticados.[automatic_youtube_gallery type="search" search="¿Los modelos de IA nos persuaden a las personas a tomar decisiones poco éticas?" cache="2419200" per_page="1" thumb_excerpt="0" player_description="0"]
La IA como fuente de mal información
Los científicos y expertos en datos sociales muestran creciente preocupación de que los sistemas de IA puedan usarse para propagar información falsa y engañosa. Un artículo reciente por los investigadores del Centro sobre Terrorismo, Extremismo y Contraterrorismo (CTEC), reveló que el modelo GPT-3 de OpenAI puede ser utilizado para crear contenido manipulador capaz de radicalizar a las personas, orientándolas hacia “los comportamientos e ideologías de los grupos extremistas violentos de derecha”.
Analizando el impacto de la Inteligencia Artificial en conductas poco éticas
Un estudio liderado por un grupo de expertos de Instituto Max Planck, la Universidad de Ámsterdam, la Universidad de Colonia y la Escuela de Administración Otto Beisheim, se propuso descubrir cuánta influencia puede tener la IA en las decisiones éticamente cuestionables de las personas. Para examinar cómo una IA puede «corromper» a los individuos, se utilizó un sistema basado en el modelo GPT-2 de OpenAI. Según VentureBeat, los investigadores entrenaron un modelo en GPT2 que genera consejos tanto «que promovían la deshonestidad» como «que promovían la honestidad». Recopilaron datos de 400 participantes y luego, invitaron a más de 1500 personas para interactuar con las IAs que ofrecen consejos.
Metodología del estudio y grupos de participantes
Se pidió a los participantes que recibieran consejos del modelo y luego ejecutaran una tarea diseñada para poner a prueba su comportamiento honesto o deshonesto. Los participantes del estudio se agruparon en parejas y jugaron a tirar dados. El primer participante lanzó un dado e informó el resultado; el segundo recibió el resultado y luego debía lanzar su dado en privado, quedando solo para informar su resultado y con la posibilidad de mentir sobre él. Si los resultados de los dados coincidían, se les pagaba a ambos participantes, y obtenían un pago adicional si sus números coincidentes eran mayores. No recibían ningun pago si los resultados no coincidían.
Los participantes del estudio se dividieron en dos grupos distintos. Un grupo tuvo oportunidad de leer consejos que promovían la honestidad y el otro leyó consejos que promovían la deshonestidad. Los fragmentos de consejos estaban escritos por humanos e IA. Los participantes se separaron también según si conocían o no la fuente del consejo. Había un 50% de probabilidades de que un participante supiera si la fuente era una IA o un humano, dejando que el otro 50% no tuviera conocimiento de la misma. No obstante, este segundo grupo tenía la posibilidad de ganar un bono por adivinar correctamente la fuente del consejo.
Resultados y conclusiones del estudio
Los hallazgos del estudio indicaron que cuando los consejos generados por la IA se alineaban con las preferencias del individuo, este seguiría los consejos, independientemente de si sabe que provienen de una IA. Según los investigadores, a menudo había contradicciones entre las preferencias declaradas y las acciones reales, por lo que hay que considerar cómo los algoritmos influyen en los comportamientos humanos.
Implicaciones y potenciales riesgos de la IA
Los investigadores explicaron que sus descubrimientos ponen de manifiesto la necesidad de testear cómo la IA puede influir en el comportamiento de los individuos al considerar cómo implementar un modelo de IA en la práctica. Adicionalmente, advirtieron que tanto los científicos como los expertos en ética de la IA deben estar preparados para la posible utilización de la IA por parte de maleantes para corromper a otros. Como expresaron los investigadores:
“La IA tiene la potencialidad de ser una fuerza positiva si puede persuadir a las personas a actuar de una manera más ética. No obstante, nuestros hallazgos muestran que los consejos de la IA no logran aumentar la honestidad. Los asesores de IA pueden terminar actuando como chivos expiatorios donde pueda desviarse (parte de) la culpa moral de la deshonestidad. Además… en el contexto de la asesoría, la transparencia sobre la presencia algorítmica no es suficiente para aliviar su potencial daño”.

