Una máquina maquiavélica plantea cuestiones éticas sobre la inteligencia artificial

El escritor es un comentarista científico.

Recuerdo la primera mentira de mi hija. Estaba de pie de espaldas a la pared de la sala de estar, crayón en la mano, tratando de ocultar un garabato ancho. Su explicación fue tan creativa como su obra: «Mi papá lo hace».

El engaño es un hito en el desarrollo cognitivo porque requiere una comprensión de cómo piensan y actúan los demás. Esta habilidad aparece, hasta cierto punto, en Cicero, un sistema de inteligencia artificial diseñado para jugar a la diplomacia, un juego de estrategia en tiempos de guerra en el que los jugadores negocian, forjan alianzas, engañan, ocultan información y, a veces, engañan. Cicero, desarrollado por Meta y llamado así por el famoso orador romano, enfrentó a su IA contra jugadores humanos en línea, y superó a la mayoría de ellos.

La llegada de una IA que puede jugar el juego de manera tan eficiente como las personas, revelada la semana pasada en la revista Science, abre la puerta a interacciones más complejas entre humanos e IA, como mejores chatbots y una resolución óptima de problemas donde el compromiso es necesario. Pero dado que Cicero muestra que la IA puede, si es necesario, usar tácticas clandestinas para lograr ciertos objetivos, la creación de una máquina maquiavélica también plantea la pregunta de cuánta agencia deberíamos tener en los algoritmos, y si alguna vez debería usarse una tecnología similar. . Diplomacia del mundo real.

El año pasado, la Unión Europea encargó un estudio sobre el uso de la inteligencia artificial en la diplomacia y su potencial impacto en la geopolítica. «Los humanos no siempre somos buenos para resolver conflictos», dice Huma Shah, especialista en ética de la IA de la Universidad de Coventry en el Reino Unido. «Si la inteligencia artificial puede complementar las negociaciones humanas y detener lo que está sucediendo en Ucrania, ¿por qué no?»

READ  Resumen del Nintendo Direct de septiembre de 2022

Al igual que el ajedrez, la diplomacia se puede jugar en un tablero o en línea. Hasta siete jugadores compiten por el control de diferentes regiones europeas. En la primera ronda de diplomacia real, los jugadores pueden hacer alianzas o pactos para mantener sus posiciones o mover fuerzas, incluido atacar o defender a un aliado.

El juego es un gran desafío de IA porque, además de la estrategia, los jugadores deben ser capaces de comprender los motivos de otras personas. Hay cooperación y competencia, con el riesgo de traición.

Esto significa que, a diferencia de Chess o Go, la comunicación con los demás jugadores es importante. Por lo tanto, Cicero combina el pensamiento estratégico de los juegos tradicionales con el procesamiento del lenguaje natural. Durante el juego, la IA trabaja para determinar cómo podrían actuar otros jugadores en las negociaciones. Luego, mediante la creación de mensajes redactados apropiadamente, persuade, engatusa u obliga a otros jugadores a asociarse o hacer concesiones para llevar a cabo su plan de juego. Los metacientíficos entrenaron a Cicero utilizando datos en línea de casi 40,000 juegos, incluidos 13 millones de mensajes en el juego.

Después de que 82 personas jugaran 40 juegos en una liga en línea anónima, Cicero se ubicó en el 10 por ciento superior de los participantes que jugaron más de un juego. Hubo errores: a veces difundía mensajes contradictorios sobre los planes de invasión, confundiendo a los participantes. Sin embargo, solo un oponente sospechó que Cicero podría ser un bot (todo lo cual luego se reveló).

El profesor David Leslie, especialista en ética de la IA en la Universidad Queen Mary y el Instituto Alan Turing, ambos en Londres, describe a Cicero como «un Frankenstein técnicamente muy ingenioso»: una combinación impresionante de múltiples tecnologías, pero también una ventana a un futuro inquietante. Un informe de un comité parlamentario del Reino Unido de 2018 advirtió que nunca se debe otorgar a la IA el «poder independiente para dañar, destruir o engañar a los seres humanos».

READ  Juegos que saldrán en enero por los que deberías estar emocionado

Su primera preocupación es el engaño antropomórfico: cuando alguien cree erróneamente, como hace un antagonista, que hay otro ser humano detrás de la pantalla. Puede allanar el camino para que las personas manipulen la tecnología.

Su segunda preocupación es una IA que está equipada con astucia pero que carece de un sentido de los conceptos morales básicos, como la honestidad, el deber, los derechos y las obligaciones. «El sistema tiene el poder de engañar, pero no funciona en la vida moral de nuestra sociedad», dice Leslie. “Para decir lo obvio, un sistema de IA es, en un nivel básico, poco ético”. Él cree que la inteligencia similar a la de Cicerón se puede aplicar mejor a problemas científicos difíciles, como el análisis del clima, en lugar de cuestiones geopolíticas delicadas.

Curiosamente, los creadores de Cicero afirman que sus mensajes, filtrados por lenguaje tóxico, terminaron siendo «sinceros y de gran ayuda» para otros jugadores, y especulan que el éxito puede haber surgido de sugerir y explicar movimientos mutuamente beneficiosos. Quizás, en lugar de maravillarnos de lo bien que Cicerón jugó la diplomacia contra los humanos, deberíamos desesperarnos por lo mal que los humanos juegan la diplomacia en la vida real.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *