Cada vez son más las voces y organizaciones en todo el mundo que alertan del uso de la inteligencia artificial y los robots autónomos con fines militares.
Generada con IA
Telegram
Copiar url
Enlace copiado
Los robots asesinos no forman parte de una historia de ciencia ficción como podría ser Terminator, sino que se han convertido en parte vital de los conflictos en numerosas partes del planeta, desde las máquinas autónomas hasta los drones automatizados.
Desde 2014, la ONU ha mantenido diferentes asambleas de diplomáticos para alcanzar un acuerdo jurídicamente vinculante para regular y prohibir su uso para 2026, debido a varios factores que tienen que ver con la idiosincrasia de la tecnología, la ética y el ámbito legal.
Es muy fácil que las máquinas confundan objetivos humanos, asegura Wareham, de Human Rights Watch en una entrevista de las Naciones Unidas. Las personas con discapacidad corren un riesgo especial debido a su forma de moverse. Sus sillas de ruedas pueden confundirse con armas.
Y añade más advertencias: También preocupa que la tecnología de reconocimiento facial y otras mediciones biométricas no puedan identificar correctamente a personas con diferentes tonos de piel. La IA sigue presentando deficiencias y conlleva los sesgos de quienes programaron esos sistemas.
Más allá de la forma de proceder de la tecnología, también existen preocupaciones en el terreno legal, ya que si un robot asesino mata a un civil o comete un genocidio, ¿quién sería el responsable último? ¿El fabricante? ¿El programador del algoritmo?
Ante la ausencia de un corpus normativo vinculante a nivel mundial, muchas organizaciones de derechos civiles han comenzado a levantar su voz, con el objetivo de evitar la utilización de estos robots asesinos en tareas de seguridad, militares o de control de fronteras.
Sin caer en una actitud tecnófoba o cibercatastrofista, existen iniciativas mundiales para frenar el desarrollo de los denominados robots asesinos, que son máquinas con la capacidad autónoma de elegir los objetivos y, en consecuencia, acabar con ellos.
De esta forma, han aparecido organizaciones como Stop Killer Robots –Paren a los Robots Asesinos, por su traducción al español–, cuyo lema es claro y conciso: Menos autonomía, más humanidad. En su interior, también se encuentran asociaciones españolas por los derechos civiles.
Según confirma Nicole Van Rooijen, directora ejecutiva de la organización, en la misma entrevista de la ONU, el uso de este tipo de tecnología implicaría una dificultad añadida al complejo escenario internacional, como es determinar las responsabilidades por crímenes de guerra.
Las Naciones Unidas, representadas por su secretario general, António Guterres, lleva varios años posicionándose en contra del uso de este tipo de armas autónomas y advirtiendo de que la militarización de la inteligencia artificial representa un grave peligro.
Por su parte, Izumi Nakamitsu, directora de la Oficina de Asuntos de Desarme de la ONU, es aún más clara respecto a la postura oficial de la organización mundial ante lo que se considera la deshumanización digital.
El Secretario General siempre ha dicho que usar máquinas con poderes totalmente delegados para tomar la decisión de quitar una vida humana es simplemente repugnante desde el punto de vista moral, afirma. No debería permitirse. De hecho, debería estar prohibido por el derecho internacional. Esa es la postura de las Naciones Unidas.
Google había planteado en el pasado la no utilización de la IA para fines militares, aunque todo cambió a principios de este mismo año, momento en el que Alphabet cambió de parecer para comenzar a invertir en proyectos militares.
Y los de Mountain View no son la excepción, ya que otras como Palantir o Microsoft también usan sus modelos con los mismos fines. Incluso OpenAI, la compañía detrás de ChatGPT, ha alcanzado un acuerdo con el Pentágono por 200 millones de dólares para desarrollar tecnología con IA para los programas de las fuerzas armadas.
Según Stop Killer Robots, la incorporación de la IA en aplicaciones militares también conlleva riesgos significativos, como la posibilidad de una escalada no deseada de los conflictos, con el consiguiente aumento de víctimas civiles que nada tienen que ver con el negocio de la guerra.
A ello hay que añadir la falta de rendición de cuentas, además de la incompatibilidad ya mencionada con el derecho internacional humanitario, al ser estos modelos propietarios bastante restrictivos en lo que a transparencia de las grandes compañías tecnológicas se refiere.
Uno de los ejemplos más conocidos y recientes es el del ataque de Israel en la Franja de Gaza usando la IA de su sistema Habsora para identificar supuestamente a terroristas de Hamás. A pesar de que no es un arma autónoma, diferentes informes concluyeron que había víctimas civiles.
Además, la posible reducción de las personas a puntos de datos basados en características específicas como la etnia, el género, el peso, la forma de andar, etc., plantea serias dudas sobre cómo se crean los perfiles de los objetivos y, a su vez, cómo se seleccionan, concluye la organización.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, robots