Alertan que algunos países están desarrollando drones asesinos potenciados con inteligencia artificial

Los recientes desarrollos del Pentágono en tecnología de IA han generado preocupación y críticas a medida que se acerca el despliegue de sistemas de armas de IA autónomos capaces de tomar decisiones letales de forma independiente.

El New York Times informa que países como Estados Unidos, China e Israel están trabajando activamente en armas letales autónomas potenciadas por inteligencia artificial (“IA”), que pueden identificar y atacar objetivos de forma autónoma.

Los críticos argumentan que el uso de drones controlados por IA con la capacidad de matar humanos de forma autónoma es un avance muy alarmante, ya que coloca decisiones de vida o muerte en máquinas con una mínima supervisión humana. Varios países, incluidos Rusia, Australia e Israel, se oponen a los esfuerzos de otras naciones para aprobar una resolución vinculante en las Naciones Unidas que exija la prohibición de los drones asesinos con IA.

La cuestión relativa al despliegue de armas de IA ha provocado un intenso debate, con preguntas clave que giran en torno al papel de la acción humana en el uso de la fuerza. El principal negociador de Austria en este asunto, Alexander Kmentt, enfatizó que esta cuestión no es sólo una preocupación legal y de seguridad, sino también ética.

Mientras tanto, el Pentágono ha revelado planes para desplegar enjambres de drones con IA como parte de su programa de armas de IA. Estos drones, equipados con capacidades avanzadas de IA, están destinados a proporcionar a Estados Unidos una ventaja táctica, contrarrestando la superioridad numérica del Ejército de Liberación de China.

La subsecretaria de Defensa de Estados Unidos, Kathleen Hicks, destacó además el papel de los enjambres de drones controlados por IA en la remodelación de la dinámica del campo de batalla, haciendo que sea más difícil planificar contra ellos, atacarlos y derrotarlos. Sin embargo, surgen preocupaciones con respecto a la supervisión humana y las capacidades de toma de decisiones, ya que algunos argumentan que las limitaciones a la autonomía de la IA podrían obstaculizar las ventajas estratégicas.

Los críticos también señalan incidentes recientes en los que se han utilizado drones con IA en zonas de conflicto, como el uso por parte de Ucrania de drones controlados por IA durante su conflicto con Rusia. El alcance de las víctimas humanas causadas por estos drones con IA sigue siendo incierto, lo que genera preocupaciones adicionales.

Grupos de defensa como la  Campaña para detener a los robots asesinos  advierten que la deshumanización de la tecnología de inteligencia artificial plantea riesgos importantes. Esta deshumanización no solo podría afectar el uso de la fuerza, sino también permear otros aspectos de nuestras vidas, extendiéndose a la automatización en las fuerzas del orden, los hogares inteligentes y más. La campaña señala la urgente necesidad de un tratado global que prohíba las armas autónomas para evitar que la producción y proliferación a gran escala de estas tecnologías caigan en manos equivocadas.

COMPARTIR

Facebook
Twitter
Telegram
WhatsApp

Dejanos Tu Comentario!