Entre la Ética y la Inteligencia Artificial: El Rol Humano en las Operaciones Militares Tecnológicas

Una sala llena de computadoras ubicada en la cima de una torre, con un globo terráqueo al fondo, presentando una escena cinemática y cautivadora que combina tonos oscuros de verde y gris.

«`html

Transformación del campo de batalla en el siglo XXI

El siglo XXI ha transformado el campo de batalla, difuminando la línea entre las inevitables tragedias y los actos de negligencia o mala intención. Este cambio se debe en gran medida a la creciente integración de máquinas en las operaciones militares, lo que ha revolucionado la toma de decisiones humanas y plantea cuestionamientos éticos y legales sin precedentes.

La disrupción provocada por algoritmos

Courtney Bowman, analista del sector, argumenta que estamos siendo testigos de una disrupción provocada por la transferencia del juicio humano a algoritmos. Esta transición hacia lo digital está redefiniendo no solo cómo libramos nuestras guerras sino también nuestra percepción sobre ellas. Según Bowman, es imperativo construir un nuevo marco ético para tomar decisiones sólidas cuando interactuamos con estas nuevas tecnologías.

Ejemplos destacados: Palantir’s AIP y URSA

Un caso ilustrativo es el uso militar de Palantir’s Artificial Intelligence Platform (AIP). Este sistema incorpora modelos lingüísticos avanzados en productos militares para detectar amenazas potenciales, sugerir planes estratégicos e identificar rutas óptimas. Sin embargo, su implementación resalta la importancia crucial de no depositar una confianza ciega en las recomendaciones generadas por máquina.

Otro programa destacable es Urban Reconnaissance through Supervised Autonomy (URSA), desarrollado por DARPA. URSA permite a robots y drones funcionar como observadores avanzados durante complejas operaciones urbanas. A pesar del evidente potencial táctico que ofrece este sistema, fue diseñado teniendo presentes consideraciones éticas fundamentales: sólo designará personas como «personas de interés», evitando etiquetarlas directamente como «amenazas». Brian Williams justifica esta decisión legal afirmando que corresponde a los seres humanos hacer ese tipo final e irrevocable determinación.

Incorporando ineficiencias deliberadas para frenar el ritmo acelerado impulsado por la tecnología

Palantir adopta un enfoque similar hacia el proceso decisorio incorporando ineficiencias deliberadas donde sea necesario frenar el ritmo acelerado impulsado por la tecnología. Por ejemplo, antes de proceder con una acción basada en datos generados por computadora -como lanzar un ataque- se requiere verificación humana adicional.

Nunca deben reemplazar nuestro juicio humano ni nuestra responsabilidad moral

Aunque nuestros sistemas pueden estar alimentados con inteligencia artificial sofisticada capaz incluso superarnos muchas veces; aún así son herramientas creadas para ayudarnos a tomar mejores decisiones pero nunca deben reemplazar nuestro juicio humano ni nuestra responsabilidad moral.

«`

Sandra es especialista en marketing digital y experta en redes sociales. Ha completado un posgrado en Comunicación y RRPP de marcas de moda en Idep Barcelona, así como otro en Marketing y reputación online: comunidades virtuales. Sandra está al tanto de las últimas tendencias y mejores prácticas en redes sociales, y eso se refleja en su trabajo diario generando un impacto positivo en el mundo digital.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *