¿Se puede pelear una guerra con máquinas que se portan bien y hacer el conflicto más "seguro para los humanos"? Ésa es la seductora visión, y la esperanza, de quienes investigan y trabajan en el futuro de la robótica militar.
De hecho, ya se está trabajando en modelos que se alimentan de material orgánico y en Estados Unidos una oficina del gobierno pidió que se realice un estudio sobre la ética de los robots.
Con 8.000 robots en uso, algunos creen que se puede generar una revolución militar.
Actualmente la mayoría de los que están presentes en el terreno tienen por delante tareas que no implican combatir, como desactivar bombas, a diferencia de los letales aviones no tripulados. Pero Bob Quinn, que trabaja para la filial estadounidense de QinetiQ, una compañía británica que fabrica robots, asegura que el futuro promete más robots armados en el campo de batalla, incluidos vehículos sin conductor. "Cuanto más cerca se está de recibir un disparo, más se entiende el valor de tener la capacidad de usar armas a distancia", explica.
Cualquiera que haya visto las películas de Terminator puede encontrar esta idea un tanto tenebrosa. Quinn admite que entre militares de alto rango "películas de ciencia ficción causaron gran angustia". É insiste en la necesidad de asegurarse "de que los robots armados sólo funcionen bajo el control de los soldados y nunca de forma independiente". Pero la velocidad de la guerra moderna puede hacer que el control humano directo sea difícil, dice Peter Singer, autor del libro Wired for War. Singer pone como ejemplo el sistema automatizado de artillería desplegado en Afganistán. "(Este) sistema reacciona y dispara. Podemos apagar el sistema, podemos activarlo, pero nuestro poder no es realmente de decisión. Es poder de veto ahora", dice. Pero, si sistemas automatizados están tomando las decisiones, ¿cómo podemos estar seguros de que están atacando los blancos correctos y obedeciendo las leyes de la guerra?
El académico estadounidense Patrick Lin recibió recientemente la tarea de estudiar la ética de los robots, un trabajo encomendado por la oficina de investigaciones navales de las Fuerzas Armadas de Estados Unidos. "Cuando hablamos de robots autónomos", argumenta, "una respuesta natural podría ser la de programarlos para que sean éticos. ¿No es eso lo que hacemos con las computadoras?".
El Pentágono, a través de su agencia de investigación de defensa, está gastando miles de millones de dólares en el desarrollo de la robótica.
Un ejemplo sorprendente de un robot que precisa una cuidadosa programación es el vehículo sin conductor desarrollado por el Pentágono, llamado EATR (Energeticaly Autonomous Tactical Robot). Puede repostar combustible por sí mismo en viajes largos tras recolectar materia orgánica, lo que plantea la inquietante situación de una máquina consumiendo cadáveres en el campo de batalla. Su inventor, el doctor Robert Finkelstein, de Robotic Technology, insiste en que consumen "material orgánico, pero en su mayoría vegetal". "El robot sólo puede hacer lo que está programado para hacer, tiene un menú", agrega.
Todo esto preocupa a los escépticos, como el profesor Noel Sharkey, co-fundador del Comité Internacional del Control de Robots Armados, quien dice que la decisión de matar tiene que permanecer en manos humanas. "Uno lo puede entrenar todo lo que quiera, darle toda las reglas éticas del mundo. Si el aporte no es bueno, no es bueno en absoluto. Los seres humanos pueden ser considerados responsables, las máquinas no". Si uno no puede confiar en un robot para distinguir entre fuerzas enemigas y no combatientes inocentes, Lin sugiere otra solución. "Si hay un área de combate tan intensa que se puede asumir que alguien no es un combatiente", argumenta, "entonces liberen a los robots en este tipo de escenario. Algunas personas llaman a eso una caja asesina. Cualquier objetivo (en una caja asesina) se supone que es un blanco legítimo".Otros investigadores sugieren que los robots podrían evitar los fallos de los soldados. "Es menos probable que los robots que están programados correctamente cometan errores y maten no combatientes, inocentes, porque no son emocionales, no van a tener miedo, ni actuar irresponsablemente en algunas situaciones", dice Finkelstein.
Pero Christopher Coker, de la London School of Economics, testigo de guerras pasadas y presentes, no está de acuerdo. "Tenemos que poner nuestra confianza en el factor humano", señala. "Desafortunadamente los militares en sus reportes suelen ver el factor humano como el eslabón más débil. No creo que sea el eslabón más débil. Es el eslabón más fuerte", asegura.
Las computadoras nunca serán capaces de simular la "esencia del guerrero", la mentalidad y las perspectivas éticas del soldado profesional.
La revolución militar en la robótica ya ha avanzado rápidamente en el aire, donde los aviones no tripulados dirigidos por control remoto son fundamentales para los conflictos como Afganistán. En el terreno, el uso de robots hasta ahora ha sido más limitado.
Sin embargo, dada la preocupación política y popular por las bajas entre las fuerzas de la OTAN, el discurso para la venta del fabricante de robots Bob Quinn es probable que sea convincente. "Vamos a mantener seguros a nuestros muchachos, y matar al enemigo. Desafortunadamente, esa es la situación en la que estamos en la guerra".
No hay comentarios:
Publicar un comentario