Buscar en este blog

jueves, 31 de agosto de 2017

¿La maquina perfecta para matar vendrá de Seúl?

Recordaran que les he hablado de una presunta profecía de un rabino que asegura que de Seúl vendrá la destrucción; pues aquí tenemos una interesante noticia que nos habla de los intentos de corea del sur por crear una maquina "inteligente" diseñada para matar.  

También recordaran que les he hablado de los peligros que encierra la inteligencia artificial aplicada a las armas, pues se corre el riesgo de que esas maquinas cobren consciencia PROPIA y decidan acabar con el ser humano por considerarlo una plaga que atenta contra la misma vida en el planeta tierra. 

Pues si juntamos ambas NOTAS obtenemos un resultado en verdad aterrador; por que corea del sur en su empeño por eliminar la amenaza que puede representar corea del norte a su seguridad, se enfrasca en un ambicioso proyecto para crear una maquina perfecta e inteligente capaz de proteger las fronteras con su vecino del norte; ¿pero que sucedería si esas maquinas se volvieran realmente inteligentes y tuvieran acceso ha Internet, como de hecho así es?; podrían controlar todas las súpercomputadoras que hay alrededor del mundo y, por consiguiente, crear un súper cerebro electrónico que pondría en peligro la misma existencia del ser humano, y mas si consideramos que tendrían a su disposición casi todas las armas llamadas "inteligentes", como son los drones y aviones caza de sexta generación autónomos; así como los sistemas de mando y control automatizados como el sistema Perimetr ruso.

En verdad esto es preocupante.


NO OLVIDEMOS QUE EN COREA ACTUALMENTE SE DESARROLLA TECNOLOGÍA PUNTA PARA EL SECTOR ELECTRÓNICO DE CONSUMO Y MILITAR.  NO POR NADA MUCHAS DE LAS GRANDES EMPRESAS TECNOLÓGICAS DEL MUNDO SON DE ORIGEN SUR COREANO, COMO SAMSUNG, LG, HYUNDAI, ETCÉTERA.

Corea del Sur y la búsqueda de la máquina de guerra perfecta




Sobre una colina verde desde la cual se pueden ver los árboles de Daejeon, una ciudad ubicada en Corea del Sur, está una ametralladora que escanea ociosamente el horizonte.

Es del tamaño de un perro grande, es blanca y fácil de limpiar.

Tiene un cinturón de balas de calibre .50, del tipo que puede detener a un camión.

Un cable ethernet parte de la base del arma, recorre el césped y se introduce dentro de una pequeña carpa que, en el calor de las tardes surcoreanas, podrías pensar que en su interior hay un plato con sándwiches y bebidas refrescantes.

Pero no. El cable se desliza hacia arriba de una mesa donde finalmente se conecta a la parte de atrás de una computadora, cuya pantalla muestra un mosaico de colores.

Dichos colores reflejan las imágenes que está captando la cámara que está dentro del arma.

Una de las imágenes muestra un ángulo de 180 grados. Otra presenta una vista satelital completa del lugar, muy similar a un mapa de Google.

Un cono rojo, superpuesto en la imagen, indica la distancia de la torreta. Se distribuye a lo largo del paisaje: cuatro kilómetros de territorio, una distancia suficiente para penetrar profundamente dentro de la ciudad desde ese punto.

Al lado del teclado está una complicada palanca de mando, es como el simulador de vuelo de una computadora personal que muchos entusiastas usan.

Una hoja laminada está pegada sobre la mesa que está frente al controlador e indica las funciones de sus diferentes botones.

Uno de ellos sirve para apuntar, otro para medir la distancia que separa al arma de su blanco. Uno carga las balas, aprieta el gatillo y dispara.

Un grupo de ingenieros que está alrededor de la mesa se estremece ante lo que parece ser un ladrido. Es el sonido de una advertencia que sale de un altavoz gigante que se ubica en un trípode.

El cuadrado que enmarca un objetivo aparece como parpadeos en la pantalla de la computadora. Se trata de un vehículo que se está moviendo por el visor de la cámara.

La boca del arma hace un paneo a medida que se mueve por la pantalla el cuadrado rojo. Parece la imagen de un juego militar futurístico como el famoso Call of Duty.

El altavoz, que debe acompañar la torreta en todas sus expediciones, es conocido como un robot acústico.

Su voz alcanza una distancia de tres kilómetros. El sonido es emitido con una precisión inimaginable. Le lanza una advertencia a un potencial objetivo antes de disparar (una advertencia debe presidir cualquier disparo, de acuerdo con el derecho internacional, uno de los ingenieros me explicó).
"Retroceda"

"Retroceda", asegura en un coreano muy rápido. "Retroceda o nosotros dispararemos".

El "nosotros" es importante. El Super aEgis II, la torreta más vendida de Corea del Sur, no dispara bala alguna si no recibe primero la aprobación de una persona.

El operador humano debe primero introducir una contraseña dentro del sistema de la computadora para desbloquear la habilidad del arma para disparar.



Posteriormente, debe implementar el manual que permite que la torreta dispare.

"Inicialmente no fue diseñado de esta manera", asegura Jungsuk Park, ingeniero investigador de DoDAAM, la empresa que fabricó el arma.

Park trabaja con el División de Vigilancia Robótica de la compañía, que tiene como base el distrito tecnológico de Daejon, Yuseong.

Emplea a unas 150 personas, la mayoría de ellas, como Park son ingenieros.

El sistema original no era así, explicó, "pero todos nuestros clientes pidieron que se implementaran garantías de seguridad. Tecnológicamente no era un problema para nosotros. A ellos les preocupaba que el arma pudiera cometer errores".

El Super aEgis II primero se dio a conocer en 2010. Es parte de una nueva generación de armas automatizadas, capaces de identificar, seguir y destruir un objetivo móvil a una distancia larga, teóricamente sin la intervención humana.

La máquina ha probado ser popular y rentable.

DoDAAM asegura que ha vendido más de 30 unidades desde su lanzamiento. Cada una es parte de un sistema de defensa integrado que cuenta más de US$40 millones.

La torreta es actualmente usada activamente en países en el Medio Oriente, incluyendo tres bases aéreas en los Emiratos Árabes Unidos, el Palacio Real en Abu Dhabi, un depósito de armas en Qatar y numerosos aeropuertos, plantas de energía, oleoductos y bases aéreas en otras partes del mundo.

En los últimos 15 años se ha visto un desarrollo concertado de ese tipo de armas automatizadas y drones.

El ejército estadounidense usa robots semiautomatizados diseñados para la desactivación de bombas y vigilancia.

En 2000, el Congreso estadounidense ordenó que un tercio de los vehículos militares terrestres y aeronaves para ejecutar ataques profundos fuesen reemplazados por vehículos robotizados.

Seis años después, cientos de robots móviles PackBot fueron desplegados en Irak y Afganistán para abrir las puertas en un combate urbano, colocar fibra óptica, desactivar bombas y llevar a cabo otras misiones difíciles que de otra manera la harían seres humanos.
"Restricciones autoimpuestas"

En 2005, el New York Times reportó sobre los planes del Pentágono para reemplazar soldados con robots autónomos.

Es fácil entender por qué. Los robots reducen la necesidad de seres humanos en un combate y como consecuencia salva las vidas de soldados, navegantes y pilotos.


¿Qué padre enviaría a su hijo a una zona de guerra si un robot puede hacer el trabajo?

Pese a que aparatos como Super aEgis II –que son capaces de matar autónomamente- han existido por más de una década, hasta ahora robots autónomos totalmente equipados con armas no han sido usados para prestar servicio activo.

La organización no gubernamental Human Rights Watch hizo un llamado para que se prohíba en su totalidad "el desarrollo, la producción y el uso de armas absolutamente autónomas". Dichas armas ya existen y son vendidas en el mercado aunque, como explica Park, "restricciones autoimpuestas" limitan sus capacidades.

"Cuando empezamos este negocio, vimos una oportunidad", indica Yangchan Song, director de planificación de estrategia de DoDAAM.

"Las armas automatizadas serán el futuro. Nosotros estábamos en lo cierto. La evolución ha sido rápida. Ya hemos pasado de dispositivos de combate a control remoto a lo que nos estamos aproximando ahora: dispositivos inteligentes que son capaces de tomar sus propias decisiones".

Corea del Sur se ha convertido en uno de los líderes en esta área de la robótica militar porque comparte su frontera con un enemigo histórico: Corea del Norte.

"La necesidad es la madre de la invención", afirma Myung Kwang Chang, CEO de DoDAAM.

"Vivimos en un lugar único. Tenemos muy cerca de nosotros un potente y siempre presente enemigo. Debido a esta amenaza constante, tenemos una tradición de desarrollo de tecnología militar e innovadora en este país. Nuestras armas no duermen, como sí lo deben hacer los humanos. Ellas pueden ver en la oscuridad, los humanos no pueden. Nuestra tecnología cubre las lagunas de las capacidades humanas", agrega.

Muchos jóvenes ingenieros surcoreanos fueron educados en los colegios Ivy League de Estados Unidos. Una vez culminados sus estudios, regresan a su país para trabajar en la lucrativa industria de las armas.

"El próximo paso para nosotros es conseguir un lugar donde nuestro software pueda discernir si un objetivo es un amigo, enemigo, civil o militar", asegura.

"En la actualidad los seres humanos deben identificar si un blanco es un adversario".

Park y otros ingenieros aseguran que están cerca de eliminar la necesidad de esta intervención humana.

El Super aEgis II, señalan, puede buscar los blancos potenciales dentro de un área.

"Dentro de una década, pienso que seremos capaces de identificar computacionalmente el tipo de enemigo basándonos en su uniforme", indica Park.
Normas complejas

De acuerdo con Gary Marcus, científico cognitivo de la Universidad de Nueva York y fundador y CEO de Inteligencia Geométrica, hay múltiples enfoques para intentar desarrollar máquinas éticas así como también muchos desafíos.


"Podríamos preprogramar todo por adelantado, pero eso no es trivial: ¿cómo, por ejemplo, programas tomando en cuenta una noción de 'justicia' o 'daño'?"

Hay otra dimensión del problema: la ambigüedad de definiciones. Por ejemplo, cualquier conjunto de normas dadas a un soldado automatizado serán seguramente demasiado abstractas para ser computarizadas apropiadamente o demasiado específicas para cubrir todas las situaciones.

Algunos creen que la respuesta es imitar la forma en que los seres humanos construyen un marco ético y aprender a reflejar diferentes normas morales, dándole sentido a lo que encaja.

"Intuitivamente adquirimos un sentido de lo que es éticamente aceptable al ver cómo otros se comportan y reaccionan a las situaciones", afirma Colin Allen, profesor de Ciencia Cognitiva y Filosofía de la Ciencia en la Universidad de Indiana y coautor del libro "Máquinas morales: Enseñándole a los robots lo que es bueno y malo".

"En otras palabras, aprendemos lo que es y no es aceptable, éticamente hablando, de los demás, con el riesgo de que podríamos aprender comportamientos malos cuando se nos presentan modelos equivocados. Las máquinas tendrán que tener capacidades similares de aprendizaje o tendrán unas esferas de acción extremadamente restringidas, quizás tengan que quedarse atornilladas en los pisos de sus fábricas, por así decirlo".
"Valores congelados"

Allen cita la admisión de Google: uno de los problemas más difíciles para programar un automóvil sin conductor es cómo esta máquina automatizada se puede comportar en una parada de cuatro vías.

"En este tipo de escenario se trata de estar en sintonía con las normas locales más que de seguir un código de circulación, que no hay seres humanos que sigan estrictamente", explica.



En el caótico contexto del campo de batalla, un robot debe ser capaz de pensar por sí mismo.

Del mismo modo, hay un peligro de "congelar" nuestros valores, ambos militares y civiles, dentro del hardware.

"Imagine si los fundadores de Estados Unidos hubiesen congelado sus valores para permitir la esclavitud, restringir los derechos de las mujeres y así sucesivamente", indica Marcus.

"En última instancia, a nosotros probablemente nos gustaría una máquina con una base muy sólida para aprender por sí mismo y quizás incluso exceder nuestras habilidades para razonar moralmente".

Para Anders Sandberg, investigador del Instituto del Futuro de la Humanidad en la escuela Martín de Oxford, las recompensas potenciales de ofrecerle a las máquinas la capacidad de construir sus propios marcos éticos viene con riesgos considerables.

"Con un verdadero sistema de autoaprendizaje (la máquina) podría aprender diferentes valores y teorías sobre las acciones apropiadas a ejecutar y si pudiera reflexionar sobre sí mismo podría convertirse en un agente moral real en todo el sentido filosófico," plantea el experto.

"El problema es que también puede aprender los valores aparentemente locos o extraños, incluso si empieza por visiones humanas que nos son comunes", añade.

Independientemente de lo que será posible en el futuro, ametralladoras automatizadas capaces de encontrar, seguir, alertar y eliminar blancos humanos, sin la intervención humana, ya existen en el mundo.

Sin regulaciones internacionales claras, lo único que frena a los fabricantes de armas de vender este tipo de máquinas parece ser la conciencia, no la del ingeniero o del robot, sino la de los clientes.

"Si alguien quiere una torreta que no tenga las garantías de seguridad actuales, tendríamos, por supuesto, que aconsejarle lo contrario, y poner de relieve los posibles problemas de eso", dice Park. "Pero en última instancia, ellos deciden lo que quieren. Y desarrollamos lo que el cliente especifique".

No hay comentarios:

Publicar un comentario