EMOLTV

Expertos en inteligencia artificial hacen llamado para frenar desarrollo de armas autónomas

El científico Stephen Hawking y el cofundador de Apple Steve Wozniak, están en la lista de quienes firmaron una carta donde advierten sobre los peligros de este tipo de tecnología bélica.

27 de Julio de 2015 | 11:59 | Emol
imagen

Stephen Hawking ha manifestado varias veces que la inteligencia artificial es el principal riesgo para la existencia de la humanidad.

AFP
LONDRES.- La posibilidad de crear armas que no requieran de control humano es una idea que cientos de expertos en el campo de la inteligencia artificial no quieren que se materialice: más de mil de ellos firmaron una carta abierta en la que piden frenar el desarrollo de esta tecnología por los graves peligros que reviste.

El científico británico Stephen Hawking y el cofundador de Apple Steve Wozniak, son algunos de los personajes que se sumaron a esta iniciativa que busca crear conciencia sobre lo que podrían llegar a hacer este tipo de dispositivos, una campaña a la que también se sumaron Demis Hassabis (jefe ejecutivo de Google DeepMind) y Elon Musk (director de Tesla Motors).

"La tecnología en inteligencia artificial ha alcanzado un punto en el que el despliegue de armas autónomas es alcanzable -en términos prácticos y no legales- en cosa de años, sino décadas, y la apuesta es muy alta: las armas autónomas han sido descritas como la tercera revolución bélica, después de la pólvora y las armas nucleares", comienza describiendo la carta, que fue dada a conocer durante la Conferencia Internacional Conjunta de Inteligencia Artificial que se desarrolla en Buenos Aires.

Los expertos aseguran que, si un poder militar desarrolla sistemas capaces de seleccionar objetivos y operar de forma autónoma, sin control humano directo, daría pie a una carrera similar a la que ocurrió con la bomba atómica. Sin embargo, la gran diferencia es que para los primeros no se requieren materiales difíciles de encontrar -como el uranio- y por lo tanto sería muy difícil monitorear quiénes son los que los están desarrollando.

"El punto final de esta trayectoria tecnológica es obvio: las armas autónomas se transformarán en los (fusiles) Kalashnikov del mañana. Hoy la pregunta clave para la humanidad es si comenzar una carrera armamentista en base a la inteligencia artificial o prevenir su inicio", agregan los especialistas.

No es la primera vez personajes como Musk o Hawking advierten públicamente sobre los peligros que pueden derivar del desarrollo de la inteligencia artificial, en especial en el campo bélico. Hawking ha llegado a decir que se trata de "el principal riesgo de nuestra existencia", ya que podría significar el fin de la raza humana. Otros como Wozniak han tenido posiciones distintas, criticando su uso en el campo bélico, pero afirmando que los robots serían buenos para los humanos.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?