EMOLTV

Nuevamente alertan sobre el uso de la inteligencia artificial en drones y vehículos autónomos para usarlos como armas

Expertos detallaron que esta tecnología puede ser utilizada para tomar el control de herramientas tecnológicas y organizar ataques o espionajes con fines bélicos, una duda que más de algún científico ya ha planteado en el debate.

21 de Febrero de 2018 | 13:18 | Reuters
imagen
El Mercurio
FRÁNCFORT- Los rápidos avances en la inteligencia artificial (IA) están aumentando los riesgos de que usuarios con sistemas operativos maliciosos, o malware, puedan usar la tecnología para organizar ataques, provocar accidentes en vehículos de conducción autónoma o convertir los drones comerciales en armas teledirigidas, de acuerdo a un nuevo reporte emitido esta semana.

La investigación publicada por 25 investigadores técnicos y de políticas públicas de las universidades de Cambridge, Oxford y Yale, junto con expertos militares y en temas de privacidad, hizo sonar las alarmas por el posible uso indebido de la IA por parte de estados enemigos, delincuentes y lobos solitarios.

Los investigadores dijeron que el uso malicioso de la IA representa una amenaza inminente para la seguridad digital, física y política, al posibilitar ataques a gran escala y altamente eficaces. El estudio se centra en desarrollos plausibles dentro de cinco años.

"Todos estamos de acuerdo en que hay muchas aplicaciones positivas para la IA", comenta Miles Brundage, investigador del Instituto Future of Humanity de Oxford.

Esta herramienta que considerada una poderosa fuerza para desbloquear todo tipo de posibilidades técnicas, se ha convertido en el centro de grandes debates sobre si la automatización masiva que permite podría provocar un desempleo generalizado y otras perturbaciones sociales.

El documento de 98 páginas advierte que el costo de los ataques puede reducirse mediante el uso de la IA para completar tareas que de otra manera requerirían trabajo humano y experiencia. Pueden producirse nuevas formas de ataques que no podrían lanzar los humanos sin ayuda de la IA o que explotan las vulnerabilidades de los propios sistemas de inteligencia artificial.

El informe revisa un creciente material de investigación académica sobre los riesgos de seguridad que plantea la IA y hace un llamado a los gobiernos y expertos en políticas públicas y técnicos para que colaboren y atenúen estos peligros.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?