Un gran desafío en la actualidad es combatir la desinformación, además de adecuar el marco legal del rápido avance de la Inteligencia Artificial (IA). Si bien algunas personas desconfían de su evolución, la experta en derecho e IA, Teresa Rodríguez de las Heras, quien es catedrática de Derecho Mercantil de la Universidad Carlos III de Madrid, sostuvo que existe una "relativa aceptación social", en la que a pesar de que la IA llegó "acompañada de temor" a la vez también de "fascinación".
"Vino acompañada de mensajes catastrofistas, pero a la vez una idea de que forma parte de una nueva etapa evolutiva del ser humano", dijo Rodríguez, explicando que existe una "una relativa aceptación social", y claramente "una implicación industrial, empresarial y de la administración pública", lo que calificó como "el contexto en el que están las bases para que la IA sea efectivamente la tecnología del momento".
Sin embargo, no se puede dejar fuera los peligros detrás de este avance desproporcionado de la tecnología. "Podemos encontrar riesgos de muy diferente calado, tiene que ver con el área en el que se desarrolla", explicó, asegurando que "hay un riesgo que nos preocupa casi de una manera emocional: el riesgo de que la IA pierda el control, que gane un nivel de autonomía que la independice del control humano".
Lo anterior es lo que genera este "nivel de incertidumbre máximo" y la duda entre "si nos sentimos cautivados por la IA o aterrados".
También abordó sus efectos en la comunicación, y cómo llegó a "cambiarla, transformarla, a hacerla mutar de manera completa". "Es una comunicación diferente", explicó, "cuando hablamos de comunicación entre personas está mediada por la tecnología. Ahora la IA ya no solo intermedia, sino que genera comunicación".
Una de las mayores inquietudes que genera es en torno a su normativa, Rodríguez explicó que es "interesante aproximarnos a la regulación con una visión positiva. No ver a la regulación como una herramienta de prohibición o de sanción", ya que, lo que hace la regulación es establecer "cuál va a ser el terreno en el que vamos a desarrollar, innovar, comercializar inteligencia artificial (...) La regulación lo que debe es crear certidumbre donde hay incertidumbre".
Y es que, la regulación no debería "limitar la innovación", sino que "sentar las bases que una determinada sociedad considera necesarias para proteger los valores que quiere proteger y prevenir los riesgos que quiere prevenir. Entonces sentar las bases es marcar las líneas rojas para el desarrollo de una actividad".
Finalmente, se refirió a la cómo podría continuar evolucionando la tecnología. "Nos quedan muchísimos campos para desarrollar. Pero creo que va a ser una sociedad mucho más consciente de los valores. Es decir, yo creo que va a ser una sociedad mucho más preocupada porque la tecnología forme parte del conjunto de valores y de objetivos que, como sociedad, nos hemos marcado", dijo, señalando que se imagina una sociedad "post-trabajo", la que tendrá muchos trabajos delegados de la IA y con un ser humano "con mucho más tiempo para la creatividad, para la reflexión, para el llamado ocio educado u ocio erudito".
"Yo veo una sociedad utópica, con todas sus ventajas, mucho más que una catástrofe que nos aboque a una especie de sociedad sin humanos. Todo lo contrario. Yo creo que estamos ante un momento en el que las utopías son posibles", concluyó.
Revisa la entrevista completa en EmolTV