Karina Gibert es una de las mayores expertas en inteligencia artificial del país. La doctora en Ingeniería Informática y catedrática en la Universidad Politécnica de ... Barcelona pasó por La Térmica para hablar sobre los intentos de trasladar el pensamiento humano a los ordenadores. Antes, afrontó una entrevista con SUR.
–¿Usted le tiene miedo a la inteligencia artificial?
–Cuando eres experto en un área y conoces el intríngulis que hay detrás, es más fácil que no te den miedo las cosas. Lo que me da cierta inquietud es que, conociendo todo el potencial que tiene la inteligencia artificial, según como la utilices, comporta algunos riesgos de vulnerabilidad de los derechos de las personas. No por la IA en sí, sino por el uso imprudente que se pudiera hacer de ella. Ahí sí que tenemos unas alarmas puestas.
–Explicado de manera sintetizada, ¿qué es la inteligencia artificial?
–Nace en 1956, en un momento muy preciso, en la escuela de verano de Dartmouth. Es la universidad en la que estaba John Mc Carthy. Este profesor convoca a diez sabios del momento, que venían de diferentes ámbitos. De la cibernética, de las telecomunicaciones… de diferentes sitios. Las escuelas de verano te encerraban durante dos meses en el campus, como en un retiro espiritual, para meditar sobre la conjetura planteada. Y la conjetura planteada, en este caso, fue la siguiente: ¿Podemos especificar las actividades que hacemos los humanos utilizando inteligencia con tanta precisión para conseguir que una máquina las ejecute? Ellos se ponen a pensar y se dan cuenta de que utilizando los lenguajes formales que nos dan la programación, la matemática y la lógica, sí que se podrían desarrollar programas que simularan el razonamiento humano.
–¿La inteligencia artificial es un sistema neutral?
–Mira, aquí hay un debate muy importante. Mi posición es que la tecnología es neutra y que, dependiendo de cómo tú la configuras e implantas, va a tener un uso más o menos ético y más o menos beneficioso. El cuchillo es el ejemplo perfecto. Si lo utilizas para cocinar, es algo beneficioso que ha permitido que la humanidad de civilice. Si lo usas para matar al vecino, es algo muy perjudicial. Con la inteligencia artificial pasa lo mismo. Si la usas bien, te puede servir para curar una enfermedad que ahora mismo no se puede curar. La usas mal, te servirá para manipular a un ciudadano y que compre una cosa que en realidad no quiere.
–¿Cuánto hay de materialismo en la inteligencia artificial? Al final, los que la desarrollan son personas.
–Hay bastante. Hay personas que la desarrollan con responsabilidad social y hay personas que la desarrollan desde el capitalismo más agresivo. Las grandes tecnológicas son capaces de monitorizar hasta por dónde respiras. A partir de ahí, empiezan a filtrar la información que te muestran. Ahora estamos viviendo una carrera por liderar el ámbito de la inteligencia artificial que se parece a la carrera espacial del siglo pasado.
–¿Cada país aspira a su propio modelo?
–Los modelos son muy diferentes. China, por ejemplo, no tiene 'whatsapp'. Tiene una aplicación que se llama 'wechat'. Cada ciudadano tiene un código QR en su móvil, como si fuera un DNI. El Gobierno sabe si aparcas en doble fila, si te saltas un semáforo, si reciclas mal… Es el modelo de vigilancia total del ciudadano. A final de año, a través de lo que ellos llaman sistema de créditos social, te dicen si has sido un buen o un mal ciudadano. Hay millones de chinos que, a causa de este sistema, no pueden coger un vuelo en estos momentos.
–Entonces, ¿la inteligencia artificial abre la puerta a un control total de la población?
–Por eso es tan importante el uso y el marco legal que le damos. China ya es un ejemplo de como un gobierno tiene el control total sobre la población. También digo que la población china no lo vive como lo viviríamos nosotros. En su cultura, la invasión de la privacidad vale menos que el interés general. En Europa sería impensable que esto se pudiera aceptar.
–¿Cuántos modelos diferentes detecta usted?
–Está el chino, que acabamos de desarrollar. El de un conocimiento total de lo que hacen los ciudadanos. Luego está el de Estados Unidos, donde el control está en el sector privado, en las empresas. Allí, el propietario del dato es el propietario de la aplicación informática que la recoge. En Europa somos los más humanistas. Hemos cogido el rol de que queremos desarrollar una inteligencia artificial para el bien común, con la persona en el centro. Es el modelo más respetuoso con las personas y el más restrictivo para el desarrollo del sector.
–Se puede utilizar, por ejemplo, para fomentar la discriminación de colectivos concretos.
–Se podría. Y muchas veces pasa sin querer, que es uno de los grandes problemas que tenemos. Los sistemas de inteligencia artificial son tan complejos que no tenemos aún una tecnología sistematizada para validar que funciona en todos los miles de casos que se pueden encontrar cuando uno va por todo el mundo.
–La mayoría ve la inteligencia artificial con mirada escéptica. Muchos temen que sus puestos de trabajo pueden ser sustituidos por la máquina.
–Eso es un mito. Una de las inteligencias artificiales de más éxito que tenemos todos en nuestras manos son los GPS. ¿Cuántos conductores de autobús o de mercancías han despedido porque existe el GPS? Ninguno. El conductor tiene que conducir, pero ahora no se pierde. El conductor, simplemente, desde que tiene esta inteligencia artificial trabaja mejor.
–¿Qué relación hay entre algoritmo y la inteligencia artificial?
–Un algoritmo en realidad es un programa informático. Cualquier cosa que tú haces que la informática lo haga tiene un algoritmo detrás. El algoritmo que te cuadra los balances de una empresa no tiene nada inteligente. Pero es un algoritmo. Como la inteligencia artificial se materializa a través de la informática, siempre, en un método de inteligencia artificial, tú lo cristalizas en un algoritmo. O sea, hay una familia de algoritmos concretos que son los algoritmos de la inteligencia artificial. Los algoritmos que cuentan palabras en un texto no son de inteligencia artificial. Los algoritmos que son capaces de clasificar en una radiografía si hay un tumor o no, estos sí que son de inteligencia artificial. Normalmente, son algoritmos que resuelven problemas donde hay una búsqueda de soluciones muy grande.
–¿La inteligencia artificial tiene que estar ligada a la ética?
–Yo creo que es muy importante que se desarrolle dentro de un marco ético. Europa lo está intentando controlar a base de hacer recomendaciones y, ahora, estas recomendaciones éticas están en fase de un proyecto de ley para aportar una legislación.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.