Catedrática de Álgebra de la Universidad de Málaga
Mercedes Siles: «Nos están algoritmizando; necesitamos un sello de calidad ética en la inteligencia artificial»La profesora cree que los sistemas digitales simplifican al ser humano para volverlo predecible y manipulable
Catedrática de Álgebra en la Universidad de Málaga y exdirectora de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA), Mercedes Siles es ... una de las voces más lúcidas sobre los desafíos éticos de la inteligencia artificial. Desde la Fundación Hermes dirige el seminario Algoritmos éticos y responsables para el desarrollo humano, un espacio pionero donde se reflexiona sobre los límites de la tecnología y la necesidad de una regulación con principios. Habla con pasión sobre el futuro de los algoritmos, los sesgos, la educación matemática, la adicción digital y la urgencia de poner a la persona en el centro de la revolución tecnológica. «La tecnología es maravillosa cuando está al servicio de las personas. Pero necesitamos poner límites, exigir responsabilidad y crear confianza. Un sello de calidad algorítmica sería un gran paso para garantizar que los algoritmos trabajen para nosotros, y no al revés», dice. Y todo hace indicar que tiene razón.
–Usted y su hermana son matemáticas y proceden de una familia de Alcaudete, en Jaén, dedicada al campo. ¿Cómo se explica que de ese entorno surjan dos mujeres matemáticas?
–A veces pienso que debe de ser uno de los buenos frutos que da Jaén, además del aceite (ríe). No hay nadie en mi familia con formación científica, y sin embargo yo sentí desde niña una atracción natural por los números. Mis padres se dedicaban al campo, pero cuando yo tenía dos años decidieron trasladarse a Madrid —sobre todo por decisión de mi madre— para que pudiera estudiar y tener una vida independiente. Desde el colegio me gustaban los libros de matemáticas porque planteaban problemas que había que resolver, no ejercicios mecánicos. Me fascinaba esa sensación de descubrir cómo se relacionaban los números entre sí. Aprendí la tabla de multiplicar de forma intuitiva, no de memoria. Descubrí que había un orden interno, una lógica que me encantaba. Lo que no soportaba eran las cuentas repetitivas o los cuadernos de vacaciones. Mi hermana me vio disfrutar con eso y decidió seguir el mismo camino: también estudió matemáticas.
–No era común entonces que una mujer se dedicara a las matemáticas.
–Es verdad, pero yo no era consciente de eso. Nunca me pregunté si lo habitual era que una mujer hiciera matemáticas o no. Simplemente me dejé guiar por lo que me gustaba. En mi casa siempre tuve mucha libertad de pensamiento y nunca me pusieron límites. Me sugerían estudiar Económicas porque nadie entendía muy bien qué hacía alguien que se dedicaba a las matemáticas, pero yo tenía claro que quería investigar. Soy muy curiosa, y la curiosidad ha sido mi motor siempre. Cuando terminé la carrera pedí una beca de investigación y desde entonces no he dejado de hacerme preguntas.
–¿Esa curiosidad es la base de la ciencia, pero también una necesidad vital, verdad?
–Para mí, sí. Mi hermana dice que sigo teniendo la curiosidad de cuando era niña, y quizá sea cierto. Esa inquietud me impide quedarme quieta. La curiosidad es lo que te mantiene dentro del mundo, lo que te hace avanzar, descubrir y conectar disciplinas. Gracias a ella me interesé por la inteligencia artificial. Cuando empezó a consolidarse, hace más de una década, me di cuenta de que estábamos abriendo una puerta maravillosa, pero también peligrosa. Hemos puesto en marcha un monstruo sin control, y eso me preocupa. Porque la IA es útil, por supuesto, pero se está usando también para manipular, para engañar, para sustituir vínculos humanos. Y eso puede llevarnos a convertirnos en algo que no deberíamos ser.
«Los algoritmos no son neutrales y pueden manipularnos sin que nos demos cuenta»
«Las redes sociales son como el tabaco: les ponen aditivos para que no podamos dejar de consumirlas»
–Muchas personas temen que la IA les quite el trabajo o transforme su entorno laboral. ¿Cómo lo ve?
–Lo primero es comprender qué es la inteligencia artificial y cuáles son sus límites. Y también entender quién está detrás de ella y qué intereses mueve. La IA es muy útil para todo aquello que sea algoritmizable: tareas repetitivas, cálculos complejos, análisis de datos a gran escala, diagnósticos médicos por imagen… Para eso es maravillosa. Pero hay otras cosas —la creatividad, la empatía, la reflexión moral— en las que nunca podrá reemplazar al ser humano. Podemos usarla para inspirarnos, para acelerar procesos o para mejorar decisiones, pero no debemos delegar en ella la capacidad de pensar. Los algoritmos funcionan con el lenguaje de las matemáticas, y todo lenguaje tiene límites. La IA no siente, no comprende, no tiene conciencia.
–¿Cómo explicaría de forma sencilla lo que hace realmente un modelo de IA?
–Me gusta usar un ejemplo muy básico. Imagine que en su casa tiene dos cajas: una llena de sujetos y otra llena de predicados. Cada mañana coge un sujeto y un predicado al azar, los une y obtiene una frase. Si lo hace millones de veces y con miles de combinaciones posibles, parecerá que crea frases nuevas, pero en realidad solo está combinando elementos que ya existían. Los grandes modelos de lenguaje funcionan así: analizan cantidades inmensas de información y generan la respuesta estadísticamente más probable. Eso no es creatividad, es probabilidad. La verdadera creatividad humana nace del contexto, de la emoción, de la experiencia, de lo que no está escrito.
–A menudo olvidamos que detrás de esa 'magia' hay infraestructuras gigantescas.
–Sí, y deberíamos recordarlo más. La IA necesita enormes centros de datos que consumen cantidades ingentes de energía y agua para refrigerarse, además del trabajo de miles de personas que etiquetan información. Por ejemplo, en medicina se utilizan millones de radiografías que alguien tiene que clasificar: «esto es un pulmón sano, esto no lo es». Es un proceso costoso, humano y muy poco visible. Y luego, con todo ese material, la IA aprende. Pero no debemos pensar que es un sistema limpio, etéreo o automático. Detrás hay consumo de recursos, desigualdad y condiciones laborales duras.
–Habla de sesgos en los algoritmos. ¿Dónde aparecen y por qué son tan peligrosos?
–Porque los algoritmos no son neutrales. Detrás de ellos hay programadores, empresas y culturas. La mayoría de los grandes modelos proceden de Estados Unidos, también los hay chinos y rusos, y cada uno lleva incorporada su visión del mundo. Cuando se diseña un algoritmo se asignan pesos a distintas variables y en esos pesos se cuelan los valores de quien programa. Por eso digo que los sesgos son inevitables, pero deben ser detectados y regulados. Le pongo un ejemplo: traduje un artículo del 'Financial Times' con dos modelos distintos de IA, uno estadounidense y otro chino. El primero introdujo un matiz ideológico que el texto original no tenía, una sutileza que cambiaba completamente el enfoque. Si no conoces el idioma o el contexto, ni siquiera te das cuenta. Y eso es peligrosísimo.
–Vivimos rodeados de algoritmos. ¿Realmente nos conocen mejor que nosotros mismos?
–Lo intentan. Cada vez que das un 'me gusta', haces un comentario o borras un correo sin leerlo, estás generando datos. Esos datos alimentan modelos que te clasifican, te ponen etiquetas, te asocian a un grupo social, económico o emocional. En Estados Unidos hay universidades privadas que han comprado esos datos para captar alumnos vulnerables —madres solteras, inmigrantes, veteranos— y dirigirles campañas muy específicas. Es manipulación pura. Y el problema es que esos modelos se parecen a ti, pero no eres tú. Son una representación, una simplificación. Nos están algoritmizando, recortando lo que nos hace humanos para convertirnos en algo más fácil de predecir y de vender.
–Muchas personas usan la IA como confidente, terapeuta o incluso pareja virtual. ¿Qué piensa de eso?
–Me parece un error gravísimo. Se le están confiando a una máquina emociones, pensamientos e información íntima sin saber dónde termina ni quién puede acceder a ella. Los ciberataques son constantes. Y además, la empatía que muestran esas máquinas es programada. Te dicen lo que quieres oír. Hay personas que se han suicidado inducidas por sus 'interacciones' con una IA, y otras que se han 'casado' con un sistema. Es una utilización muy peligrosa de la soledad. En Japón, por ejemplo, se venden robots de compañía. Yo no quiero eso. Prefiero tomar café con mis amigos, hablar con mi familia, estar con personas reales.
–Esa manipulación puede ir más allá, hasta el terreno político o ideológico. ¿Cómo se combate?
–Con ética, pero también con responsabilidad y con educación. La ética no basta si se queda en las palabras. Hay que exigir que el desarrollo de la inteligencia artificial se oriente a un uso responsable, que contribuya a una humanidad mejor, no a una más manipulable. Y eso implica dos cosas: producir tecnología ética y formar a los ciudadanos para que la usen de forma crítica. La IA no es tu amiga, ni tu psicóloga, ni tu confesor. No tiene emociones, ni conciencia, ni responsabilidad moral. Debemos reforzar lo que nos hace humanos, porque cuanto más se deshumaniza la sociedad, más fácil es controlarla.
–¿Europa puede liderar ese modelo ético?
–Debería ser su gran bandera. No veo ética en lo que están haciendo Estados Unidos, China o Rusia. En Europa, en cambio, aún conservamos cierta conciencia humanista que debemos defender. Desde la Fundación Hermes promovemos el seminario Algoritmos éticos y responsables para el desarrollo humano, donde hemos propuesto crear un sello de calidad algorítmica, una especie de certificación que garantice que un sistema ha pasado controles éticos, como ocurre con los medicamentos y la Agencia Europea del Medicamento. Que un algoritmo pase por una agencia así no sería una traba, sino una garantía. Daría confianza y seguridad a la ciudadanía.
«La IA no siente, no comprende, no tiene conciencia»
«La curiosidad es lo que me mantiene dentro del mundo, lo que me hace avanzar»
«Hemos puesto en marcha un monstruo sin control, y eso me preocupa»
–En su faceta docente, ¿cómo se enfrenta a una generación que vive permanentemente conectada?
–Me encanta dar primero, porque es el curso del descubrimiento. Lo primero que les digo es que van a llevarse una sorpresa: las matemáticas no son lo que imaginan. En mis clases de Álgebra empezamos por lo más básico: los números naturales, enteros, los axiomas de conjuntos. Les explico que los axiomas son las reglas del juego, igual que en el ajedrez o el Scrabble. A partir de ahí, con lógica, se construye todo. Les pido que no cuenten en casa lo que hacemos, porque pensarán que están 'tirando el dinero' (ríe). Pero lo que buscamos es abrir la mente, eliminar rigideces, aprender a razonar y a imaginar. Cuando entiendes eso, las matemáticas se vuelven apasionantes.
–Las empresas buscan hoy tanto matemáticos como filósofos. ¿Por qué?
–Porque comparten algo esencial: la lógica. Pero también porque la filosofía de la ciencia da sentido al conocimiento. No todo en la vida es tecnología o cálculo. Necesitamos pensamiento, lenguaje, reflexión. La lingüística, por ejemplo, es fundamental para entender cómo funcionan los modelos de lenguaje de la IA. Las humanidades no son accesorias: son complementarias y necesarias.
–¿Qué opina de los avatares digitales o vídeos hechos con IA?
–Si una persona quiere recrearse a sí misma, está bien, pero siempre debería dejar claro que es una creación digital. Usar la imagen o la voz de otra persona sin permiso me parece intolerable. Además, hay algo que me preocupa: estamos olvidando nuestra materialidad. No somos solo mente. Tenemos cuerpo, vivimos en un espacio físico. No podemos trasladar nuestra existencia a una nube donde todo es mental o virtual. Esa desmaterialización nos deshumaniza.
–¿Qué debe cambiar en la enseñanza para que las matemáticas no sigan siendo el 'terror' de muchos alumnos?
–Sobre todo, debemos valorar a maestras y maestros. Son el pilar del sistema educativo. Donde no hay buena docencia, no hay aprendizaje posible. Se necesitan mejores salarios, formación integral y, sobre todo, vocación. Los mejores estudiantes deberían querer dedicarse a enseñar. Si la persona que da matemáticas no las ha visto en años o las estudió a la fuerza, difícilmente transmitirá entusiasmo. Y eso vale también para los idiomas: los colegios 'bilingües' que proliferan sin rigor no hacen ningún favor a sus alumnos.
–Usted dirigió la ANECA. ¿Qué debe cambiar en la universidad?
–Tenemos que repensarla. La universidad española produce la mayor parte de la investigación del país, pero vive a un ritmo que no es sano. Pensar lleva tiempo, y pensar rápido suele significar pensar menos. Hay que buscar equilibrio: hacer menos, pero mejor. En la iniciativa EMEGAE, en la que trabajamos varias universidades españolas y latinoamericanas, revisamos precisamente eso: todas las tareas académicas, las que se valoran y las que no. Hay que reconocer el trabajo invisible, el 'housekeeping' académico, y equilibrar los esfuerzos. Y también cuestionar la obsesión por la productividad. La ciencia necesita reposo.
–¿La velocidad digital nos está robando la atención?
–Sin duda. Tenemos adicción a las redes sociales, al móvil, al 'scroll' infinito. Nos hemos vuelto incapaces de concentrarnos. Para salir de eso hay que cambiar hábitos: no mirar el móvil antes de dormir, leer en papel, recuperar el silencio. Yo por la noche leo libros, no pantallas. Parece fácil, pero cuesta porque las redes están diseñadas para engancharnos, como el tabaco o los ultraprocesados. Tienen sus 'saborizantes', sus pequeños estímulos que te hacen seguir mirando. Pero debemos recordar que el tiempo es limitado y que la vida real está fuera de la pantalla.
–¿Esa falta de atención puede tener consecuencias graves?
–Claro. Cuanto más deprisa vivimos, menos profundos son nuestros pensamientos. Esa inmediatez nos está haciendo perder capacidad crítica. Lo veo también en la información: un artículo o una película que llevan meses de trabajo se consumen en minutos y se olvidan al día siguiente. No podemos seguir funcionando así. Hay que volver al tiempo humano, al tiempo de la reflexión.
–En lo personal, ¿cómo es la vida de una matemática con tantas inquietudes?
–Ha habido etapas más estresantes, como cuando dirigí ANECA, pero fueron experiencias muy enriquecedoras. Aprendí mucho y conocí a gente extraordinaria. Ahora procuro mantener el equilibrio. Trabajo en ética algorítmica, en igualdad en la carrera académica y en proyectos de investigación que me apasionan. Y además, tengo una faceta menos conocida: escribo poesía y relatos. Me encantaría que algún día me descubrieran también como escritora.
¿Tienes una suscripción? Inicia sesión