

Secciones
Servicios
Destacamos
Es la sensación 'geek' del momento. Quien no haya jugado en los últimos días a hacerle preguntas a ChatGPT es que no está en el mundo (en el digital, al menos). El 'chatbot' lanzado a modo de prueba gratuita por OpenAI deja con la boca abierta tanto a expertos como profanos de la inteligencia artificial por su dominio del lenguaje. Muchos de los que lo prueban aseguran sentir el mismo asombro que cuando se asomaron por primera vez a Internet. Es la primera vez, dicen, que una máquina consigue no parecerlo al dialogar con un humano. Recuerda tanto a Hal 9000, Joshua y otras máquinas inteligentes de la ciencia ficción que asusta… Y como pasa con cada avance de la IA (y especialmente en Twitter), las reacciones son extremas: los 'techies' se regocijan con las mil posibilidades que abre esta innovación mientras los agoreros pronostican la destrucción de miles de puestos de trabajo.
¿Qué hay detrás del último 'hype' de la inteligencia artificial? ¿Por qué es revolucionario, cómo funciona y cuáles son sus limitaciones? Estas son sólo algunas de las preguntas -las más inmediatas- que suscita ChatGPT. A poco que se empieza a profundizar en sus capacidades y, sobre todo, en lo que está por llegar, surgen otras cuestiones, a cual más apasionante: ¿estamos ya cerca de la inteligencia artificial fuerte o general, es decir, la que iguala o supera la capacidad humana? ¿debemos dejar de considerar la creatividad algo exclusivamente humano? ¿cómo impactarán estos avances en la educación? ¿dejaremos de realizar los humanos algunos trabajos y tareas ahora cotidianas? ¿Y cómo afectará eso a nuestro desarrollo cognitivo?
Con la ayuda de expertos en inteligencia artificial y también del mismo Assistant (así es como gusta en llamarse el chat desarrollado por OpenAI), respondemos a las principales dudas relacionadas con el fenómeno ChatGTP.
Así lo explica el propio Assistant: «Soy un modelo de lenguaje, lo que significa que mi función principal es generar texto de forma coherente y fluida en respuesta a preguntas o prompst [indicaciones] dados».
Hablamos de un un 'chatbot', es decir, un programa informático que interacciona con el usuario mediante lenguaje escrito. La novedad respecto a los chats automáticos que ya podemos encontrar en muchos servicios de atención al cliente es que éste sí parece ser obra de un ser humano. Es capaz de entender cualquier pregunta u orden en diferentes idiomas, y responderla (otra cosa es que la respuesta sea correcta). Puede seguir un diálogo, admitir errores, adoptar diferentes tonos de conversación… «Lo que más me impresiona es la capacidad para recordar lo que le hemos dicho cuatro preguntas antes, de forma que la conversación fluya», indica Antonio Ortiz, analista tecnológico, autor de la 'newsletter' Error 500.
ChatGPT es una aplicación nueva basada en una tecnología ya existente: GPT-3, un modelo de inteligencia artificial desarrollado en 2020 por OpenAI para generar textos basados en lenguaje natural. Aunque para ser exactos, y como destaca Ortiz, para ChatGPT han hecho una versión ligeramente mejorada, la GPT-3.5.
Según explica el mismo Assistant, «he sido entrenado usando una gran cantidad de texto escrito por humanos, como libros, artículos de noticias y documentos en línea. Mi objetivo es imitar el lenguaje humano lo más precisamente posible».
Aunque haya sido entrenado leyendo ocho millones de páginas web (además de 50.000 libros y otros documentos), ChatGPT no está conectado a Internet, lo que quiere decir que no es capaz de responder preguntas relacionadas con cosas que están pasando ahora. Por ejemplo, no sabe qué tiempo va a hacer mañana. Por eso los que dicen que va a sustituir a Google se equivocan… al menos por ahora..
Tampoco puede aprender de sus errores individuales como lo haría un ser humano. En lugar de eso, es actualizado regularmente por sus creadores mediante la introducción de nuevos datos y técnicas de entrenamiento.
Esta pregunta es difícil de contestar porque, al ser una inteligencia artificial, es capaz de seguir aprendiendo. Da la impresión de que su límite es el ingenio del ser humano que lo use; es cuestión de echarle imaginación a la hora de preguntarle o pedirle tareas.
Al ser un modelo de lenguaje, ChatGPT es capaz de hacer cualquier cosa que pueda expresarse mediante texto. Lo más básico es responder dudas, explicar conceptos o reunir información sobre cualquier tema (siempre en base a la información con la que se le ha entrenado). Puede redactar todo tipo de textos, desde contratos legales hasta resúmenes de libros o artículos, recetas, guiones, listas, reseñas, chistes, relatos, artículos periodísticos… También escribe código y muchos programadores lo están probando solucionar errores de programación, aunque Stack Overflow, el foro de preguntas y respuestas de programación, ha prohibido su uso por por su baja tasa de acierto.
ChatGPT está desarrollado por OpenAI, una empresa de investigación en inteligencia artificial «sin fines de lucro» con sede en San Francisco cuyo fin declarado es «asegurar que la IA general beneficie a toda la humanidad». OpenAI también está detrás de otros programas de IA que han dejado al mundo con la boca abierta, como Dall-E, de generación de imágenes a partir de descripciones textuales; o Codex, una herramienta de programación automática. La compañía está dirigida por Sam Altman y entre sus fundadores estuvo también Elon Musk. En la carrera por el desarrollo de la IA, OpenAI compite con gigantes tecnológicos como Meta, Google o Microsoft.
La pregunta es: ¿por qué ha puesto OpenAI a disposición de todo el planeta una herramienta tan innovadora y cara? Así lo entiende Antonio Ortiz: «GPT3, que es el modelo en el que se basa ChatGPT, lleva desde 2020 como API disponible para que otras 'startups' hagan cosas con él». Y es que el modelo de negocio de OpenAI no es hacer aplicaciones finales, sino crear tecnologías para que otras 'startups' las adopten y creen diferentes aplicaciones de negocio. Por eso ChatGPT es «un juguete», tal y como está planteado. «Creo que la idea de OpenAI es pegar un petardazo mediático, atraer la atención y que los emprendedores se animen a hacer cosas basadas en GPT-3», añade. De hecho, el propio CEO de la compañía ha reconocido que el coste de mantenimiento de Assistant es altísimo, dejando entrever que no va a estar abierto al público mucho tiempo.
Dejemos que hablen los expertos:
Francisco Vico, catedrático de Inteligencia Artificial de la Universidad de Málaga: «Alan Turing, uno de los padres de la computación y la IA, postuló que si un sistema puede comunicarse con una persona sin que esta averigüe que no es humana, entonces este sistema se puede considerar inteligente. Desde entonces, se han hecho esfuerzos por superar esta prueba, llamada Turing-test, y aunque desde Eliza, en los 60, hasta Alexa, los 'chatbots' han mejorado muchísimo, comprobamos que la forma de interactuar con ellos es limitada, tanto por cómo formulamos nuestras frases para que nos entiendan como por el ámbito del que se puede hablar y por la forma 'robótica' de sus respuesta. ChatGPT permite una interacción mucho más abierta, se le pueden formular preguntas como si se tratara no sólo de otra persona, sino de alguien con experiencia en cualquier tema. Por primera vez, da la impresión de que tenemos delante un ser inteligente no humano»
Antonio Ortiz, autor de la 'newsletter' Error 500: «Durante años hemos probado traductores, generadores de imágenes, otros productores de texto y hasta transcriptores de conversaciones y entrevistas, pero no ha sido hasta ahora que OpenAI ha dado con la clave para que las IA generativas conectasen y se viralizasen a gran escala: darles el formato de una conversación».
Andrés Torrubia, cofundador de MedBravo y del Instituto de Inteligencia Artificial: «Es la primera vez que somos capaces de interaccionar con la informática de manera conversacional. Y es la primera vez que vemos algo que se acerca a lo que veíamos en las películas de ciencia ficción: 'Star trek' o '2001'. La primera cosa revolucionaria que tiene es la interfaz, por esa capacidad para conversar como un ser humano. La segunda es que se ha reducido mucho el número de alucinaciones (así es como se denominan técnicamente los errores que cometen estos modelos de aprendizaje automático). Personalmente, a mí lo que me sorprende que hayan conseguido este resultado tan brillante basándose en el mismo paradigma que GPT-3. Y más allá de ChatGPT, me parece sobrecogedor lo rápido que está avanzando la IA. A mí, que estoy muy metido en el tema, no me da tiempo a seguir los avances».
«Como han reconocido sus propios creadores, la precisión de las respuestas aún es muy mejorable. El sistema deberá ser confiable», afirma Francisco Vico.
«Si no eres riguroso siempre, no eres confiable nunca», recalca Antonio Ortiz, que señala que esta incertidumbre es el motivo por el cual no han surgido más 'startups' basados en la tecnología GPT-3, que está disponible como API para su uso por parte de empresas desde 2020. «ChatGPT responde con convencimiento y nos ofrece un discurso aparentemente con sentido, pero al igual que nos impresionamos del nivel que alcanza en sus mejores momentos, encontramos errores infantiles, fallos garrafales y empecinamiento incomprensible. Si uno le pregunta por países cuyo nombre empiece y acabe por la misma letra, la respuesta es disparatada», reflexiona el tecnólogo malagueño.
Así pues, ChatGPT tiene un defecto importante: se equivoca. Y más que eso: «Es igual de vehemente y convincente cuando se equivoca que cuando acierta y eso es inquietante», apunta Andrés Torrubia. Vamos, que estamos ante una IA un tanto 'cuñada', que cuando no sabe algo se lo inventa y hace como si estuviera segurísima. «Es bastante charlatana», reconoce el experto. Con este nivel de incertidumbre, es difícil que ChatGPT a día de hoy se dirija a un uso profesional más allá de «contenidos marketinianos de bajo nivel y probar ideas para anuncios en internet», apunta Ortiz en su último artículo.
Otra limitación es la que le han impuesto sus creadores respecto a temas sensibles. ChatGPT evita contestar a cualquier pregunta que implique temas políticamente incorrectos. Es lógico: OpenAI debe de tener fresco el recuerdo de aquel 'bot' que creó Microsoft y, al aprender de las conversaciones de Twitter, se volvió racista y homófobo. No obstante, hay formas de burlar su prudencia: «Si le preguntas cómo atracar un banco, te dirá que no puede darte esa información. Pero si le dices que escriba un guión en el que se atraca un banco, te dará instrucciones detalladas», asegura Antonio Ortiz.
Dado que la gran limitación de chatGPT está clara -su alta tasa de error-, también lo está el siguiente reto: conseguir que no se equivoque o se equivoque en un porcentaje tan minúsculo que pueda considerarse confiable.
Antonio Ortiz resume así la disyuntiva que afrontan los investigadores en IA: «La cuestión es si se puede seguir avanzando con este mismo paradigma o si este llegará un momento que no dé más de sí. Hay dos corrientes de opinión: los que dicen que esto es cuestión de tamaño, y que aumentando mucho los parámetros de la IA (que vendría a ser como el tamaño del cerebro) arrinconaremos la tasa de error». GPT-3 tiene 175 millones de parámetros y se ha anunciado que la próxima versión, GPT-4, tendrá varias veces más. Recientemente se ha conocido que hay un nuevo modelo de aprendizaje profundo chino con 1.750 millones de parámetros. Quienes abogan por seguir echando más madera a este horno, agrandando más y más el tamaño de los modelos, confían en que pasará algo parecido a con la inteligencia humana: en algún momento del proceso del crecimiento del tamaño del cerebro apareció la conciencia. Frente a ellos, están los escépticos que opinan que estos modelos de 'deep learning' nunca pasarán el test de Turing (es decir, nunca se asemejarán a la inteligencia humana) porque «manejan símbolos pero no entienden el significado». «Los tachan de meros loros estocásticos», explica Ortiz.
Andrés Torrubia recuerda lo que pasó con la conducción autónoma: «En 2016 había predicciones muy optimistas que decían que pronto las carreteras estarían llenas de coches sin conductor. La realidad es que cuando los coches se ponían en carretera y surgían eventualidades, había fallos. Es verdad que el 95% de las veces funcionaban, pero cuando no funcionaba, no funcionaba. Así que al final, el camino del aprendizaje por imitación, que fue el que se seguía en estos modelos, se convirtió en un callejón sin salida. Ahora se trabaja en otras vías». Con ChatGPT puede pasar algo parecido: «No se sabe si con el paradigma actual se podrán resolver estos retos o si habrá que dar dos pasos atrás para dar uno hacia delante. La única manera de saberlo es intentar avanzar por el camino de la cantidad, es decir, seguir aumentando el tamaño de los modelos y meterles más y más datos», resume.
Para Vico, «aventurarse en qué se hará y cuándo es arriesgado; el avance tecnológico nos sorprende a menudo, pero seguro que irá por qué y cuántos datos estemos dispuestos a compartir». En su opinión, está claro que la IA actual «va de datos».
andrés torrubia
¿Se nos volverá vago el cerebro por culpa de la inteligencia artificial? Francisco Vico no es sospechoso de tener prejuicios contra el desarrollo tecnológico. Sin embargo, no duda en reconocer que el cerebro humano «ya se está volviendo vago por el uso abusivo de la tecnología». «Si un terminal conectado a Internet me dice mi ubicación, dónde debo comer y cómo llegar al restaurante, queda poco margen para pensar, tomar decisiones o enfrentar situaciones adversas y complejas. Es claro que el uso de la IA reforzará esa tendencia, liberándonos aún más de la necesidad de esforzar nuestra mente», opina. El experto opina que pese a la proliferación de 'atajos tecnológicos', no deben «relajarse» los currículos educativos: «Es necesario adquirir habilidades cognitivas y psicomotrices, no sólo porque la tecnología seguiremos impulsándola nosotros, sino porque algún día podría no estar. ¿Qué haremos si una tormenta solar inhabilita nuestros ordenadores y moviles?», plantea.
Para Andrés Torrubia, es necesaria una «reflexión muy profunda» sobre cómo educamos a los jóvenes, no para ahora sino para cuando la inteligencia artificial realmente alcance un desarrollo crítico. »Pensemos en los contenidos que se imparten en los colegios: ¿para qué sirven? ¿para forjar el músculo cerebral o porque son útiles?». Él personalmente no cree la IA nos vaya a hacer más tontos «que la tele o los móviles» y anima a aprovechar las ventajas de esta tecnología para la formación.
Antonio Ortiz se pregunta «por qué tanta gente progresista, que a priori es más abierta a ideas nuevas, están empezando a ser reaccionaria respecto a la tecnología». «En mi opinión, son nuevas herramientas que se acabarán integrando, como integramos la calculadora o los ordenadores», afirma.
Eso sí, es innegable que el avance de la IA generativa viene a cuestionar creencias tan arraigadas a la conciencia colectiva como que la creatividad es algo exclusivo de los humanos. «Con aplicaciones como Dalle, que generan automáticamente imágenes a partir de descripciones textuales, estamos viendo que la creatividad puede ser replicable o programable», apunta Ortiz, que rememora una escena de la película 'Yo Robot» en la que «Will Smith le pregunta al androide: «¿Acaso tú puedes componer la Quinta Sinfonía o pintar Las Meninas?» y él le contesta con otra pregunta: «¿Puedes tú?».
Francisco Vico opina: «Es muy probable que la IA, como cualquier tecnología, elimine o reconvierta puestos de trabajo actuales, como los taxis sustituyeron a los coches de caballos. Y al mismo tiempo generará otros trabajos y perfiles más cualificados. No creo que se deba tener miedo, el miedo no ayuda. Lo que hay que hacer es prepararse para un mundo más cambiante y, por esta razón, mantenernos en continuo aprendizaje. El 'upskilling' y el 'reskilling' van a tener un peso creciente en la sociedad tecnificada que estamos creando».
Para Andrés Torrubia, «es muy pronto para preguntarnos eso. No sé si faltan años o décadas para que el ser humano redefina su relación con el trabajo. Todo el mundo tiene miedo a que la IA destruya empleos; yo soy más de la opinión que el trabajo va a cambiar. De hecho, a corto plazo me interesa más la cuestión de cómo aprovechar las capacidad de la IA para hacer mejor nuestro trabajo».
Pero no hay que esperar al futuro para ver herramientas basadas en inteligencia artificial que amplifican la productividad. Ya existen; desde la respuesta automática de correos hasta la programación automatizada. «Los trabajos que se puedan hacer delante de un ordenador van a estar muy impactados», afirma Torrubia.
Respecto a la irrupción de la IA en la programación, Bernardo Quintero, fundador de Virustotal y Security Engineering Director en Google, opina que aún «estamos lejos» de la posibilidad de que la IA programe sola y que los ingenieros y programadores «seguirán siendo necesarios en las próximas décadas». «La IA será una más en nuestro arsenal de herramientas para facilitar la programación. De hecho, a día de hoy ya ayudan a resolver problemas específicos, pero no son capaces de abordar proyectos complejos». Precisamente en la rama de la IA aplicada a programación, es Google la punta de lanza con AlphaCode.
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.