Borrar
EFE

ChatGPT y otras IA no saben distinguir entre lo que alguien cree y los hechos, según un nuevo estudio

No siempre reconocen la «verdad objetiva», lo que dificulta su aplicación en áreas como psicología, psiquiatría, medicina o jurídicas, alertan científicos de Stanford

Lunes, 3 de noviembre 2025, 17:08

Comenta

La inteligencia artificial (IA) rige destinos al inmiscuirse en decisiones de medicina, derecho, ciencia, comunicación, ingeniería… Sin embargo, sus modelos de lenguaje, cruciales para sus ... deducciones y conclusiones, aún no saben distinguir cuándo las creencias que recogen son falsas, según un estudio realizado en la Universidad de Stanford (California, Estados Unidos), lo que puede «llevar a diagnósticos erróneos, distorsionar juicios judiciales y amplificar la desinformación».

Este contenido es exclusivo para suscriptores

Publicidad

Publicidad

Publicidad

Publicidad

Esta funcionalidad es exclusiva para suscriptores.

Reporta un error en esta noticia

* Campos obligatorios

diariosur ChatGPT y otras IA no saben distinguir entre lo que alguien cree y los hechos, según un nuevo estudio

ChatGPT y otras IA no saben distinguir entre lo que alguien cree y los hechos, según un nuevo estudio