Sin ética, la IA generativa representa un riesgo para la ciencia.
Las ilustraciones científicas generadas por inteligencia artificial pueden inducir a error e incluso resultar peligrosas, advierten investigadores de las universidades de Bergen, Toronto y Harvard. En un nuevo artículo presentado en la conferencia IEEE VIS 2025, sostienen que, pese al creciente interés por herramientas como GPT-4o y DALL-E 3, en el campo de la visualización biomédica aún no existen estándares ni criterios de precisión, lo que podría tener consecuencias graves en la práctica clínica y en la difusión del conocimiento científico.
En su trabajo, los autores comparan imágenes generadas con IA con ilustraciones creadas por artistas profesionales. Algunos errores son menores; otros, como la representación de una rata con un órgano sexual desproporcionado, resultan absurdos y comprometen la credibilidad de las publicaciones científicas.
Según los investigadores, el problema no reside sólo en los errores, sino en el realismo visual: las ilustraciones lucen tan "profesionales" que incluso expertos podrían tomarlas por verídicas. La preocupación aumenta con la generación de imágenes por parte de GPT-4o, que combina fotorrealismo con inexactitudes fácticas.
La coautora Roxanne Ziman señala que la IA aún no ha causado daños directos en medicina, pero casos similares en otros ámbitos —como la detección de fraude social en los Países Bajos— ya han tenido consecuencias graves. En el sector médico crece la inquietud por la posible distorsión de estereotipos y la transmisión errónea de información, especialmente en publicaciones de divulgación científica y medios. A menudo, las ilustraciones se convierten en objeto de burla, como sucedió con la mencionada rata, incluso comentada en el programa de Stephen Colbert.
Los autores encuestaron a 17 especialistas en visualización biomédica, identificando cinco perfiles de actitud hacia la IA, desde entusiastas hasta escépticos. Algunos valoran la estética de las imágenes, mientras que otros critican su banalidad y estilo repetitivo. MidJourney, por ejemplo, "ante el pedido de mostrar un páncreas, genera una pila de huevos alienígenas".
Aun quienes ya utilizan IA en su trabajo afirman que la precisión sigue siendo prioritaria, y que los modelos actuales "todavía no cumplen ese estándar". Además, persisten problemas como términos ficticios ("proteína verde luminosa") y alucinaciones.
El artículo también plantea la cuestión de la responsabilidad: si la IA comete un error, ¿quién responde? Como señala uno de los encuestados, "alguien debe poder explicar el resultado —se trata de confianza y competencia".
El coautor Shehryar Saharan concluye: sin una reflexión crítica, el uso de la IA puede no sólo alejar a los profesionales del núcleo de su labor, sino también minar la confianza en la ciencia en su conjunto.