La inteligencia artificial Claude tiene ahora control total sobre los historiales médicos de los usuarios.

La compañía Anthropic presentó nuevas funciones para su servicio de IA Claude, orientadas al ámbito de la salud. En el marco de la iniciativa Claude for Healthcare, los usuarios en EE. UU. con suscripción a los planes Pro o Max ahora pueden permitir que el sistema acceda a sus datos médicos, incluidos análisis de laboratorio e historial de seguimiento. Para ello se prevé la conexión a través de las plataformas HealthEx y Function, y en los próximos días también habrá compatibilidad con Apple Health y Android Health Connect en las aplicaciones móviles.
El sistema es capaz de resumir información del historial clínico, interpretar análisis médicos en un lenguaje comprensible, monitorizar cambios en los indicadores de salud y la actividad física, y también elaborar una lista de preguntas que pueden ser útiles en la consulta médica. Según los desarrolladores, el objetivo de estas funciones no es sustituir la atención médica, sino aumentar la información de los usuarios y hacer que la interacción con los médicos sea más eficaz.
Anthropic subraya que todas las conexiones se organizan con prioridad en la privacidad. Los usuarios deciden qué volumen de datos se comparte con la IA y pueden en cualquier momento revocar el acceso o modificar los permisos. La compañía también declaró que la información obtenida no se utiliza para entrenar los modelos.
El anuncio se produjo en un contexto de creciente interés de los grandes desarrolladores de IA en el ámbito médico. Una semana antes OpenAI presentó ChatGPT Health — un servicio que también ofrece integración con sistemas de registro de datos médicos y recomendaciones individuales, incluida la interpretación de análisis y consejos sobre nutrición.
Sin embargo, esos proyectos se desarrollan en un entorno de mayor control sobre el uso de la IA en la salud. Por ejemplo, Google recientemente eliminó parte de las respuestas automáticas de su IA después de que en ellas se detectaran datos inexactos sobre la salud. En ese contexto, empresas como Anthropic insisten en que sus tecnologías pueden cometer errores y no están destinadas a sustituir a los profesionales médicos.
En su documento sobre las condiciones de uso, Anthropic especifica por separado que en casos de mayor riesgo —por ejemplo, en el diagnóstico, la prescripción de tratamientos o la evaluación del estado mental— los resultados de Claude deben ser verificados por especialistas cualificados antes de aplicarlos. Además, el sistema está entrenado para advertir sobre la posible inexactitud de sus respuestas y remitir al usuario a un médico para obtener una consulta confirmada.