Percepciones sobre la Inteligencia Artificial entre conferencistas de un Congreso Mundial de Emergencias y Desastres

Durante el Congreso Mundial de Emergencias y Desastres celebrado en Colombia en octubre de 2025, se invitó a los/as conferencistas a compartir sus percepciones sobre el uso de la inteligencia artificial (IA) en la práctica clínica y académica a través de un cuestionario. Respondieron veintiún conferencistas de un total de cuarenta y nueve (42,9 %). Los/as participantes procedían de Argentina, Colombia, Perú, Ecuador, Paraguay, República Dominicana y Uruguay, representando distintas áreas profesionales relacionadas con la gestión y la atención en situaciones críticas.

Más de la mitad de los/as participantes desarrollan su labor principal en emergencias hospitalarias (52,4%), seguidos por quienes trabajan en urgencias extrahospitalarias (28,6%) y un grupo menor en docencia universitaria (9,5%), cuidados intensivos (4,8 %) y gestión (4,8 %). Este perfil sitúa a los/as participantes en la primera línea de la toma de decisiones en contextos donde la inmediatez, la precisión y la coordinación son esenciales.

En cuanto a la experiencia previa con IA, el 57,1% afirmó usarla frecuentemente y el 38,1% haberla probado de forma ocasional, principalmente a través de herramientas como ChatGPT, Gemini, Perplexity o Copilot. Estos datos reflejan una rápida incorporación de la IA generativa entre profesionales clínicos, lo que coincide con lo observado por Topol (2019) y Davenport y Kalakota (2019), quienes describen un crecimiento exponencial en la adopción espontánea de estas tecnologías en salud.

Respecto al nivel de confianza en el uso de IA para apoyar decisiones clínicas, un 33,3% expresó una confianza alta y un 57,1% moderada. La mayoría (81%) considera que la IA mejorará la seguridad del paciente, reforzando la idea de que estas herramientas pueden contribuir a reducir errores y optimizar procesos en la atención sanitaria. Esta visión se alinea con las conclusiones de Rajkomar et al. (2019) y de la Organización Mundial de la Salud (2021), que destacan el potencial de la IA para anticipar riesgos, mejorar la eficiencia y fortalecer la seguridad clínica.

No obstante, el entusiasmo convive con preocupaciones y barreras. Casi la mitad de los conferencistas (47,6%) señaló la falta de formación como el principal obstáculo para integrar la IA en la práctica clínica. Otras limitaciones mencionadas fueron los riesgos ético-legales (23,8%) y la falta de integración tecnológica en los sistemas sanitarios (19%). Estas respuestas reflejan un patrón ampliamente descrito en la literatura: la velocidad del desarrollo tecnológico supera la capacidad institucional de adaptación (Roppelt et al, 2024; OMS, 2021).

El interés por participar en proyectos de IA es casi unánime: el 95,2% manifestó que le gustaría hacerlo, aunque reconoció no saber cómo empezar. Esta percepción apunta a la necesidad de crear espacios de colaboración entre clínicos, ingenieros e investigadores/as que permitan avanzar desde el uso pasivo hacia la co-creación de soluciones. Como subrayan Obermeyer y Mullainathan (2019), la alfabetización digital se ha convertido en una competencia esencial para el liderazgo sanitario del siglo XXI.

En cuanto a las dificultades percibidas para desarrollar proyectos, el 52,4% mencionó la falta de conocimientos técnicos y el 28,6% la falta de tiempo o financiación. Estos factores, combinados con la complejidad de los marcos éticos y regulatorios, explican la brecha existente entre la disposición individual y la capacidad organizativa para implementar soluciones basadas en IA.

En el ámbito académico, la mayoría (52,4%) utiliza herramientas de IA de forma frecuente y un 42,9% de forma ocasional, principalmente para redacción o revisión de textos (47,6%) y generación de ideas (28,6%). Este hallazgo coincide con lo observado en publicaciones recientes que destacan el auge del uso de modelos generativos como apoyo a la investigación y la docencia (Nori et al., 2023; Doyal, 2023). Sin embargo, los/as participantes también expresaron preocupaciones éticas sobre la dependencia, la veracidad de la información y la posible pérdida de pensamiento crítico, lo que refuerza la necesidad de mantener la supervisión humana en todo proceso de apoyo automatizado.

El desarrollo y aplicación de la inteligencia artificial en entornos sanitarios se encuentra actualmente regulado, en el contexto europeo, por el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, conocido como la Ley de Inteligencia Artificial, aprobado en marzo de 2024 y de aplicación progresiva a partir de 2025. Esta norma constituye el primer marco jurídico integral sobre IA, estableciendo un enfoque basado en el riesgo y la protección de los derechos fundamentales. Para las profesiones sanitarias, este marco legal refuerza la obligación de garantizar que las decisiones clínicas continúan bajo responsabilidad humana, en coherencia con los principios de autonomía, beneficencia, no maleficencia y justicia.

Asimismo, el reglamento subraya la importancia de la gobernanza ética de la IA, exigiendo a las instituciones sanitarias documentar el uso de sistemas automatizados, informar a pacientes y profesionales sobre su funcionamiento y garantizar la posibilidad de explicación y revisión de las decisiones asistidas por IA. Este enfoque responde a las recomendaciones de la OMS (2021) y del Comité Europeo de Protección de Datos, que advierten que la confianza pública en la IA en salud depende de su transparencia y de su alineación con los valores éticos y derechos fundamentales.

En el contexto latinoamericano, aunque aún no existen marcos regulatorios específicos avanzados, diversos países están elaborando guías éticas y normativas sectoriales inspiradas en los principios europeos y en las directrices de la UNESCO sobre ética de la IA (2021), lo que anticipa un movimiento global hacia una regulación convergente.

En conjunto, los resultados del cuestionario muestran una comunidad profesional abierta a la innovación, pero consciente de sus límites. Las actitudes reflejan una adopción prudente, en la que la IA se percibe como una herramienta útil para fortalecer la práctica clínica, la seguridad del paciente y la productividad académica, siempre que se acompañe de formación, ética y liderazgo responsable.

En entornos de emergencias y desastres, donde cada decisión tiene impacto inmediato sobre la vida de las personas, la IA puede convertirse en una aliada estratégica, pero solo si se integra desde la evidencia y la gobernanza. Tal como advierte la OMS (2021), el valor de la inteligencia artificial en salud dependerá menos de su potencia tecnológica que de su capacidad para preservar los principios de justicia, transparencia y equidad.

Más que una moda tecnológica, la IA representa un punto de inflexión en la cultura profesional: exige una mirada crítica, una actualización constante y una dirección sanitaria capaz de equilibrar innovación y responsabilidad.

Verónica Tíscar-González, Responsable de Investigación e Innovación. OSI Bilbao–Basurto (Osakidetza). Instituto de Investigación Sanitaria Biobizkaia. Presidenta Academia de Ciencias de Enfermería de Bizkaia, y Patricia Corro-Madrazo, Subdirectora de Cuidados, Formación y ContinuidadAsistencial. Servicio Cántabro de Salud.

Referencias

  • Davenport, T., & Kalakota, R. (2019). The potential for artificial intelligence in healthcare. Future Healthcare Journal, 6(2), 94–98. https://doi.org/10.7861/futurehosp.6-2-94
  • Doyal, A. S., Sender, D., Nanda, M., & Serrano, R. A. (2023). ChatGPT and artificial intelligence in medical writing: Concerns and ethical considerations. Cureus, 15(8), e43169. https://pmc.ncbi.nlm.nih.gov/articles/PMC10492634/
  • European Parliament and Council. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L , 12 July 2024. https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  • Nori, H., King, N., McKinney, S., Carignan, D., & Horvitz, E. (2023). Capabilities of GPT-4 on medical challenge problems. arXiv [Preprint]. https://doi.org/10.48550/arXiv.2303.13375
  • Obermeyer, Z., & Mullainathan, S. (2019). Dissecting bias in algorithms used for healthcare. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342
  • Rajkomar, A., Dean, J., & Kohane, I. (2019). Machine learning in medicine. The New England Journal of Medicine, 380(14), 1347–1358. https://doi.org/10.1056/NEJMra1814259
  • Roppelt, J. S., Kanbach, D. K., & Kraus, S. (2024). Artificial intelligence in healthcare institutions: A systematic literature review on influencing factors. Technology in Society, 76, Article 102443. https://doi.org/10.1016/j.techsoc.2023.102443
  • Topol, E. (2019). Deep medicine: How artificial intelligence can make healthcare human again. New York, NY: Basic Books.
  • World Health Organization (2021). Ethics and governance of artificial intelligence in healthcare. https://www.who.int/publications/i/item/9789240029200