Aunque el sector tiene un crecimiento prometedor, existen diversos riesgos con algunas herramientas que utilizan la Inteligencia Artificial para el análisis o capacidad de diagnóstico de enfermedades, cuyos sistemas no comprobados podrían inducir a errores por parte del personal de salud o causar daños a los pacientes.
“En el caso de los laboratorios, la adopción de la Inteligencia Artificial contribuye a automatizar tareas, pero a la vez existe un gran reto de que los algoritmos de IA aprendan y mejoren su rendimiento para cumplir de forma eficiente estas labores. En este sentido se requieren de grandes cantidades de datos para su entrenamiento adecuado, ya que si la información es escasa o imprecisa se generan resultados inexactos o poco confiables”, explica Tamara Chayo, CEO y Founder de MEDU Protection, startup mexicana dedicada a la fabricación de indumentaria médica sustentable y segura.
Aunque la Inteligencia Artificial desempeña un papel fundamental en la vida de millones de personas, recientemente la UNESCO publicó una recomendación alusiva a la IA a fin de promover esta herramienta digital de manera responsable, inhibiendo su uso malicioso o con fines que fomenten la desigualdad o divisiones.
Para MEDU existen tres riesgos en el uso de la Inteligencia Artificial que los laboratorios deben tomar en cuenta, asegurándose de contar con alternativas para maximizar los beneficios y minimizar los riesgos potenciales.
Dependencia Excesiva
Una dependencia excesiva de la Inteligencia Artificial también puede representar un riesgo cuando los sistemas de IA fallan o se vuelven inaccesibles, generando contratiempos en las compañías y los colaboradores que dependen de la tecnología para realizar tareas imprescindibles como la atención de pacientes.
Aunque la IA es una herramienta muy útil, todavía tiene limitantes y puede cometer errores en tareas que son realizadas por personal humano. Un buen uso conlleva una supervisión constante de los resultados que la tecnología nos propone a fin de inhibir diagnósticos incorrectos.
Sesgos en la información
En un laboratorio, los algoritmos de Inteligencia Artificial pueden verse afectados por sesgos en los datos utilizados para entrenarlos, lo cual puede llevar a decisiones médicas parciales en tratamientos o diagnósticos.
En este contexto, es importante que, a la par de los trabajos realizados con IA se realice una validación clínica y se comparen los resultados de los sistemas con estándares de referencia establecidos para garantizar su eficacia y seguridad.
“Si estos sesgos no se abordan adecuadamente, los sistemas de IA pueden amplificar la discriminación en las decisiones clínicas. Por ejemplo, en el caso de las enfermedades, si los datos son sesgados el sistema puede dar resultados inexactos para el tratamiento de padecimientos”, explica la CEO de MEDU Protection.
Privacidad y seguridad de los datos
Los laboratorios clínicos manejan una gran cantidad de datos confidenciales de los pacientes, incluyendo resultados de pruebas médicas. Si los sistemas de IA no están debidamente protegidos existe el riesgo de que la información sea robada, filtrada o mal utilizada. En este sentido la privacidad de los pacientes debe ser un asunto prioritario que conlleve a contar con medidas de seguridad sólidas para garantizar su debido manejo.
“En síntesis, es importante que los laboratorios aborden con cautela el uso de la Inteligencia Artificial, adoptando prácticas sólidas de gestión de riesgos, que incluyan garantizar la seguridad de datos y realizar validaciones rigurosas de manera periódica”, advierte Tamara Chayo.
Redacción MD