30.7 C
Colombia
lunes, julio 7, 2025

La IA puede ser amiga o enemiga a la hora de mejorar la equidad sanitaria. A continuación se explica cómo asegurarse de que ayude, no dañe


Las desigualdades en la atención sanitaria y las disparidades en la atención son generalizadas en las divisiones socioeconómicas, raciales y de género. Como sociedad, tenemos la responsabilidad ethical, ética y económica de cerrar estas brechas y garantizar un acceso consistente, justo y asequible a la atención médica para todos.

La Inteligencia Synthetic (IA) ayuda a abordar estas disparidades, pero también es un arma de doble filo. Ciertamente, la IA ya está ayudando a optimizar la prestación de atención, permitir la medicina personalizada a escala y respaldar descubrimientos innovadores. Sin embargo, el sesgo inherente a los datos, los algoritmos y los usuarios podría empeorar el problema si no tenemos cuidado.

Eso significa que aquellos de nosotros que desarrollamos e implementamos soluciones sanitarias impulsadas por la IA debemos tener cuidado de evitar que la IA amplíe involuntariamente las brechas existentes, y los órganos rectores y las asociaciones profesionales deben desempeñar un papel activo en el establecimiento de barreras para evitar o mitigar los prejuicios.

Así es como aprovechar la IA puede cerrar las brechas de inequidad en lugar de ampliarlas.

Lograr la equidad en los ensayos clínicos

Históricamente, muchos ensayos nuevos de fármacos y tratamientos han estado sesgados en su diseño, ya sea intencionalmente o no. Por ejemplo, No fue hasta 1993 que las mujeres fueron requeridas. por ley para ser incluido en la investigación clínica financiada por los NIH. Más recientemente, Las vacunas COVID nunca se probaron intencionalmente en mujeres embarazadas—Solo porque algunas participantes del ensayo estaban embarazadas sin saberlo en el momento de la vacunación supimos que period segura.

Un desafío de la investigación es que no sabemos lo que no sabemos. Sin embargo, la IA ayuda a descubrir conjuntos de datos sesgados al analizar datos demográficos y señalar una representación desproporcionada o brechas en la cobertura demográfica. Al garantizar una representación diversa y entrenar modelos de IA con datos que representen con precisión a las poblaciones objetivo, la IA ayuda a garantizar la inclusión, reducir los daños y optimizar los resultados.

Garantizar tratamientos equitativos

Es bien establecido que las futuras madres negras que experimentan dolor y complicaciones durante el parto a menudo son ignoradas, lo que resulta en una tasa de mortalidad materna 3 veces más alto para las mujeres negras que las mujeres blancas no hispanas independientemente de los ingresos o la educación. El problema se perpetúa en gran medida por un sesgo inherente: existe una thought errónea generalizada entre los profesionales médicos de que Los negros tienen una mayor tolerancia al dolor que los blancos.

El sesgo en los algoritmos de IA puede empeorar el problema: investigadores de Harvard descubrieron que un algoritmo común predijo que las mujeres negras y latinas tenían menos probabilidades de tener partos vaginales exitosos después de una cesárea (PVDC), lo que puede haber llevado a los médicos a realizar más cesáreas. secciones sobre mujeres de colour. Sin embargo, los investigadores encontraron que “la asociación es no respaldado por plausibilidad biológica”, sugiriendo que la raza es “un indicador de otras variables que reflejan el efecto de racismo sobre la salud”. Posteriormente, el algoritmo se actualizó para excluir la raza o el origen étnico al calcular el riesgo.

Esta es una aplicación perfecta para que la IA elimine los sesgos implícitos y sugiera (con evidencia) vías de atención que podrían haberse pasado por alto anteriormente. En lugar de seguir practicando la “atención estándar”, podemos utilizar la IA para determinar si esas mejores prácticas se basan en la experiencia de todas las mujeres o solo de las mujeres blancas. La IA ayuda a garantizar que nuestras bases de datos incluyan a los pacientes que tienen más que ganar con los avances en la atención médica y la tecnología.

Si bien puede haber condiciones en las que la raza y el origen étnico podrían ser factores impactantes, debemos tener cuidado de saber cómo y cuándo deben considerarse y cuándo simplemente estamos recurriendo al sesgo histórico para informar nuestras percepciones y algoritmos de IA.

Proporcionar estrategias de prevención equitativas

Las soluciones de IA pueden fácilmente pasar por alto ciertas condiciones en comunidades marginadas sin una cuidadosa consideración de posibles sesgos. Por ejemplo, la Administración de Veteranos está trabajando en múltiples algoritmos para predecir y detectar signos de enfermedades cardíacas y ataques cardíacos. Esto tiene un enorme potencial para salvar vidas, pero el La mayoría de los estudios históricamente no han incluido a muchas mujeres.para quienes las enfermedades cardiovasculares son la principal causa de muerte. Por lo tanto, se desconoce si estos modelos son tan efectivos para las mujeres, que a menudo presentan síntomas muy diferentes a los de los hombres.

Incluir un número proporcional de mujeres en este conjunto de datos podría ayudar a prevenir algunas de las 3,2 millones de infartos y medio millón de muertes relacionadas con el corazón anualmente en mujeres a través de la detección e intervención tempranas. De manera related, las nuevas herramientas de inteligencia synthetic están eliminando la Algoritmos basados ​​en la raza en el cribado de enfermedades renales.que históricamente han excluido a los negros, hispanos y nativos americanos, lo que ha provocado retrasos en la atención y malos resultados clínicos.

En lugar de excluir a las personas marginadas, la IA puede ayudar a pronosticar los riesgos para la salud de las poblaciones desatendidas y permitir evaluaciones de riesgos personalizadas para orientar mejor las intervenciones. Es posible que los datos ya estén allí; es simplemente una cuestión de “ajustar” los modelos para determinar cómo la raza, el género y otros factores demográficos afectan los resultados, si es que lo hacen.

Agiliza las tareas administrativas

Además de afectar directamente los resultados de los pacientes, la IA tiene un potencial increíble para acelerar los flujos de trabajo entre bastidores y reducir las disparidades. Por ejemplo, las empresas y los proveedores ya están utilizando la IA para llenar vacíos en la codificación y adjudicación de reclamaciones, validando códigos de diagnóstico con notas médicas y automatizando procesos de autorización previa para procedimientos de diagnóstico comunes.

Al optimizar estas funciones, podemos reducir drásticamente los costos operativos, ayudar a que los consultorios de los proveedores funcionen de manera más eficiente y darle al private más tiempo para dedicarlo a los pacientes, haciendo así que la atención sea exponencialmente más asequible y accesible.

Cada uno de nosotros tenemos un papel importante que desempeñar.

El hecho de que tengamos estas increíbles herramientas a nuestra disposición hace que sea aún más imperativo que las utilicemos para erradicar y superar los sesgos en la atención sanitaria. Desafortunadamente, no existe ningún organismo certificador en EE. UU. que regule los esfuerzos por utilizar la IA para “imparcializar” la prestación de atención médica, e incluso para aquellas organizaciones que han presentado pautas, no existe ningún incentivo regulatorio para cumplirlas.

Por lo tanto, recae en nosotros, como profesionales de la IA, científicos de datos, creadores de algoritmos y usuarios, la responsabilidad de desarrollar una estrategia consciente para garantizar la inclusión, la diversidad de los datos y el uso equitativo de estas herramientas y conocimientos.

Para ello, son esenciales una integración e interoperabilidad precisas. Con tantas fuentes de datos, desde dispositivos portátiles y proveedores de imágenes y laboratorios de terceros hasta atención primaria, intercambios de información de salud y registros de pacientes hospitalizados, debemos integrar todos estos datos para que se incluyan piezas clave, independientemente del formato de nuestra fuente. La industria necesita normalización, estandarización y comparación de identidades de los datos para garantizar que se incluyan los datos esenciales de los pacientes, incluso con nombres dispares o convenciones de nomenclatura basadas en diversas culturas e idiomas.

También debemos incorporar evaluaciones de diversidad en nuestro proceso de desarrollo de IA y monitorear la “desviación” en nuestras métricas a lo largo del tiempo. Los profesionales de la IA tienen la responsabilidad de probar el rendimiento del modelo en subgrupos demográficos, realizar auditorías de sesgo y comprender cómo el modelo toma decisiones. Es posible que tengamos que ir más allá de los supuestos basados ​​en la raza para asegurarnos de que nuestro análisis represente a la población para la que lo estamos elaborando. Por ejemplo, miembros de la Tribu india pima que viven en la reserva del río Gila en Arizona tienen tasas extremadamente altas de obesidad y diabetes tipo 2, mientras que los miembros de la misma tribu que viven al otro lado de la frontera en las montañas de la Sierra Madre de México tienen tasas marcadamente más bajas de obesidad y diabetes, lo que demuestra que La genética no es el único issue.

Finalmente, necesitamos que organizaciones como la Asociación Médica Estadounidense, la Oficina del Coordinador Nacional de Tecnología de la Información de Salud y organizaciones especializadas como el Colegio Estadounidense de Obstetricia y Ginecología, la Academia Estadounidense de Pediatría, el Colegio Estadounidense de Cardiología y muchas otras trabajen juntas. establecer estándares y marcos para el intercambio de datos y la agudeza para evitar sesgos.

Al estandarizar el intercambio de datos de salud y ampliar HTI-1 y HTI-2 Para exigir a los desarrolladores que trabajen con organismos de acreditación, ayudamos a garantizar el cumplimiento y a corregir errores de inequidad del pasado. Además, al democratizar el acceso a datos completos y precisos de los pacientes, podemos eliminar las anteojeras que han perpetuado los sesgos y utilizar la IA para resolver las disparidades en la atención a través de conocimientos más completos y objetivos.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles