Inicio / Colaboradores / De Bitacoramedica / A.I. Could Worsen Health Disparities

A.I. Could Worsen Health Disparities

In a health system riddled with inequity, we risk making dangerous biases automated and invisible.
By Dhruv Khullar
Dr. Khullar is an assistant professor of health care policy and research. Jan. 31, 2019

LEER ARTÍCULO ORIGINAL

 

Articulo de opinión aparecido en The New York Times relacionado a como la Inteligencia artificial cambiará el ejercicio de la medicina.
Lo dejamos en su original idioma y al final podrán leer una traducción
Los editores

Traduccion por traslate de Google

La inteligencia artificial (A.I) está comenzando a cumplir (y a veces exceder) las evaluaciones de los médicos en diversas situaciones clínicas. La inteligencia artificial puede ahora diagnosticar cáncer de piel como los dermatólogos, convulsiones como neurólogos y retinopatía diabética como oftalmólogos. Se están desarrollando algoritmos para predecir qué pacientes sufrirán diarrea o terminarán en la UCI, y la FDA aprobó recientemente el primer algoritmo de aprendizaje automático para medir la cantidad de sangre que fluye a través del corazón: un cálculo tedioso y costoso realizado tradicionalmente por los cardiólogos.

Basta con que médicos nos preguntemos por qué pasamos una década en la formación médica aprendiendo el arte del diagnóstico y el tratamiento.

Hay muchas preguntas sobre si A.I. en realidad funciona en medicina y en el que funciona: ¿puede contraer neumonía, detectar cáncer, predecir la muerte? Pero esas preguntas se centran en lo técnico, no en lo ético. Y en un sistema de salud plagado de inequidad, tenemos que preguntar: ¿Podría el uso de A.I. ¿En medicina empeoran las disparidades en la salud??Hay al menos tres razones para creer que podría.? El primero es un problema de entrenamiento. AI. debe aprender a diagnosticar enfermedades en grandes conjuntos de datos, y si esos datos no incluyen suficientes pacientes de un fondo particular, no será tan confiable para ellos. La evidencia de otros campos sugiere que esto no es solo una preocupación teórica. Un estudio reciente encontró que algún reconocimiento facial.

Los programas clasifican incorrectamente menos del 1 por ciento de los hombres de piel clara, pero más de un tercio de las mujeres de piel oscura. ¿Qué sucede cuando confiamos en dichos algoritmos para diagnosticar el melanoma en la piel clara frente a la piel oscura?? La medicina ha luchado durante mucho tiempo para incluir suficientes mujeres y minorías en la investigación, a pesar de saber que tienen diferentes factores de riesgo y manifestaciones de la enfermedad. Muchos estudios genéticos sufren de una escasez de pacientes negros, lo que lleva a conclusiones erróneas. Las mujeres a menudo experimentan diferentes síntomas cuando tienen un ataque al corazón, lo que causa retrasos en el tratamiento. Quizás la puntuación de riesgo cardiovascular más utilizada, desarrollada utilizando datos de pacientes mayormente blancos, puede ser menos precisa para las minorías.

Lo haré con A.I. Para decirnos quién podría tener un accidente cerebrovascular o qué pacientes se beneficiarán de un ensayo clínico, ¿codificarán estas preocupaciones en algoritmos que resulten menos efectivos para los grupos con poca representación??En segundo lugar, porque A.I. está capacitado en datos del mundo real, corre el riesgo de incorporar, afianzar y perpetuar los sesgos económicos y sociales que contribuyen a las disparidades de salud en primer lugar. Una vez más, la evidencia de otros campos es instructiva. AI. los programas utilizados para ayudar a los jueces a predecir qué delincuentes tienen más probabilidades de reincidir han mostrado sesgos raciales preocupantes, al igual que los diseñados para ayudar a los servicios de protección infantil a decidir qué llamadas requieren más investigación.

En medicina, sin marcar A.I. podría crear profecías autocumplidas que confirmen nuestros sesgos preexistentes, especialmente cuando se usan para condiciones con complejos compromisos y altos grados de incertidumbre. Por ejemplo, si a los pacientes más pobres les va peor después del trasplante de órganos o después de recibir quimioterapia para el cáncer en etapa terminal, los algoritmos de aprendizaje automático pueden concluir que es menos probable que dichos pacientes se beneficien con un tratamiento adicional, y lo recomiendan.?Finalmente, incluso aparentemente justo, neutral, A.I. tiene el potencial de empeorar las disparidades si su implementación tiene efectos desproporcionados para ciertos grupos. Considere un programa que ayude a los médicos a decidir si un paciente debe ir a casa o ir a un centro de rehabilitación después de una cirugía de rodilla. Es una decisión impregnada de incertidumbre, pero tiene consecuencias reales: la evidencia sugiere que el alta de una institución se asocia con costos más altos y un mayor riesgo de reingreso. Si un algoritmo incorpora la residencia en un vecindario de bajos ingresos como un marcador para el apoyo social deficiente, puede recomendar que los pacientes minoritarios acudan a los centros de enfermería en lugar de recibir terapia física en el hogar. Peor aún, un programa diseñado para maximizar la eficiencia o reducir los costos médicos podría desalentar el funcionamiento de esos pacientes por completo.?Hasta cierto punto, todos estos problemas ya existen en la medicina. El cuidado de la salud en los Estados Unidos siempre ha luchado contra las desigualdades basadas en los ingresos y las razas arraigadas en varias formas de sesgo. El riesgo con A.I. es que estos sesgos se vuelven automáticos e invisibles, que comenzamos a aceptar la sabiduría de las máquinas sobre la sabiduría de nuestra propia intuición moral y clínica. Muchas A.I. los programas son cajas negras: no sabemos exactamente qué sucede dentro y por qué producen la salida que producen. Pero cada vez se puede esperar que cumplamos con sus recomendaciones.?En mi práctica, a menudo he visto cómo cualquier herramienta puede convertirse rápidamente en una muleta, una excusa para subcontratar la toma de decisiones a alguien o algo más. Los estudiantes de medicina que luchan por interpretar un EKG, inevitablemente, se asoman a la computadora.

El informe proporcionado junto con una radiografía de tórax o una tomografía computarizada a menudo me deja indiferente. A medida que la automatización se generaliza, ¿capturaremos ese corrector ortográfico autocorrectivo “están” a “allí” cuando nos referimos a “su”?

Aún así, A.I. tiene un tremendo potencial para mejorar la medicina. Bien puede hacer que la atención sea más eficiente, más precisa y, si se implementa adecuadamente, más equitativa. Pero realizar esta promesa requiere ser consciente del potencial de sesgo y protegerse contra ella. Significa monitorear regularmente tanto la salida de algoritmos como las consecuencias posteriores. En algunos casos, esto requerirá algoritmos de contra-sesgo que buscan y corrigen una discriminación sutil y sistemática.

Pero fundamentalmente, significa reconocer que los humanos, no las máquinas, siguen siendo responsables del cuidado de los pacientes. Es nuestro deber garantizar que utilicemos la IA como otra herramienta a nuestra disposición, y no al revés.

 

Acerca de Francisco Kerdel Vegas

Médico dermatólogo. Embajador y académico recibió Premio Martín Vegas de la Sociedad Venezolana de Dermatología. Individuo de Número de la Academia de Ciencias Físicas y Matemáticas de Venezuela (Sillón XIII, 1971). Doctor en Ciencias Médicas de la UCV. Vicerrector Académico (fundador) de la Universidad Simón Bolívar. Fue elegido directamente Individuo de Número de la Academia Nacional de Medicina Sillón XXIV en 1967, incorporado por su trabajo "Autorradiografía en Dermatología".

Deja un comentario

Para casos clínicos, sólo se publicarán comentarios de Suscriptores Especialistas de Salud registrados en nuestra base de datos.

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

 

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies