{"id":47313,"date":"2019-02-28T11:44:23","date_gmt":"2019-02-28T16:14:23","guid":{"rendered":"https:\/\/piel-l.org\/blog\/?p=47313"},"modified":"2019-03-01T10:41:52","modified_gmt":"2019-03-01T15:11:52","slug":"a-i-could-worsen-health-disparities","status":"publish","type":"post","link":"https:\/\/piel-l.org\/blog\/47313","title":{"rendered":"A.I. Could Worsen Health Disparities"},"content":{"rendered":"<p><strong>In a health system riddled with inequity, we risk making dangerous biases automated and invisible.<br \/>\n<\/strong>By Dhruv Khullar<br \/>\nDr. Khullar is an assistant professor of health care policy and research. Jan. 31, 2019<\/p>\n<div class=\"su-spacer\" style=\"height:10px\"><\/div>\n<a href=\"https:\/\/www.nytimes.com\/2019\/01\/31\/opinion\/ai-bias-healthcare.html\" class=\"su-button su-button-style-flat\" style=\"color:#ffffff;background-color:#131ed0;border-color:#1018a7;border-radius:7px\" target=\"_blank\" rel=\"noopener noreferrer\"><span style=\"color:#ffffff;padding:7px 20px;font-size:16px;line-height:24px;border-color:#5a62df;border-radius:7px;text-shadow:none\"><i class=\"sui sui-file-pdf-o\" style=\"font-size:16px;color:#ffffff\"><\/i> LEER ART\u00cdCULO ORIGINAL<\/span><\/a>\n<div class=\"su-spacer\" style=\"height:10px\"><\/div>\n<p>&nbsp;<\/p>\n<blockquote><p><em>Articulo de opini\u00f3n aparecido en The New York Times relacionado a como la Inteligencia artificial cambiar\u00e1 el ejercicio de la medicina.<\/em><br \/>\n<em>Lo dejamos en su original idioma y al final podr\u00e1n leer una traducci\u00f3n <\/em><br \/>\n<em>Los editores<\/em><\/p><\/blockquote>\n<p><strong>Traduccion por traslate de Google<\/strong><\/p>\n<p>La inteligencia artificial (A.I) est\u00e1 comenzando a cumplir (y a veces exceder) las evaluaciones de los m\u00e9dicos en diversas situaciones cl\u00ednicas. La inteligencia artificial puede ahora diagnosticar c\u00e1ncer de piel como los dermat\u00f3logos, convulsiones como neur\u00f3logos y retinopat\u00eda diab\u00e9tica como oftalm\u00f3logos. Se est\u00e1n desarrollando algoritmos para predecir qu\u00e9 pacientes sufrir\u00e1n diarrea o terminar\u00e1n en la UCI, y la FDA aprob\u00f3 recientemente el primer algoritmo de aprendizaje autom\u00e1tico para medir la cantidad de sangre que fluye a trav\u00e9s del coraz\u00f3n: un c\u00e1lculo tedioso y costoso realizado tradicionalmente por los cardi\u00f3logos.<\/p>\n<p>Basta con que m\u00e9dicos nos preguntemos por qu\u00e9 pasamos una d\u00e9cada en la formaci\u00f3n m\u00e9dica aprendiendo el arte del diagn\u00f3stico y el tratamiento.<\/p>\n<p>Hay muchas preguntas sobre si A.I. en realidad funciona en medicina y en el que funciona: \u00bfpuede contraer neumon\u00eda, detectar c\u00e1ncer, predecir la muerte? Pero esas preguntas se centran en lo t\u00e9cnico, no en lo \u00e9tico. Y en un sistema de salud plagado de inequidad, tenemos que preguntar: \u00bfPodr\u00eda el uso de A.I. \u00bfEn medicina empeoran las disparidades en la salud??Hay al menos tres razones para creer que podr\u00eda.? El primero es un problema de entrenamiento. AI. debe aprender a diagnosticar enfermedades en grandes conjuntos de datos, y si esos datos no incluyen suficientes pacientes de un fondo particular, no ser\u00e1 tan confiable para ellos. La evidencia de otros campos sugiere que esto no es solo una preocupaci\u00f3n te\u00f3rica. Un estudio reciente encontr\u00f3 que alg\u00fan reconocimiento facial.<\/p>\n<p>Los programas clasifican incorrectamente menos del 1 por ciento de los hombres de piel clara, pero m\u00e1s de un tercio de las mujeres de piel oscura. \u00bfQu\u00e9 sucede cuando confiamos en dichos algoritmos para diagnosticar el melanoma en la piel clara frente a la piel oscura?? La medicina ha luchado durante mucho tiempo para incluir suficientes mujeres y minor\u00edas en la investigaci\u00f3n, a pesar de saber que tienen diferentes factores de riesgo y manifestaciones de la enfermedad. Muchos estudios gen\u00e9ticos sufren de una escasez de pacientes negros, lo que lleva a conclusiones err\u00f3neas. Las mujeres a menudo experimentan diferentes s\u00edntomas cuando tienen un ataque al coraz\u00f3n, lo que causa retrasos en el tratamiento. Quiz\u00e1s la puntuaci\u00f3n de riesgo cardiovascular m\u00e1s utilizada, desarrollada utilizando datos de pacientes mayormente blancos, puede ser menos precisa para las minor\u00edas.<\/p>\n<p>Lo har\u00e9 con A.I. Para decirnos qui\u00e9n podr\u00eda tener un accidente cerebrovascular o qu\u00e9 pacientes se beneficiar\u00e1n de un ensayo cl\u00ednico, \u00bfcodificar\u00e1n estas preocupaciones en algoritmos que resulten menos efectivos para los grupos con poca representaci\u00f3n??En segundo lugar, porque A.I. est\u00e1 capacitado en datos del mundo real, corre el riesgo de incorporar, afianzar y perpetuar los sesgos econ\u00f3micos y sociales que contribuyen a las disparidades de salud en primer lugar. Una vez m\u00e1s, la evidencia de otros campos es instructiva. AI. los programas utilizados para ayudar a los jueces a predecir qu\u00e9 delincuentes tienen m\u00e1s probabilidades de reincidir han mostrado sesgos raciales preocupantes, al igual que los dise\u00f1ados para ayudar a los servicios de protecci\u00f3n infantil a decidir qu\u00e9 llamadas requieren m\u00e1s investigaci\u00f3n.<\/p>\n<p>En medicina, sin marcar A.I. podr\u00eda crear profec\u00edas autocumplidas que confirmen nuestros sesgos preexistentes, especialmente cuando se usan para condiciones con complejos compromisos y altos grados de incertidumbre. Por ejemplo, si a los pacientes m\u00e1s pobres les va peor despu\u00e9s del trasplante de \u00f3rganos o despu\u00e9s de recibir quimioterapia para el c\u00e1ncer en etapa terminal, los algoritmos de aprendizaje autom\u00e1tico pueden concluir que es menos probable que dichos pacientes se beneficien con un tratamiento adicional, y lo recomiendan.?Finalmente, incluso aparentemente justo, neutral, A.I. tiene el potencial de empeorar las disparidades si su implementaci\u00f3n tiene efectos desproporcionados para ciertos grupos. Considere un programa que ayude a los m\u00e9dicos a decidir si un paciente debe ir a casa o ir a un centro de rehabilitaci\u00f3n despu\u00e9s de una cirug\u00eda de rodilla. Es una decisi\u00f3n impregnada de incertidumbre, pero tiene consecuencias reales: la evidencia sugiere que el alta de una instituci\u00f3n se asocia con costos m\u00e1s altos y un mayor riesgo de reingreso. Si un algoritmo incorpora la residencia en un vecindario de bajos ingresos como un marcador para el apoyo social deficiente, puede recomendar que los pacientes minoritarios acudan a los centros de enfermer\u00eda en lugar de recibir terapia f\u00edsica en el hogar. Peor a\u00fan, un programa dise\u00f1ado para maximizar la eficiencia o reducir los costos m\u00e9dicos podr\u00eda desalentar el funcionamiento de esos pacientes por completo.?Hasta cierto punto, todos estos problemas ya existen en la medicina. El cuidado de la salud en los Estados Unidos siempre ha luchado contra las desigualdades basadas en los ingresos y las razas arraigadas en varias formas de sesgo. El riesgo con A.I. es que estos sesgos se vuelven autom\u00e1ticos e invisibles, que comenzamos a aceptar la sabidur\u00eda de las m\u00e1quinas sobre la sabidur\u00eda de nuestra propia intuici\u00f3n moral y cl\u00ednica. Muchas A.I. los programas son cajas negras: no sabemos exactamente qu\u00e9 sucede dentro y por qu\u00e9 producen la salida que producen. Pero cada vez se puede esperar que cumplamos con sus recomendaciones.?En mi pr\u00e1ctica, a menudo he visto c\u00f3mo cualquier herramienta puede convertirse r\u00e1pidamente en una muleta, una excusa para subcontratar la toma de decisiones a alguien o algo m\u00e1s. Los estudiantes de medicina que luchan por interpretar un EKG, inevitablemente, se asoman a la computadora.<\/p>\n<p>El informe proporcionado junto con una radiograf\u00eda de t\u00f3rax o una tomograf\u00eda computarizada a menudo me deja indiferente. A medida que la automatizaci\u00f3n se generaliza, \u00bfcapturaremos ese corrector ortogr\u00e1fico autocorrectivo \u00abest\u00e1n\u00bb a \u00aball\u00ed\u00bb cuando nos referimos a \u00absu\u00bb?<\/p>\n<p>A\u00fan as\u00ed, A.I. tiene un tremendo potencial para mejorar la medicina. Bien puede hacer que la atenci\u00f3n sea m\u00e1s eficiente, m\u00e1s precisa y, si se implementa adecuadamente, m\u00e1s equitativa. Pero realizar esta promesa requiere ser consciente del potencial de sesgo y protegerse contra ella. Significa monitorear regularmente tanto la salida de algoritmos como las consecuencias posteriores. En algunos casos, esto requerir\u00e1 algoritmos de contra-sesgo que buscan y corrigen una discriminaci\u00f3n sutil y sistem\u00e1tica.<\/p>\n<p>Pero fundamentalmente, significa reconocer que los humanos, no las m\u00e1quinas, siguen siendo responsables del cuidado de los pacientes. Es nuestro deber garantizar que utilicemos la IA como otra herramienta a nuestra disposici\u00f3n, y no al rev\u00e9s.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La Inteligencia artificial, podr\u00eda empeorar las disparidades en la salud mundial. En un sistema de salud plagado de inequidad, corremos el riesgo de hacer sesgos peligrosos automatizados e invisibles<\/p>\n","protected":false},"author":10,"featured_media":47314,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[22],"tags":[],"class_list":["post-47313","post","type-post","status-publish","format-standard","has-post-thumbnail","","category-de-bitacoramedica"],"_links":{"self":[{"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/posts\/47313","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/users\/10"}],"replies":[{"embeddable":true,"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/comments?post=47313"}],"version-history":[{"count":0,"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/posts\/47313\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/media\/47314"}],"wp:attachment":[{"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/media?parent=47313"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/categories?post=47313"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/piel-l.org\/blog\/wp-json\/wp\/v2\/tags?post=47313"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}