Todo lo que la inteligencia artificial puede hacer por tu salud
Santo Domingo. – Gracias a los algoritmos de aprendizaje automático se pueden conseguir diagnósticos más exactos y detectar síntomas de enfermedades graves antes de que sea demasiado tarde. Por muy entrenados que estemos en una labor concreta, los seres humanos podemos cometer errores que la imperturbabilidad de una máquina jamás permitiría. Además, nuestros sentidos tienen un límite, que nos impide llegar a donde los robots sí que pueden alcanzar.
Por eso, el desarrollo de la inteligencia artificial está siendo esencial en un gran número de ámbitos, entre los que no podría faltar la medicina. Gracias a ella, se pueden perfeccionar los diagnósticos en los centros sanitarios, pero también en los hogares de los propios pacientes, que no necesitan más que un smartphone o cualquier wearable para mantener algunos parámetros de su salud bajo control.
Todos los avances logrados en este sentido crecen cada día a pasos agigantados, obteniendo hitos que hace apenas unos años habrían parecido fruto de la ciencia ficción. Tal es el impacto que está teniendo la inteligencia artificial en este ámbito que recientemente Google ha creado la iniciativa Google AI Impact Challenge, con el objetivo de ofrecer recursos educativos gratuitos y talleres de esta materia en siete países para organizaciones sin ánimo de lucro.
De este modo, se pretende que extender el acceso a estos recursos, que pueden salvar vidas a golpe de clic. ¿Pero de qué modo puede ayudarnos la inteligencia artificial hasta ahora? Estas son algunas de sus aplicaciones más importantes.
Prevención de la asfixia neonatal
Según la Organización Mundial de la Salud, la asfixia es la causa del 23% de los fallecimientos de bebés recién nacidos. Este es un problema especialmente preocupante en países poco desarrollados, en los que no disponen de sistemas de monitorización apropiados para detectar fallos en la respiración de los neonatos antes de que sea demasiado tarde. Por eso, en 2017 el científico nigeriano Charles Onu desarrolló Ubenwa, una aplicación que registra el llanto de los niños y detecta en él patrones anómalos que puedan indicar un principio de asfixia, con un 95% de precisión.
Este porcentaje se obtuvo en ensayos con los llantos de 1.400 bebés. Se determinó también que tiene una sensibilidad del 86% y una especificidad del 89%, lo cual quiere decir que daba como positivos 86 de cada 100 casos de asfixia y acertaba 89 de cada 100 negativos. Es fácil de utilizar, por lo que puede ser empleado tanto por el personal médico como por los padres de los pequeños y supone un ahorro del 95% con respecto a la opción clínica existente hasta el momento.
Detección del cáncer de mama
Aunque los médicos suelen estar bien entrenados en la detección de tumores en las mamografías, a veces una de estas imágenes puede tener ambigüedades, que pueden detectarse más fácilmente con ayuda de máquinas. Esto es lo que llevó al adolescente de 18 años Abu Qader a diseñar una app que pudiera detectar posibles anomalías en las mamografías con una eficacia mayor que la de los propios seres humanos.
Aunque este proyecto destaca por la juventud de su autor, no es el único de este tipo que se ha llevado a cabo en los últimos años. De hecho, en enero de 2018 un equipo de científicos de la Universitat Politècnica de València (UPV), el Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València (UV), entre otras instituciones, desarrolló una herramienta basada en la inteligencia artifical, con el fin de reducir el número de falsos positivos que suelen darse con los métodos convencionales.
Estas equivocaciones se deben a que las técnicas disponibles hasta el momento se centran en las zonas más sospechosas, pudiendo dar lugar a falsas alarmas, con todo lo que eso supone para los pacientes. Por el contrario, la inteligencia artificial consigue aportar información sobre la posible presencia de cáncer, reduciendo el número de regiones bajo sospecha. Se trata de uno de los proyectos de este tipo más eficaces hasta el momento, ya que consigue llevar a cabo sus diagnósticos con un 90% de acierto.
Otras herramientas no se centran en el diagnóstico del tumor como tal, pero sí de algunos factores de riesgo, entre los que destaca el tejido mamario denso. Esta densidad se clasifica en cuatro niveles, desde el A, en el que abunda el tejido graso y escasea el denso, hasta la D, en la que ocurre totalmente lo contrario.
Las dos últimas se consideran un factor de riesgo de cáncer de mama. Por un lado, porque pueden enmascarar los tumores en las mamografías, posponiendo el diagnóstico. Por otro, porque se ha comprobado que en estos casos las probabilidades de padecerlo son mayores, aunque no se sabe bien por qué.
Por todo esto es importante clasificar a las pacientes según su densidad mamaria, para prestar especial atención a las que tienen un riesgo mayor. El problema es que a veces se trata de una clasificación subjetiva, que puede conducir a error.
Por eso, el año pasado científicos del MIT y el Hospital General de Massachusetts diseñaron un sistema de aprendizaje automático capaz de hacerlo de forma precisa. Con ello no se pretende eliminar el papel del profesional médico, sino aportar una segunda opinión, que se complementaría con la suya e invitaría a hacer una segunda revisión si fuese necesario.
Diagnóstico del cáncer de piel
El cáncer de piel es el más frecuente de todos los tipos de cáncer. Por eso, se recomienda a la población general que prevenga su aparición tomando precauciones adecuadas al exponerse al Sol y también que controlen la posible aparición de manchas o lunares sospechosos.
Sin embargo, a veces el tiempo de espera hasta ir al dermatólogo nos puede generar una gran angustia, que se solucionaría si pudiésemos tener una respuesta en el acto. Por este motivo, en 2016 un equipo de científicos de la Universidad de Stanford desarrolló una aplicación capaz de diagnosticar cáncer de piel a través de una foto realizada con el móvil de la zona en cuestión.
Para realizarla entrenaron un algoritmo de aprendizaje automático con ayuda de 130.000 imágenes de tumores de este tipo. Finalmente, ya en enero de 2017, el resultado definitivo fue probado por 21 dermatólogos, obteniendo unos resultados muy positivos, que se pueden leer en el estudio que publicaron en Nature.
Identificación de enfermedades genéticas raras
Pero no solo los tumores pueden ser identificados a través de una imagen, también algunos trastornos genéticos raros, como el síndrome de Angelman o el de Cornelia de Lange. Ambas enfermedades afectan a factores como la movilidad o el desarrollo intelectual de los pacientes que las padecen. Sin embargo, también generan pequeños cambios en el físico que pueden resultar prácticamente imperceptibles para el ser humano, pero no para una máquina bien entrenada.
Esto es lo que se demostraba en un estudio publicado este mes en Nature Medicine de la mano de la compañía estadounidense FDNA. En él, presentaban Deepgestalt, una aplicación que puede escanear imágenes de las caras de niños enfermos e identificar muchos de estos síndromes, con un 90% de precisión.
En este caso, entrenaron al algoritmo con ayuda de 17.000 imágenes, en las que aparecían personas con 200 síndromes diferentes. Pero no solo se consiguió obtener diagnósticos con gran precisión, sino que en el caso del síndrome de Noonan, se logró que identificara cuál de las cinco posibles mutaciones genéticas que lo causan se daba en cada caso. Eso sí, para esto la precisión se redujo a un 64%.
Los responsables del estudio han advertido que la aplicación no aportaría pruebas definitivas de la enfermedad, pues debería confirmarse finalmente con un test genético, especialmente de cara a identificar la mutación concreta que lo causa. De cualquier modo, en un futuro podría aportar un primer diagnóstico mucho más rápido que el que ofrecen los métodos convencionales.
Un cuentacuentos para niños sordos
La inteligencia artificial no solo es útil para el diagnóstico de enfermedades, también puede hacer la vida de los que ya han sido diagnosticados más sencilla. Esto es lo que se consigue con Storysign, una aplicación diseñada por Unión Europea de Sordos y la Asociación Británica de Sordos, junto a Huawei. Se trata de una herramienta que utiliza algunos de los conceptos básicos de la IA, como el reconocimiento de imagen y el reconocimiento óptico de caracteres para leer cuentos infantiles y traducirlos a lenguaje de signos. De este modo se consigue que los pequeños aprendan a leer y relacionar conceptos.