FacebookTwitter

 

Artículo de Revisión

Medicina en la era del big data

Gastón Murias, Facundo Gutiérrez1, Lluis Blanch

Revista Fronteras en Medicina 2018;(4):0231-0237 


Con el avance tecnológico y la implementación de la historia clínica electrónica a nivel mundial, los médicos constantemente están generando evidencia basada en la práctica, es decir, el registro de datos durante el acto médico diario. Información que se está generando y recolectando a velocidades sin precedentes, sin embargo, gran parte de la información se encuentra sin explotar. La mejor evidencia disponible hasta el día de hoy se obtiene de los trabajos randomizados controlados (RCT, por sus siglas en inglés), este tipo de estudio engloba solo un pequeño grupo de pacientes que difícilmente representen al mundo real, evalúan un solo efecto cuando en la práctica diaria son muchas las decisiones que tomar en simultáneo, además se informa el resultado de la media poblacional sin tener en cuenta los resultados individuales. Actualmente se están desarrollando nuevos métodos para generar conocimiento sobre las enfermedades sacando provecho de la gran cantidad de información que se recolecta por día de los pacientes. Las herramientas de big data, ampliamente utilizadas en otros campos, pueden ser la clave para aprovechar estos datos, transformándolos en información útil que puede mejorar los resultados de los pacientes, aumentar nuestro conocimiento y comprensión, y ayudar a disminuir los costos de atención médica. En terapia intensiva, donde los dispositivos de soporte y monitoreo brindan enormes cantidades de datos además de los recolectados en otras áreas del hospital, se beneficia notablemente de las tecnologías de big data. Algunos intentos incipientes de aprovechar el big data han probado ser útiles, y los proyectos a mayor escala prometen producir inmensos beneficios.


Palabras clave: big data, evidencia, proyectos,

With the technological advance and the implementation of electronic medical records worldwide, doctors are constantly generating evidence based on practice, that is, the recording of data during the daily medical act. Much of the information that is being generated and collected at unprecedented speeds, however, remains untapped.The best evidence available to date is obtained from randomized controlled trials (RCT), this type of study encompassing only a small group of patients that hardly represents the real world, evaluating a single effect when there are many decisions to be made in daily practice. Furthermore the results of the population average is also reported without taking into account the individual results. Currently, new methods are being developed to generate knowledge about diseases by taking advantage of the large amount of information collected daily from patients.Big Data tools, widely used in other fields, can be the key to take advantage of these data, transforming them into useful information that can improve patient outcomes, increase our knowledge and understanding, and help reduce health care costs. In intensive care, where support and monitoring devices provide huge amounts of data in addition to those collected in other areas of the hospital, will benefit significantly from Big Data technologies. Some incipient attempts to take advantage of Big Data have proven useful, and projects on a larger scale should produce immense benefits.


Keywords: big data, evidence, projects,


Los autores declaran no poseer conflictos de intereses.

Fuente de información Hospital Británico de Buenos Aires. Para solicitudes de reimpresión a Revista Fronteras en Medicina hacer click aquí.

Recibido 2018-09-14 | Aceptado 2018-10-01 | Publicado 2018-12-31

Figura 1. A) Randomización de pacientes habitual en los RCT, se realiza la aleatorización de los p...

Introducción

Hasta mediados del siglo XIX gran parte de los conocimientos médicos estaban basados en dogmas, y el conocimiento estaba más relacionado al arte que a la ciencia. A finales de ese siglo a la par del desarrollo del positivismo francés, y con Claude Bernard como referente de la medicina experimental, surge un cambio de paradigma, en el cual la investigación científica es la base del conocimiento.

Posteriormente se plantea que, a pesar del cambio en el pensamiento, las conductas médicas seguían basadas en opiniones de expertos y no en ciencia (actualmente solo un pequeño porcentaje de las recomendaciones de la campaña sobreviviendo a la sepsis 2016 tiene evidencia 1A). El Doctor Archie Cochrane (1909-1988) del Reino Unido fue un pionero en la mejoría de la calidad médica fomentando el uso de la mejor evidencia disponible para la aplicación clínica diaria. De sus trabajos junto con otros colegas surge el concepto de medicina basada en la evidencia1, un modelo en el cual se toman los ensayos clínicos de la mejor calidad disponible (idealmente trabajos randomizados controlados) para tomar decisiones sobre los pacientes. Sin embargo, en los últimos años, el modelo actual está sufriendo importante crítica debido a los altos costos, el tiempo que se necesita y la falta de validez externa a causa del selecto grupo de pacientes que se incluyen en los trabajos que se realizan actualmente2.

Alrededor del 90% de los datos en el mundo de hoy se han creado solo en los últimos dos años3. Desde el inicio de la civilización humana hasta el 2003 se generaron 6 exabytes (1 exabyte = 1018 bytes) de información; en el año 2015, se generaron 6 exabytes de datos cada 2 días. El valor potencial de tal cantidad de datos es fácil de apreciar, pero el valor de los datos que se crean va más allá. Los nuevos datos se recopilan en un contexto, lo cual aumenta su valor semántico. Además, esta nueva información se encuentra principalmente en formato digital (todos los libros en el mundo representan solo el 6% de los datos), lo que los hace altamente aprovechables por las computadoras. Sin embargo, la mayoría de los datos no están estructurados, y gran parte son redundantes y ambiguos4. Se han desarrollado nuevas técnicas estadísticas para encontrar patrones y relaciones entre los datos5; el uso de técnicas para aprovechar grandes cantidades de datos no estructurados se denomina big data.

Las técnicas estadísticas tradicionales son perfectamente capaces de analizar enormes bases de datos con millones de registros, siempre que esos registros estén estructurados y sean consistentes. Por otro lado, las técnicas tradicionales son incapaces de analizar conjuntos de datos mucho más pequeños si no están estructurados. Big data se ve mejor como un proceso para extraer información de un gran número de datos estructuralmente heterogéneos, rápidamente cambiantes, intrínsecamente poco confiables y dispersos. El proceso puede incluir varios pasos para aumentar el valor semántico de la información (por ejemplo, análisis de texto, análisis de texto ruidoso y técnicas de procesamiento de lenguaje entre las computadoras y el lenguaje humano combinadas con información contextual y metadatos que pueden transformar notas médicas en datos analizables por máquina), su utilidad (por ejemplo, etiquetado y consolidar diferentes fuentes) y permitir que los datos se presenten de manera coherente6. A diferencia de los enfoques analíticos tradicionales, que se dedican principalmente a comprender los mecanismos, el análisis de big data esencialmente busca encontrar asociaciones que se hayan mantenido estables por algún tiempo (y se espera que permanezcan estables). A diferencia de los trabajos randomizados controlados, big data no establece relaciones de causalidad, solo puede establecer asociaciones.

Big data en salud

Un hospital típico crea 665 terabytes de datos por año (en comparación, los 20 millones de libros en la biblioteca más grande del mundo solo contienen 10 terabytes)7,8. Aunque algunos datos se utilizan para el cuidado de pacientes individuales, solo hemos comenzado a explotar los datos recopilados en los hospitales para la epidemiología, para mejorar nuestra comprensión de los fenómenos fisiológicos, reconocer los riesgos, detectar las complicaciones y controlar los procesos. Y no hay ninguna razón para limitar los big data a los hospitales como unidades aisladas. Los proyectos de bases de datos colaborativas a nivel nacional ya están en marcha en los Estados Unidos (Agency for Health care Research & Quality) y el Reino Unido (NHS Digital). Por otra parte, la disponibilidad cada vez mayor de los sistemas de monitoreo de la salud en la vestimenta probablemente conducirá a un aumento exponencial en los datos fisiológicos y de estilo de vida disponibles para el análisis9. Los dispositivos en la vestimenta, capaces de monitorear longitudinalmente muchos aspectos diferentes de la salud del usuario, podrían proporcionar a los médicos información mucho más precisa, lo que les permitiría detectar problemas y actuar a tiempo. Por ejemplo, el nuevo reloj de Apple brinda un registro continuo de la frecuencia cardíaca y permite realizar un electrocardiograma en la derivación DII10. El sistema Optivol de Medtronic informa al electrofisiólogo sobre el agua extravascular de sus pacientes con marcapasos y permite reconocer la insuficiencia cardíaca antes de que sea clínicamente notoria11.

Las tecnologías de la información se han utilizado principalmente para ayudar en los procesos de diagnóstico, pero también pueden tener un papel en la terapéutica12. La recientemente anunciada Precision Medicine Initiative (PMI) del National Institutes of Health (NIH), el Instituto Nacional de Cáncer (NIC) y Food and Drug Administration (FDA) están destinados a un tratamiento que considera no solo los diagnósticos de los pacientes, sino también su genética y la biología subyacente a su enfermedad13. De hecho, los pacientes con cáncer de mama, pulmón, colon, melanomas y leucemias suelen someterse a estudios genéticos como parte de la atención habitual para permitir a los médicos seleccionar tratamientos que mejoren la supervivencia y reduzcan los efectos secundarios. Incluso cuando el razonamiento es claro, PMI plantea la necesidad de extraer cantidades masivas de información genética de nuestros pacientes para en el futuro analizar la información obtenida y poder adecuar aún más los tratamientos.

La rápida adopción de la tecnología está creando una gran cantidad de información y amerita una reconsideración del rol que cumplen los trabajos observaciones en la medicina basada en la evidencia. Particularmente en los estudios que comparan efectividad, esta aproximación fue usada por muchas décadas para generar cientos de trabajos retrospectivos. Con el advenimiento del registro electrónico así como el desarrollo de nuevos métodos computacionales para procesar información desestructurada se está haciendo cada vez más posible aprender directamente de la práctica clínica diaria.

En los últimos años se ha desarrollado la base de datos de Monitoreo Inteligente Multiparamétrico en Cuidados Intensivos (MIMIC)14. Esta base de datos incluye información demográfica, mediciones de signos vitales, resultados de exámenes de laboratorio, procedimientos, medicamentos, notas del cuidador, informes de imágenes, tendencias y formas de onda del monitor de cabecera y mortalidad de casi 60,000 ingresos a varias UCI en un solo hospital docente entre 2001 y 2012. Los registros anónimos se pusieron gratuitamente a disposición de la comunidad de investigación a través de PhysioNet (un proyecto respaldado por el Instituto Nacional de Ciencias Médicas Generales de EE.UU. y el Instituto Nacional de Imágenes Biomédicas y Bioingeniería de EE.UU. con más de 9000 investigadores registrados)15. El sitio web del proyecto incluyó más de 50 artículos científicos que utilizan datos MIMIC publicados desde 2004.

Big data y experimentación clínica

Una de las áreas más prometedoras para usar big data es la investigación médica. Se considera que los ensayos controlados aleatorios (ECA o RCT del inglés) proporcionan el conocimiento más relevante y menos sesgado; por lo tanto, al ser el nivel más alto de evidencia disponible, deberían ser la base principal de las guías clínicas. Sin embargo, aunque el número de ECA ha crecido exponencialmente, desde 1 en 1960 a 40.024 en 2013, las recomendaciones basadas en ECA son escasas16,17. Los RCT por sí solos no pueden proporcionarnos todas las herramientas que necesitamos para cuidar a nuestros pacientes18.

Algunos autores sugieren un alejamiento de los tradicionales trabajos de investigación dirigiéndose hacia estudios retrospectivos de gran escala, como el estudio realizado por la sociedad australiana y neozelandesa en el que se estudió la validez de la antigua definición de sepsis en 109 663 pacientes de la base de datos de la sociedad19. Otros sugieren que la información acumulada en la historia clínica electrónica podría utilizarse para optimizar los tiempos y facilitar los métodos de los trabajos.

Un interesante ejemplo fue el trabajo realizado por Fiore et al. Este trabajo abierto randomizado estudió dos regímenes de insulina (según una tabla estándar o ajustado al peso del paciente) y comparó el tiempo de estadía hospitalaria en pacientes que requerían correcciones con insulina20. El trabajo aprovechó la historia clínica electrónica de los centros participantes. Cuando un paciente cumplía los criterios de inclusión del trabajo (cualquier paciente adulto internado fuera de terapia intensiva que requiere correcciones con insulina) el sistema automáticamente sugería al médico tratante la inclusión del paciente en el estudio. Se aplicó una nueva metodología que ellos llamaron point-of-care clinical trials, en el cual el trabajo clínico está inmerso en la práctica de rutina y modificando en la menor medida de lo posible el resto de las prácticas. Una vez que el sistema detectó al paciente, era automáticamente randomizado a una de las ramas y a partir de ese momento continúa el tratamiento habitual por el mismo médico que lo estaba atendiendo sin haber otro intermediario.

El seguimiento de los pacientes y la adherencia a los tratamientos se obtuvo de los registros en la historia clínica electrónica sin que haya otras instancias que puedan desviar el tratamiento del paciente de lo usual. La randomización en estudios del cuidado de la salud envuelve conflictos éticos y consideraciones prácticas que habitualmente no son tenidas en cuenta, como la potencialidad de dañar pacientes; sin embargo, hay una clara ventaja al sumergir el proceso de investigación en la rutina clínica integrando la historia clínica electrónica. En este estudio, los pacientes fueron asignados a cada grupo según un modelo de inferencia bayesiana.

Los primeros 100 pacientes fueron distribuidos de manera homogénea con 50% de probabilidades de ser asignado a cada grupo. Una vez finalizado este primer grupo el sistema realiza un análisis de la muestra y determina si uno de los dos grupos tiene una tendencia a ser superior que el otro. La siguiente tanda de 100 pacientes ya no se distribuyen de manera homogénea sino de manera preferencial al grupo que muestra una tendencia a la superioridad. En cada análisis interino se realiza esta inferencia hasta que se cumple el criterio de finalización del estudio o se alcanza un número máximo de pacientes.

La consecuencia de este tipo de randomización de pacientes es que, si una estrategia de tratamiento es superior a otra, sea menor la cantidad de pacientes asignados grupo de tratamiento inferior (por lo que se perjudica a menos pacientes) y por otro lado que se necesite un menor número muestral para llegar a resultados significativos. Obsérvese que, si la tendencia que se observó en el primer análisis era falaz, en el siguiente grupo de pacientes se invertirá la diferencia observada y eso hará que en la siguiente cohorte de pacientes la asignación sea homogénea nuevamente (Figura 1).

Actualmente, se está desarrollando otro estudio que usa la tecnología de big data para ser realizado; El estudio REMAP-CAP está reclutando pacientes en distintas partes del mundo que ingresan a terapia intensiva con neumonía adquirida en la comunidad y son randomizados a diversos tratamientos en simultáneo (recibir corticoides o no, el antibiótico que recibirá, si a este antibiótico se le adicionan macrólidos o no, la estrategia de ventilación mecánica si es que la requiere, etc.) y se estudian los efectos de estos tratamientos, el sistema genera en el momento de la randomización el consentimiento informado para los familiares o pacientes y genera una planilla que muestra a los médicos tratantes cual es el tratamiento que debe el paciente debe recibir21. A medida que se reclutan pacientes, estos siguen siendo randomizados pero de manera preferencial hacia los grupos que demuestran superioridad, de esta manera se van descartando ramas de tratamiento que demuestran ser inferiores y pueden surgir nuevas ramas de tratamiento cuando el sistema detecta ciertas conductas que son beneficiosas.

Se ha acumulado una gran cantidad de conocimiento médico utilizando el método científico: simplificado en extremo, la observación de un problema empuja a los investigadores a formular una hipótesis y llevar a cabo un estudio cuidadosamente diseñado para probarla. El conocimiento aumenta gradualmente a medida que el nuevo conocimiento proporciona el contexto para la detección de nuevos problemas y la formulación de nuevas hipótesis. Este modelo, que ha demostrado ser muy útil, requiere no solo una hipótesis para probar sino también (y probablemente más importante) la capacidad de detectar un problema. Al encontrar relaciones, big data puede proporcionar reglas operativas para ser usadas en sistemas expertos. Sin embargo, big data también puede proporcionar nuevas hipótesis para ser evaluadas en RCT.

Además, big data puede mejorar el diseño de un RCT. Un RCT bien diseñado y bien realizado puede no proporcionar respuestas si los criterios utilizados para seleccionar sujetos son erróneos, como se evidencia en el escenario común en el que un estudio no demuestra la utilidad de una intervención en toda la población de estudio pero un análisis post hoc sugiere que la intervención podría ser útil en un subconjunto de los sujetos (p. ej., el más enfermo o el más viejo), exigiendo un nuevo ensayo para evaluar la nueva hipótesis. Además, a menos que un RCT incluya un número realmente grande de pacientes, siempre existe el riesgo de que un factor de confusión desconocido pueda desequilibrarse entre los brazos del estudio y pueda sesgar los resultados. Al brindar información sobre los factores confundidores o subgrupos que tienen más probabilidades de beneficiarse de una estrategia determinada, big data puede mejorar los RCT en el futuro18.

Debido a que big data funciona con datos del mundo real, se pueden esperar dos beneficios adicionales después de que se hayan hecho los RCT. Primero, cuando las guías clínicas basadas en los resultados de RCT cambian la práctica, los efectos de la intervención deben ser monitoreados. Una forma de hacerlo es a través de estudios clínicos de Fase IV, que buscan encontrar beneficios adicionales de un tratamiento o efectos secundarios no observados durante las fases previas. Sin embargo, este enfoque no siempre es eficiente. Por ejemplo, después de que el agente antiinflamatorio rofecoxib había estado en el mercado durante 5 años, un aumento del doble en los eventos isquémicos cardíacos llevó a la FDA a retirarlo22. Eichler et al. estimaron que una encuesta de 8 a 10 semanas sobre toda la población de los EE.UU. habría obtenido la misma información al tiempo que hubiera evitado muchos eventos adversos innecesarios en los pacientes23. En segundo lugar, para reducir el ruido, los RCT generalmente tienen criterios de inclusión muy restrictivos. Sin embargo, la intervención probada se usa a menudo en grupos que fueron excluidos del estudio. En otras palabras, los RCT ocupan un lugar prominente en la jerarquía de la evidencia principalmente porque la aleatorización asegura la validez interna y descarta los efectos de factores de confusión potenciales, pero los RCT carecen de validez externa porque las circunstancias bajo las cuales se ejecutan pueden no reflejar el mundo real24,25. Big data puede ser útil para determinar hasta qué punto los beneficios observados en un subconjunto de pacientes pueden extenderse a una población más amplia.

Incluso la tecnología de big data puede servir para redefinir los valores normales en cada sociedad, tomando los registros de laboratorios a nivel nacional o los datos que aportan los dispositivos en la vestimenta cada país podría redefinir sus propios valores normales, sin tener que usar las referencias de otros países o usar valores de una pequeña muestra de la población.

Big data y sistemas expertos

En inteligencia artificial, un sistema experto es un software que emula la capacidad en la toma de decisiones de humanos expertos. Permiten la generación de conocimiento a partir de la interacción de un programa de inferencia con una base de conocimiento basada en reglas.

Existen dos tipos principales de sistemas expertos: sistemas deterministas y sistemas estocásticos. Un sistema experto determinista tiene dos componentes principales: un intérprete (el software) y una base de conocimiento (un sistema de reglas que se supone que es verdad). Estos sistemas aprovechan la información disponible y las inferencias para resolver problemas. Cuando se pueden definir reglas de toma de decisiones, las computadoras provistas de sistemas expertos pueden llegar a conclusiones similares a las alcanzadas por expertos humanos.

Se ha informado que los sistemas deterministas mejoran la calidad y la seguridad del paciente26-29, para promover la prevención y el tratamiento óptimo30-32, para reducir los errores médicos33 y para mejorar los resultados. Recientemente, se demostró que un sistema experto puede usarse para analizar el impacto de la disincronía paciente-ventilador34 y para detectar con precisión el modo de ventilador en uso35. Sin embargo, los sistemas deterministas están limitados a los contextos específicos para los que fueron diseñados.

Los sistemas estocásticos son más prometedores para lidiar con la complejidad que se encuentra en escenarios más amplios en el mundo real. Los sistemas estocásticos expertos pueden lidiar con la incertidumbre porque sus reglas operativas no son “verdaderas o falsas” sino que se definen en términos de “grado de verdad” mediante la aplicación de métodos probabilísticos en enormes conjuntos de datos. En cuanto a big data puede crear reglas operativas, podría alimentar sistemas expertos automáticamente. Existen actualmente software que analizan radiografías, mamografías, tomografías36-37 e incluso comparan distintos estudios de un mismo paciente en el tiempo. Otros que analizan y hacen diagnóstico de muestras de anatomía patológica38.

Hasta el 77% de las admisiones a las UCI médicas tienen lugar, al menos en parte, con fines de monitorización, aunque solo el 10% de los pacientes monitorizados tendrán posteriormente indicaciones para intervenciones importantes39. Sin embargo, la falta de integración entre los dispositivos de monitoreo ha llevado a una situación peligrosa en la que la mayoría de las alarmas que suenan son falsos positivos40,41. Esta situación tiene varias consecuencias negativas. En primer lugar, las alarmas son en gran parte desatendidas y, a menudo, silenciadas o configuradas en umbrales que incluso las situaciones claramente peligrosas no vulnerarían42. En segundo lugar, el ruido generado por las alarmas es mayor que el límite de exposición de 24 horas recomendado por la Agencia de Protección Ambiental de los Estados Unidos, tanto durante el día como por la noche43; el ruido excesivo ha sido implicado en el agotamiento del personal44, la mala calidad del sueño en los pacientes45,46 y el desarrollo de delirio47. A pesar de sus inconvenientes, las alarmas pueden salvar vidas y nadie podría sugerir prescindir de ellas.

Un enfoque que intenta mejorar el sistema de alarma es el desarrollo de alarmas multiparamétricas. Las puntuaciones de advertencia temprana (EWS), como VIEWS, PEWS48,49, MEWS50 y NEWS51, se construyen para predecir los eventos negativos de un paciente. Estas herramientas usualmente toman la forma de una puntuación compuesta ponderada por la severidad de la alteración de las variables fisiológicas (similar al enfoque utilizado en los puntajes que usamos habitualmente para evaluar la gravedad de la enfermedad o para predecir la mortalidad). Tanto las variables a incluir en el puntaje como el peso de su trastorno generalmente se derivan de la opinión de un experto y luego se validan en una cohorte de pacientes.

Un enfoque de big data para EWS puede mejorar los resultados de varias maneras. En primer término, en lugar de desarrollar un modelo matemático para ser validado contra los resultados del mundo real, los resultados del mundo real se pueden utilizar para desarrollar el modelo matemático (un sistema de autocalibración).

Limitaciones y desafíos de big data

En una revisión reciente, Johnson et al. abordaron varios problemas desafiantes preanalíticos de big data52. Los autores clasifican estos temas en dos categorías principales: compartimentación y corrupción. La compartimentación de datos se debe a barreras establecidas para proteger la privacidad del paciente, el almacenamiento de información de pacientes individuales en varios sitios, protocolos de comunicación de propiedad en dispositivos comerciales y el diferente significado de valores almacenados bajo la misma etiqueta en diferentes lugares. La corrupción es la consecuencia de datos erróneos o imprecisos (que generalmente no se recopilaron con fines de investigación) y datos faltantes. Mientras que las técnicas de big data han sido diseñadas para abordar algunos de estos problemas, el desarrollo de plataformas de middleware (software que proporciona un enlace entre aplicaciones de software independientes) que pueden garantizar que una etiqueta representa un solo significado y puede adquirir, estandarizar y sincronizar señales de dispositivos médicos digitales, como monitores de cabecera y ventiladores mecánicos, debería abordar la mayoría de los demás.

Sin embargo, más allá de los problemas preanalíticos, hay otros temas no resueltos de big data. El análisis de big data puede verse profundamente afectado por un error sistemático. Por ejemplo, un análisis de bases de datos agrupadas de pacientes que se sometieron a procedimientos de revascularización miocárdica (más de 180 000 pacientes) encontró que la intervención coronaria percutánea resultó en una mayor mortalidad dentro de los 4 años que el bypass de la arteria coronaria53. Sin embargo, no se puede descartar el efecto del sesgo de selección (una fuente importante de error sistemático), aunque los autores trataron de corregir sus resultados por el efecto de posibles factores de confusión no medidos54.

Sin orientación, las técnicas de big data proporcionarán montañas de información obvia e inútil (como “un aumento en el volumen tidal aumenta la presión de la vía aérea”). Por lo tanto, los operadores humanos deben decidir sobre las reglas que se implementarán en un sistema experto. Además, las relaciones encontradas por las técnicas de big data pueden ser falsas. Por ejemplo, un hallazgo como “cuando la presión arterial desciende, a menudo aumenta súbitamente en unos dos minutos” podría atribuirse a algún tipo de respuesta refleja; sin embargo, este fenómeno podría ser simplemente la consecuencia de que el personal de salud aumente la dosis de norepinefrina (hay muchas maneras de enfrentar este problema, el enfoque más pragmático es analizar el video generado por las cámaras de monitoreo y descartar del análisis los registros obtenidos mientras que otra persona está en el cubículo del paciente).

Hay muchos problemas éticos no resueltos sobre el uso de datos para fines distintos de aquellos para los que fueron recopilados55. Debemos ser especialmente cuidadosos cuando utilizamos la información de un paciente para fines distintos al proceso de cuidado56. A medida que se vinculan más datos, se vuelven cada vez más difíciles de desidentificar e incluso los registros desidentificados pueden reidentificarse mediante inferencia utilizando recursos disponibles públicamente57.

Finalmente, hoy el uso de big data en el cuidado de la salud se limita en gran parte a la investigación, porque su uso requiere un conjunto de habilidades muy especializadas y profesionales capacitados que no están ampliamente disponibles en las instituciones de salud. Con suerte, en los próximos años, el desarrollo de herramientas de big data hará que la información sea más accesible y mejorará la cantidad y la calidad de las implementaciones de esta tecnología.

Conclusiones

Big data debe verse como un enfoque complementario que puede resolver algunos de los problemas conocidos de los RCT. Enormes cantidades de datos se pueden adquirir prácticamente sin costo, y cada vez se obtienen más herramientas de procesamiento de datos a precios cada vez más bajos. Estas circunstancias brindan la oportunidad de extraer información valiosa de datos infrautilizados. Big data también puede detectar patrones y relaciones previamente invisibles entre variables y dentro de una variable a lo largo del tiempo que pueden proporcionar información sobre los procesos de la enfermedad. También se puede usar para proporcionar reglas operativas que se utilizarán en herramientas predictivas para alertar al personal sobre eventos graves que podrían ocurrir en los próximos minutos u horas, permitiendo a los médicos actuar para prevenir eventos potencialmente graves en lugar de reaccionar para tratarlos después de que ocurran.

  1. Guyatt G, Cairns J, Churchill D, et al. Evidence-Based Medicine. A New Approach to Teaching the Practice of Medicine. JAMA 1992;268(17):2420-5.

  2. Feinstein, Alvan R. Problems in the “Evidence” of “Evidence-Based Medicine”. Am J Med 1997;103(6):529-35.

  3. Bringing big data to the enterprise: What is big data? https://www-01.ibm.com/software/in/data/bigdata/ consultado el 16/10/2018.

  4. Surprising Facts and Stats About The Big Data Industry. http://cloudtweaks.com/2015/03/surprising-facts-and-stats-about-the-big-data-industry/ consultado el 20/09/2018.

  5. Gandomi A, Haider M. Beyond the hype: Big data concepts, methods, and analytics. Int J Inf Manage 2015;35:137-44.

  6. Labrinidis A, Jagadish HV. Challenges and opportunities with big data. Proc VLDB Endow 2012;5:2032-3.

  7. Sejdić E. Medicine: Adapt current tools for handling big data. Nature 2014,507(7492):306.

  8. How many Libraries of Congress does it take? [http://blogs.loc.gov/thesignal/2012/03/how-many-libraries-of-congress-does-it-take/] consultado el 30/09/2018.

  9. Chan M, Estève D, Fourniols J-Y, Escriba C, Campo E: Smart wearable systems: Current status and future challenges. Artif Intell Med 2012;56(3):137-56.

  10. https://www.apple.com/la/watch/consultado el 21/10/2018.

  11. https://www.medtronicacademy.com/features/optivol-fluid-status-trend-feature. Consultado el 31/10/2018.

  12. El-Kareh R, Hasan O, Schiff GD. Use of health information technology to reduce diagnostic errors. BMJ Qual Saf 2013;22(supplement 2):ii40-ii51.

  13. FACT SHEET: President Obama’s Precision Medicine Initiative [https://obamawhitehouse.archives.gov/the-press-office/2015/01/30/fact-sheet-president-obama-s-precision-medicine-initiative]Consultadowl 12/11/2018.

  14. Saeed M, Villarroel M, Reisner AT, et al. Multiparameter Intelligent Monitoring in Intensive Care II (MIMIC-II): A public-access intensive care unit database. Crit Care Med 2011,39(5):952-60.

  15. Goldberger AL, Amaral LAN, Glass L, et al.PhysioBank, PhysioToolkit, and PhysioNet Components of a New Research Resource for Complex Physiologic Signals. Circulation 2000;101:E215-E220.

  16. Medline trend: automated yearly statistics of PubMed results for any query [http://dan.corlan.net/medline-trend.html] Consultado el 22/10/2018.

  17. Poonacha TK, Go RS. Level of scientific evidence underlying recommendations arising from the national comprehensive cancer network clinical practice guidelines. J Clin Oncol 2011,29(2):186-91.

  18. Hudis CA. Big data: Are large prospective randomized trials obsolete in the future? Breast 2015;24 Suppl 2:S15-8.

  19. Kaukonen KM, Bailey M, Pilcher D, Cooper DJ, Bellomo R. Systemic Inflammatory Response Syndrome Criteria in Defining Severe Sepsis. N Engl J Med 2015;372(17):1629-38.

  20. Fiore LD, Brophy M, Ferguson RE, et al. A point-of-care clinical trial comparing insulin administered using a sliding scale versus a weight-based regimen. Clinical Trials 2011;8(2): 183-95.

  21. https://clinicaltrials.gov/ct2/show/NCT02735707 Consultado el 19/10/2018.

  22. Dieppe PA, Ebrahim S, Martin RM, Jüni P. Lessons from the withdrawal of rofecoxib. BMJ 2004;16:867-8.

  23. Eichler H-G, Oye K, Baird LG, et al. Adaptive Licensing: Taking the Next Step in the Evolution of Drug Approval. Clin Pharmacol Ther 2012;9:426-37.

  24. Barton S. Which clinical studies provide the best evidence? Br Med J 2000;321(7256):255-56.

  25. Angus DC. Fusing Randomized Trials With Big Data: The Key to Self-learning Health Care Systems? JAMA 2015;314(8):767-8.

  26. Shortliffe EH, Davis R, Axline SG, Buchanan BG, Green CC, Cohen SN. Computer based consultations in clinical therapeutics: explanation and rule acquisition capabilities of the MYCIN system. Comput Biomed Res 1975;8:303-20.

  27. Ledley RS, Lusted LB. Reasoning foundations of medical diagnosis; symbolic logic, probability, and value theory aid our understanding of how physicians reason. Science 1959;130(3366):9-21.

  28. Murias G, Sales B, Blanch L. Alarms. Transforming a Nuisance into a Reliable Tool. In Intensive Care Medicine: Annual Update 2007. Edited by Vincent J-L. New York, NY: Springer New York; 2007:950-7.https://link.springer.com/chapter/10.1007/978-0-387-49518-7_86. Consultado el 22/11/2018.

  29. Schwartz WB. Medicine and the Computer. N Engl J Med 1970;283:1257-64.

  30. Eslami S, Abu-Hanna A, de Keizer NF. Evaluation of Outpatient Computerized Physician Medication Order Entry Systems: A Systematic Review. J Am Med Informatics Assoc 2007;14(4):400-6.

  31. Pearson S-A, Moxey A, Robertson J, et al. Do computerised clinical decision support systems for prescribing change practice? A systematic review of the literature (1990-2007). BMC Health Serv Res 2009,9:154.

  32. Shojania KG, Jennings A, Mayhew A, Ramsay CR, Eccles MP, Grimshaw J. The effects of on-screen, point of care computer reminders on processes and outcomes of care. Cochrane Database Syst Rev 2009;(3):CD001096.

  33. Bates DW, Cohen M, Leape LL, Overhage JM, Shabot MM, Sheridan T. White paper - Reducing the frequency of errors in medicine using information technology. J Am Med Informatics Assoc 2001;8(4):299-308.

  34. Murias G, Montanyà J, Chacón E, et al. Automatic detection of ventilatory modes during invasive mechanical ventilation. Crit Care 2016;20(1):258.

  35. Qin C, Yao D, Shi Y, Song Z.Computer-aided detection in chest radiography based on artificial intelligence: a survey.Biomed Eng Online 2018;17(1):113.

  36. Jung H, Kim B, Lee I, et al.Detection of masses in mammograms using a one-stage object detector based on a deep convolutional neural network. PLoS One 2018;13(9):e0203355.

  37. Masoudi M, Pourreza HR, Saadatmand-Tarzjan M, Eftekhari N, Zargar FS, Rad MP. A new dataset of computed-tomography angiography images for computer-aided detection of pulmonary embolism. Sci Data 2018;5:180180.

  38. Teramoto A, Tsukamoto T, Kiriyama Y, Fujita H. Automated Classification of Lung Cancer Types from Cytological Images Using Deep Convolutional Neural Networks. Biomed Res Int 2017;2017:4067832.

  39. Thibault GE, Mulley AG, Barnett GO, et al. Medical intensive care: indications, interventions, and outcomes. N Engl J Med 1980;302:938-42.

  40. Block FE, Schaaf C. Auditory alarms during anesthesia monitoring with an integrated monitoring system. Int J Clin Monit Comput 1996;13:81-4.

  41. Lawless ST. Crying wolf: false alarms in a pediatric intensive care unit. Crit Care Med 1994,22:981-5.

  42. Joint Commission on Accreditation of Healthcare: Issue 25: Preventing ventilator-related deaths and injuries. JCAHO 2002. https://www.jointcommission.org/sentinel_event_alert_issue_25_preventing_ventilator-related_deaths_and_injuries/ consultado el 11/09/2018.

  43. Balogh D, Kittinger E, Benzer A, Hackl JM. Noise in the ICU. Intensive Care Med 1993;19:343-6.

  44. Topf M. Sensitivity to Noise, Personality Hardiness, and Noise-Induced Stress in Critical Care Nurses. Environ Behav 1989;21:717-33.

  45. Aaron JN, Carlisle CC, Carskadon MA, Meyer TJ, Hill NS, Millman RP. Environmental Noise as a Cause of Sleep disruption in an Intermediate Respiratory Care Unit. Sleep1996;19:707-10.

  46. Freedman NS, Gazendam J, Levan L, Pack AI, Schwab RJ. Abnormal sleep/wake cycles and the effect of environmental noise on sleep disruption in the intensive care unit. Am J Respir Crit Care Med 2001;163:451-7.

  47. Litton E, Carnegie V, Elliott R, Webb SAR. The Efficacy of Earplugs as a Sleep Hygiene Strategy for Reducing Delirium in the ICU. Crit Care Med 2016;44:992-9.

  48. Prytherch DR, Smith GB, Schmidt PE, Featherstone PI. ViEWS -Towards a national early warning score for detecting adult inpatient deterioration. Resuscitation 2010(8);81:932-7.

  49. Duncan H, Hutchison J, Parshuram CS. The pediatric early warning system score: A severity of illness score to predict urgent medical need in hospitalized children. J Crit Care 2006;21:271:9.

  50. Subbe CP, Kruger M, Rutherford P, Gemmel L. Validation of a modified Early Warning Score in medical admissions. Q J Med 2001;94:521-6.

  51. National Early Warning Score Development and Implementation Group (NEWSDIG): National Early Warning Score (NEWS) National Early Warning Score (NEWS). London: Royal College of Physicians; 2015.

  52. Johnson AEW, Ghassemi MM, Nemati S, Niehaus KE, Clifton DA, Clifford GD. Machine Learning and Decision Support in Critical Care. Proc IEEE 2016,104:444-66.

  53. Habibi M. Comparative effectiveness of revascularization strategies. N Engl J Med 2012;367(5):476-7.

  54. Mauri L. Why We Still Need Randomized Trials to Compare Effectiveness. N Engl J Med 2012;366(16):1538-40.

  55. Richards NM, King JH. Big Data ethics. Big Data Soc 2014, 1.

  56. The Australian National Data Service: Ethics, Consent and Data Sharing. ANDS Guidelines; 2015. https://www.ands.org.au/__data/assets/pdf_file/0009/748737/HREC_Guide.pdf. Consultado el 13/11/2018.

  57. Gymrek M, McGuire AL, Golan D, Halperin E, Erlich Y. Identifying Personal Genomes by Surname Inference. Science 2013;339(6117):321-4.

Autores

Gastón Murias
Servicio de Terapia Intensiva, Hospital Británico. Comité de Neumonología Crítica de la Sociedad Argentina de Terapia Intensiva. LIVEN (Latinoamerica Intensive Care Network; https://redliven.org).
Facundo Gutiérrez1
Servicio de Terapia Intensiva, Hospital Británico.
Lluis Blanch
Critical Care Center, Hospital de Sabadell, Corporació Sanitari Parc Taulí. Universitat Autònoma de Barcelona. Sabadell, España. CIBER Enfermedades Respiratorias. ISCIII. Madrid, España. Fundació Parc Taulí, Corporació Sanitaria Parc Taulí. Universitat Autònoma de Barcelona. Sabadell, España.

Autor correspondencia

Gastón Murias
Servicio de Terapia Intensiva, Hospital Británico. Comité de Neumonología Crítica de la Sociedad Argentina de Terapia Intensiva. LIVEN (Latinoamerica Intensive Care Network; https://redliven.org).

Correo electrónico: GMurias@hbritanico.com.ar

Para descargar el PDF del artículo
Medicina en la era del big data

Haga click aquí


Para descargar el PDF de la revista completa
Revista Fronteras en Medicina, Volumen Año 2018 Num 4

Haga click aquí

 

Esta revista es una publicación de

Hospital Británico de Buenos Aires

Ir al sitio de la Sociedad

Este articulo pertenece a la revista

Revista Fronteras en Medicina

Ir al sitio de la revista

Titulo
Medicina en la era del big data

Autores
Gastón Murias, Facundo Gutiérrez1, Lluis Blanch

Publicación
Revista Fronteras en Medicina

Editor
Hospital Británico de Buenos Aires

Fecha de publicación
2018-12-31

Registro de propiedad intelectual
© Hospital Británico de Buenos Aires

Reciba la revista gratis en su correo


Suscribase gratis a nuestra revista y recibala en su correo antes de su publicacion impresa.


Asociaciones que publican con nosotros:

Meducatium repositorio de informacion cientifica
Piedras 1333 2° C (C1240ABC) Ciudad Autónoma de Buenos Aires | Argentina | Argentina | tel./fax (5411) 4362-1600 | e-mail info@meducatium.com.ar | www.meducatium.com.ar

© Publicaciones Latinoamericanas S.R.L.

La plataforma Meducatium es un proyecto editorial de Publicaciones Latinoamericanas S.R.L.
Piedras 1333 2° C (C1240ABC) Ciudad Autónoma de Buenos Aires | Argentina | tel./fax (5411) 4362-1600 | e-mail info@publat.com.ar | www.publat.com.ar

Meducatium versión repositorio 1.0.1.0.9 beta