top of page
Foto del escritorHugo Lobato

Tienen médicos y pacientes retos de comunicación; IA podría coparticipar


Imagen cortesía

Ernest Quintana


Ernest Quintana se enteró de una manera peculiar que le quedaban pocos días de vida, mientras estuvo internado en el Kaiser Permanente Medical Center en Fremont, California.


Era de noche cuando recibió en su habitación la visita de un robot, era para llevar a cabo una videoconsulta como seguimiento a sus revisiones médicas.

En la pantalla de aquella máquina apareció un doctor para decirle que “ya no le quedan pulmones, la única opción es cuidar de su comodidad, quitarle la mascarilla para ayudarlo a respirar y ponerle un goteo de morfina hasta que muera”, reportaron allegados del caso a la BBC.

El señor Quintana murió al siguiente día, tenía 78 años. El caso se volvió mediático y polémico por los reclamos que los familiares hicieron a la institución de salud por la forma en la que manejaron la comunicación con su paciente.


El hospital emitió su postura para mitigar la crisis, diciendo que no apoyaban ni alentaban el uso de la tecnología para reemplazar las interacciones personales entre los pacientes y sus equipos de atención.


Entendían lo importante de la situación para todos los involucrados, además de lamentar no haber estado a la altura de las necesidades de la familia.


"Usaremos esto como una oportunidad para revisar cómo mejorar la experiencia del paciente con las capacidades de tele-video", acotaron.


Elegir morir en el siglo XXI


¿Fue esa la forma en la que el señor Quintana se imaginó morir? En otras partes del mundo, como en México, ¿la población tiene claro cómo no quiere morir?


Asunción Álvarez del Río, presidenta del Colegio de Biótica planteó durante el Simposio Internacional de Bioética que “si tomamos conciencia del hecho de que nos vamos a morir y que eso no podemos elegir, debemos tomar mucha importancia al hecho de que sí podemos elegir en qué forma morir y sobre todo en qué forma no queremos vivir”.

“Esto es importante especialmente hoy con todas las posibilidades médicas tecnológicas de que podamos vivir mucho tiempo y puede ser, porque la experiencia así lo indica; que no queramos vivir en la forma en la que hoy es posible vivir gracias a las posibilidades de prolongar la vida”, expresó.

Hizo hincapié en que la mayoría de las personas mueren en un contexto de atención médica, ya sea que estén en el hospital o en su casa, donde tienen mucho para elegir, como es estar informados para poder saber qué opciones hay sobre el hecho de lo que implicaría seguir viviendo gracias a los tratamientos que les ofrecen.


La también profesora e investigadora del Departamento de Psiquiatría y Salud Mental de la Facultad de Medicina de la UNAM, destacó el hecho de que no se cuenta con la opción para que el individuo pueda decir que ya no quiere vivir y requiera de la ayuda médica para tener una muerte segura y sin dolor.


“Eso falta en México, eso falta en muchos países, de hecho, se permite en relativamente pocos, aunque hay que decir cada vez van siendo más los que permiten muerte medicamente asistida, que incluye la eutanasia, cuando es un médico el que ayuda en respuesta al pedido del paciente, realizando la acción, generalmente mediante una inyección.


“O el suicidio medicamente asistido, cuando es el médico que ayuda a un paciente dándole los medios para que sea el paciente quien termine con su vida, eso se va avanzando y esperamos que también en México sea una opción”, agregó Álvarez del Río.


La IA podría comunicar las malas noticias a los pacientes


¿Qué va a suceder cuando la decisión clínica de un médico humano vaya en contra de una decisión algorítmica de la Inteligencia Artificial (IA)? Preguntó Sarah Chan, profesora de la Universidad de Edimburgo a los asistentes durante su conferencia “Inteligencia Artificial en el cuidado de la salud” en el Simposio Internacional de Bioética.


La docente de bioética considera que puede ser mejor equivocarse como humano, que estar correcto como robot, porque en ciertos casos, pudiera tratarse de un error del médico al momento de dar un diagnóstico terminal comparado al que proporcione la IA, porque ésta no puede fallar.

“Quién debería decir las noticias malas a los pacientes. Los humanos son seres afectivos, emocionales y falibles, compartimos una vulnerabilidad y la posibilidad del error humano nos permite un espacio para negociar la narrativa para nosotros mismos, el tiempo para acostumbrarnos al concepto de la muerte, de la enfermedad, de la discapacidad”, explicó Chan.

A diferencia de lo sucedido con el señor Ernest Quintana, su diagnóstico terminal lo recibió directamente del médico y no de la IA, aunque usó un robot como intermediario para dar el mensaje, el cual tuvo un efecto adverso al deseado.


La doctora Chan no descarta que los robots vayan a comunicar mejor las noticias malas en el contexto de la salud de la población.


“Las IA pueden tomar un papel importante, no solamente en el cuidado de la salud, también en narrativas morales y su capacidad de satisfacer este papel depende de rasgos que pueden relacionarnos en ciertas maneras”, apuntó.



*Hugo Lobato Rivera es CEO de CEF&RP y miembro de la Asociación Mexicana de Investigadores de la Comunicación. Cuenta con una licenciatura en Ciencias de la Comunicación y con una Maestría en Periodismo Político por la Escuela de Periodismo Carlos Septién García.


54 visualizaciones0 comentarios

Comments


bottom of page