|
Decíamos en el artículo anterior: “En un momento que
requiere de la transformación del Sistema de Salud con
un Estado en un mundo en transición, una brújula debe
indicar la dirección. Esa guía es el uso adecuado de la
tecnología actual”.
Efectivamente, la tecnología, como el dios Jano,
presenta dos caras: una oportunidad y un riesgo.
Oportunidad de multiplicar y fortalecer capacidades; y
el riesgo de perder discernimiento y elección. La
herramienta suele diferenciarse de la máquina en que la
primera es manipulada por la mano humana, mientras que
la segunda tiene una automatización a la cual el hombre
se ajusta. El aspecto positivo que determinadas
herramientas posibilitan no debe nublar la visión frente
a cambios de fondo que dicho uso puede implicar en lo
que refiere a los valores humanos. Por ejemplo, la
telemedicina sin duda significa un acceso de
interconsulta muy valioso, especialmente para pacientes
alejados de centros importantes. Puede reducir el
contagio en guardias y disminuir tiempos de espera, pero
sería necio negar la preocupación frente a la
desestimación del vínculo directo médico-paciente.
Debemos evitar el tono catastrófico y tecnofóbico, pero
no podemos ignorar la tendencia ya presente en múltiples
planos que modifican la sociabilidad en general y en
particular, que resultan cuanto menos cuestionables. No
para desechar o renegar de los adelantos tecnológicos,
sino para encontrar la forma más provechosa de usarlos y
para prevenir usos indebidos y desvíos alarmantes a fin
de encender algunas señales de alerta frente a cambios
en curso para al menos considerar su evolución. Vale
mencionar a Nick Bostrom, quien incluye el mal uso de
las tecnologías y la mala programación de una
superinteligencia en los riesgos existenciales actuales
junto con las pandemias y guerras nucleares, entre
otros.
La indiscutida novedad en boga es la Inteligencia
Artificial (en especial la de tipo Deep Learning, que
implica un proceso de autoaprendizaje) aplicada a la Big
Data. La conexión permanente que tiene la casi totalidad
de la población con los dispositivos móviles genera una
cantidad de datos inauditos que pueden ser procesados
por algoritmos de manera asombrosa. Las ventajas son
innegables, pero también son múltiples los riesgos, como
la pérdida de privacidad que es lo que más preocupa en
nuestro ámbito. Nos referimos a lo que alguien llamó
máquinas inteligentes y humanos tontos. Aspectos de
inteligencia y cognición son delegados en la tecnología
y se van perdiendo en las personas. Así, por caso, se va
diluyendo la escritura a mano (y eventualmente, la
escritura a secas).
Para dar un ejemplo en nuestro campo, se ha producido un
software para predecir infartos y problemas cardíacos
cargando datos de pacientes, que dio resultados
positivos (lo mismo sucede en otras especialidades como
en diagnósticos oncológicos). Ahora bien, no está mal
brindar una herramienta de este tipo a médicos
cardiólogos, sin resignar por ello la profundización en
dicho aspecto. Por el contrario, los resultados
obtenidos deben mostrarnos correlaciones ignoradas que
lleven a indagar, investigar y reflexionar para así
avanzar en la frontera del conocimiento.
Esto significa no descansar en la tecnología ni depender
de ella, sino usarla como plafón para aumentar nuestro
conocimiento que no puede desentenderse de la base
creada para incluso revisarla, corregirla y mejorarla.
La tecnología debe ser una herramienta que eleve y
mejore la capacidad de decisión del profesional y no una
excusa para delegar la responsabilidad. Los programas de
diagnóstico no diagnostican, lo hace el médico con la
ayuda del programa. Debemos ser cuidadosos de no perder
el conocimiento que objetivamos. Es decir, la tecnología
debe ser un instrumento que nos haga mejores médicos, no
una máquina que nos reemplace.
El desafío es que la enorme capacidad de automatismo
(que es precisamente lo que produce su potencia) no se
traduzca en la pérdida de autonomía humana profesional
y, en definitiva, artesanal que la medicina requiere. Al
clásico aforismo “hay enfermos, no enfermedades”,
podríamos traducirlo hoy como que el médico debe tratar
personas y no algoritmos.
El especialista en Big Data, Walter Sosa Escudero,
señala que faltan instituciones que ayuden a resolver
los problemas de transparencia y ética que genera el
flujo descontrolado de información. Cuanto más
importante en un ámbito como la medicina. Máxime,
teniendo en cuenta que existe toda una dimensión en
germen que podría llegar a reestructurar nuestros
cuerpos y nuestras mentes. Nos referimos a la conjunción
de tres áreas críticas: revolución genética, que
permitiría reprogramar nuestros genes y crear
medicamentos capaces de atacar las enfermedades a nivel
molecular; una revolución nanotecnológica, y una
revolución de Inteligencia Artificial (IA). Esto nos
lleva a un terreno que parece ciencia ficción, de
ciborgs y robots, pero es apenas proyectar un poco la
realidad actual. En este sentido, merecen consideración
pioneros como Isaac Asimov y Arthur Clarke (por no
mencionar a de La Mettrie y su Hombre máquina del siglo
XVIII), así como las cercanas distopías de la serie
“Black Mirror”. En este espacio nos limitamos a
preguntarnos si en lugar de “poshumanismo” y “realidad
aumentada”, como se ha planteado, no cabría pensar en
términos de deshumanización y una realidad
distorsionada.
Sin embargo, no debemos temer a la IA pero sí regularla,
como advierte el Dr. en Ciencias de Computación del MIT,
Brian Scassellati, quien relativiza su potencia al
afirmar que “al crear robots nos damos cuenta de lo cuán
complejas son las personas”. Además, cuenta con la
reflexión de que los actuales robots sirven para hacer
una cosa específica, pero no cuentan con la flexibilidad
y complejidad que tenemos las personas. Dan respuestas
programadas crecientemente complejas, por cierto, pero,
en definitiva, carecen de pensamientos.
Esto nos debería ayudar a no ceder ante el eufemismo de
la IA que conlleva errores conceptuales, o lo que Borges
llamaba “malversación del lenguaje”. A saber, sustituir
una palabra por otra, tergiversando la realidad como
herramienta de manipulación. No debemos confundir
inteligencia artificial con inteligencia humana. Sólo
los humanos tenemos la capacidad del pensamiento
científico. La capacidad de interpretar la realidad como
procesos dinámicos, complejos y abiertos (variables
topológicas), en lugar de procesar un cruce enorme pero
lineal de datos. Parafraseando a Marcelino Cereijido:
“la ciencia como paradigma de interpretación de la
realidad”.
Ya hace más de medio siglo que el filósofo Günther
Anders reflexionaba sobre la brecha entre nuestra
asombrosa (y tenebrosa) capacidad de producción (y
destrucción) material, y nuestra incapacidad de
reproducción conciente y moral sobre la misma.
Producimos más de lo que somos capaces de aprehender con
nuestras facultades intelectuales y emocionales, y ésta
es una de las características básicas de nuestro tiempo,
sostenía. Hoy, producimos datos que no podemos
reproducir mentalmente, pero creamos una herramienta que
sí lo hace. Pero de cómo lo haga depende de nuestra
capacidad de programación, y qué hagamos con ello
depende de nuestra capacidad de interpretación y nuestra
decisión de aplicación, asumiendo así la responsabilidad
de su uso al igual que sus consecuencias que, por
último, también son enteramente nuestras
|
Ignacio Katz, Doctor en Medicina - UBA. Director
Académico de la Especialización en “Gestión
Estratégica de Organizaciones de Salud”
Universidad Nacional del Centro - UNICEN. Autor
de: “La salud que no tenemos” – Katz Editores
(2019). “Claves para la gestión en salud” –
Editorial UNICEN (2019). “Argentina hospital. El
rostro oscuro de la salud” – Visión Jurídica
Ediciones (2018). “La Fórmula Sanitaria” –
Eudeba (2003) |
|