“The Social Dilemma” destapó el debate: cuál es el límite ético de la neurotecnología
PAUTA habló con expertos mundiales en la materia. Chile está entre los países pioneros del mundo en leyes de neuroprotección.
“Si buscas ‘cambio climático’ en Google vas a obtener diferentes resultados, dependiendo de dónde vives y la información que Google sabe acerca de tus intereses”, cuenta Tristan Harris, del Centro para Tecnología Humana en el documental de Netflix The social dilemma (2020). “Esto no es un accidente, sino que es diseñado”, dice.
El 2018, un estudio del Centro de Investigación Pew que entrevistó a 1.150 expertos determinó que el 47% de ellos votó por la idea de que el mundo digital mejoraría la calidad de vida de las personas. Otro 32% expresó que ella tendría efectos nocivos y el 21% se inclinó por la idea de que no existiría un gran cambio.
Este es el tema que intenta investigar The social dilemma (2020) por medio de entrevistas a extrabajadores de varias compañías, como Facebook, Twitter e Instagram. Las revelaciones son bastante incómodas. Por ejemplo, al darse a conocer que Instagram mide la cantidad de segundos que uno observa una fotografía. Todo este detalle es almacenado para conocer y “manipular” (ese es el término que se utiliza en el documental) al usuario para mantenerlo conectado la mayor cantidad de tiempo posible.
{{noticia:60658}}
“La neuroseguridad se relaciona con dos aspectos. En primer lugar, a la seguridad frente a nuevos sistemas neurotecnológicos como las interfaces de cerebro-computadores y su protección contra las amenazas cibernéticas. En segundo lugar, se refiere a la protección del cerebro y los datos cerebrales de una persona”, explica a PAUTA Marcello Ienca, del comité de bioética del Departamento de Salud y Tecnología del Instituto Federal Suizo de Tecnología ETH Zurich.
Pero esto no es una nueva preocupación.
Los avances tecnológicos
“En un sentido general, la neuroseguridad siempre ha sido un problema. Los riesgos de manipular la mente de alguien, ejercer influencia social o extraer información sobre otra persona sin su consentimiento son tan antiguos como el comportamiento humano”, dice Ienca.
“A medida que se vuelve cada más más posible recopilar datos relacionados con la actividad cerebral de una persona, existe un mayor riesgo de que estos puedan ser sujetos a riesgos cibernéticos al igual que todos los demás tipos de datos digitales que conocemos”, explica el profesor de bioética.
“Por ejemplo, si algunos actores malévolos interfieren en el dispositivo de neuroestimulación de un paciente, esta interferencia podría resultar en un daño físico y sicológico directo a la víctima”, dice Ienca.
Qué significa “leer la mente”
Sin embargo, resulta bastante complejo definir qué se determina por violación del derecho moral de una persona a su privacidad cuando existe neurotecnología que ‘lee la mente’ de forma involuntaria.
“La ‘lectura mental’ implica que entendemos completamente el lenguaje del cerebro y, por lo tanto, podemos decodificar el contenido de estos estados mentales como los recuerdos. Personalmente, creo que todavía estamos lejos de esto porque no entendemos completamente el lenguaje del cerebro”, sostiene Ienca.
De todas maneras, lo que se discute en los departamentos de ética en relación con el cerebro y su extracción de información sin consentimiento consiste en que la inteligencia artificial hace que cada vez sea más posible decodificar señales cerebrales. “Esto es suficiente para plantear preguntas fundamentales sobre la privacidad”, dice el docente suizo.
En este contexto, mientras se generalizan las neurotecnologías se puede registrar cada vez más información cerebral. Es así como en el ecosistema digital los riegos para la privacidad serán aún más pronunciados.
El control político
“En la era tecnológica actual nos estamos acostumbrando al hecho de que la privacidad se está reduciendo y las empresas (y en ocasiones los gobiernos) pueden acceder a nuestros datos en contra de nuestra voluntad. He argumentado que no debemos permitir que esto ocurra con los datos cerebrales, porque cuando esa información desaparece, entonces todo lo hace”, expresa Ienca.
La disyuntiva es compleja y my profunda, pero puede resumirse de manera muy simple. “Si puedes entrar al cerebro con tecnología, descifrar lo que está adentro y cambiarlo, estás descifrando y cambiando la mente humana”, comenta el neurobiólogo e impulsor del proyecto Brain Research Through Advancing Innovative Neurotechnologies (Brain) Rafael Yuste en Un Día Perfecto, de Radio PAUTA.
“Por eso necesitamos derechos humanos que protejan la esencia del ser humano de potenciales abusos de la neurotecnologías. Porque la mente humana es lo que somos: nuestra percepción, nuestras ideas, la memoria, las emociones y el comportamiento”, afirma Yuste.
Las neurotencologías y los militares
De esta forma, surge la relevancia de la continuidad sicológica, parte de la nueva investigación de Ienca acerca de las neurotecnologías y la privacidad mental. “La definimos como el derecho a preservar la identidad personal de las personas y la continuidad de su vida mental a propósito de la alteración externa no consentida por parte de terceros”, explica el académico.
Es un tema importante en el contexto de los usos de la neurotecnología para la seguridad nacional, donde las intervenciones obligatorias de cambio de personalidad podrían estar justificadas a la luz de objetivos estratégicos más cruciales.
“Por ejemplo, las intervenciones cerebrales que reducen la necesidad de dormir de los combatientes ya están siendo usadas en el Ejército. Entonces es fácil imaginar intervenciones que algún día podrían hacer que los soldados sean más beligerantes o intrépidos”, dice Ienca.
Ya en 2012, la sociedad científica inglesa The Royal Society publicó un informe acerca de “Neurociencias, conflicto y seguridad”, respecto del uso de drogas en los soldados. En este informe se argumenta que tomar agentes farmacológicos puede permitir ventajas sobre el enemigo y, además, mejorar el rendimiento físico. Pero, por otro lado, el uso de estas drogas de forma obligatoria puede suponer un tipo de coerción.
Los seres humanos: una especie mental
Hace 33 años Yuste dejó España para vivir en Estados Unidos. Fue en 2013 cuando se lanzó el proyecto Brain. Durante el mandato de Barack Obama se reunieron científicos con el fin de reconstruir el cerebro humano e investigar más acerca de enfermedades como el alzhéimer, la depresión, el párkinson y la lesión cerebral traumática. La pregunta que si hicieron fue ‘si el ser humano pudo llegar a Marte, ¿por qué no puede curar a los enfermos?’.
“Para eso se necesita tecnología. Los seres humanos somos una especie mental. Todo lo que hacemos tiene que ver con nuestras habilidades mentales y cognitivas”, dice Yuste.
{{noticia:85090}}
“La neurotecnología es para poder leer y escribir la actividad en el cerebro. Y las tecnologías para leer están muy por delante de las tecnologías para escribir. Hay tecnologías donde te meten un chip dentro del cerebro, que requiere neurocirugía, y tecnologías no invasivas que te ponen un casco o una diadema y con eso registran actividad cerebral”, detalla el investigador español.
En este sentido, como explica a PAUTA David Lawrence, especialista en neuroinmunología e inmunotoxicología del Departamento de Salud del Centro Wadsworth en Nueva York, muchas tecnologías se están investigando para recopilar señales de regiones cerebrales seleccionadas y estimular una región.
{{noticia:84620}}
Respecto de cómo esta innovación puede aportar en sus áreas de investigación, Lawrence cuenta acerca del uso de implantes para recolectar niveles de factores solubles que influyen en diferentes neuronas y en las células inmunes.
Por otro lado, la neurotecnología ayuda a encontrar a quienes presentan más actividades inflamatorias en contraste con aquellos que presentan mayores actividades antiinflamatorias. “Este equilibrio cambia naturalmente durante el desarrollo del cerebro, pero puede verse perjudicado debido a diferentes tipos de factores ambientales estresantes”, señala Lawrence.
Los tipos de neurotecnología
Como define la Comisión de Ciencia y Derecho en un reporte de la New York Bar Association, “la neurociencia es la ciencia que se ocupa del desarrollo, la estructura, el funcionamiento, la química, la farmacología y la patología en el sistema nerviosos humanos”.
{{noticia:84344}}
De esta forma, “está dirigida a explorar la arquitectura y funciones del cerebro, además de sus efectos ante estímulos en partes del cerebro y su funcionamiento”.
El cerebro esconde múltiples laberintos. Esta neurotecnología nos permitirá por primera vez entrar dentro de esta caja negra, estudiarla y entenderla.
Quizás algunos de estos avances recuerdan un poco a capítulos de la serie Black Mirror (2011-2019).
Dentro de las innovaciones que espera que salgan al público se encuentra “el dispositivo ‘pensamiento al texto’ de Facebook. Es una especie de cámara que lee la actividad cerebral y el objetivo es poder escribir a máquina la palabra que uno está pensando, sin escribirla con los dedos”, cuenta Yuste.
{{noticia:83592}}
Chile, un modelo
Durante el Consejo del 11 de diciembre de 2019 la OCDE creó la primera guía internacional para tratar una “Innovación Responsable en las Neurotecnologías”, el cual tiene como adherentes a 37 países. Entre ellos Chile.
Esta estandarización se confeccionó considerando que pese al enorme aporte que traen las neurotecnologías a las rehabilitaciones, existe la creciente preocupación global de que los problemas de gobernanza que rodean este tipo de desarrollo tecnológico afecten toda la línea de innovación. Desde la investigación del cerebro, la neurociencia cognitiva y otras ciencias inspiradas en el cerebro hasta el marketing y la comercialización.
{{noticia:82912}}
“Chile es un país líder en legislaciones de derechos humanos y en legislación de la defensa de la ciudadanía. Por ejemplo, la ley de etiquetado ha sido una ley líder. Se está copiando en otros países”, cuenta Yuste.
Y ahora, “es la primera vez que esto se aborda la neuroprotección desde el punto de vista jurídico. Chile pasó a ser pionero en el mundo”, afirma el propulsor de Brain.