Violencia tecnológica y Neuroderechos

¿Las máquinas tienen derechos? ¿Qué son los Neuroderechos?
Cuando la manipulación de la mente supera la ética

Ciertamente las máquinas son objetos pasivos y no sujetos del dilema ético,
pero la controversia acerca de su legitimación jurídica, da lugar a lo que David
J. Gunkel denomina en su obra como Robot Rights . Es que las acciones de
las máquinas fuera de los entornos controlados, plantean espinosas cuestiones
relativas a la seguridad personal, la salvaguarda de la privacidad, el impacto
ambiental, los alcances socioeconómicos, la ética y dignidad. Pero, sin
embargo, todas las iniciativas legislativas relativas a los robots abundan en
aspectos que atañen unicamente a la responsabilidad civil de sus actos. En
este sentido, la resolución del Parlamento Europeo del 16 de febrero de 2017,
menciona recomendaciones de derecho civil sobre robótica, contemplando la
necesidad de “crear a largo plazo una personalidad jurídica específica para los
robots, de forma que, como mínimo, los robots autónomos más complejos
puedan ser considerados personas electrónicas responsables de reparar los
daños que puedan causar, y posiblemente aplicar la personalidad electrónica a
aquellos supuestos en los que los robots tomen decisiones autónomas
inteligentes o interactúen con terceros de forma independiente”.

Pero los posibles usos de la IA en la vida real , van más allá del debate inicial
sobre la conducción autónoma, que parece ser el único motivo de consideración
de los derechos y obligaciones de las máquinas. El dilema sobre si el vehículo
debe proteger al conductor a toda costa o si, llegado el caso, podría sacrificarlo
para salvar la vida de un grupo de peatones, impuso la responsabilidad implícita
en el fabricante y programador de la máquina o solución y, por otro lado, la
responsabilidad en el usuario. Pero los derechos y obligaciones de las
máquinas, siguen siendo un tema de preocupación que enmarca situaciones
especiales como los soldados-robot que ya han participado en algunas
maniobras militares de las principales potencias armamentísticas, y la pregunta
es: 

¿En qué casos estarían autorizados para matar? ¿En qué otra situación
debe optar esa máquina por la autodestrucción?
Este último ejemplo de los
robots soldados chocaría con la primera de las tres leyes que dejó formuladas Isaac Asimov en 1950: “Un robot no puede dañar  a un ser humano o, por su
inacción, dejar que un ser humano sufra daño”.

En el plano laboral, algunas empresas plantean emular las soluciones utilizadas
en el último Mundial de Rusia para medir el rendimiento de los futbolistas, e
incorporarlas a los trabajadores de su planta, y así monitorizar los movimientos
de sus empleados. Esto mejoraría el sistema de geolocalización ya utilizado por
plantas de logística para asignar a cada operario en tiempo real nuevos
encargos de pedidos, de acuerdo al lugar donde se encuentren, y ahorrarles
desplazamientos innecesarios. Pero el debate sigue pendiente… ¿Quién fijará
las normas éticas para la inteligencia artificial? ¿Una persona tendrá la
capacidad de ser Dios y dictaminar qué está bien y qué está mal? ¿Qué son los
neuroderechos?.

Hace más de 15 años, en la película “El eterno resplandor de una mente sin
recuerdos”, se cuenta la historia de amor y desamor de Joel (Jim Carrey) y
Clementine (Kate Winslet). Luego de terminar el vínculo, ella decide ir a una
clínica para borrar todo los recuerdos de la relación que tuvo con Joel quien
luego también se somete a ese mismo proceso. En aquellos años era ciencia
ficción, hoy es realidad. Facebook exhibe una muñequera capaz de leer las
señales neurológicas enviadas desde el cerebro de un usuario hasta las manos
y Pager un mono de 9 años, fue implantado con dos chips a ambos lados del
cerebro capaces de monitorear la actividad de sus neuronas. En los
laboratorios de la empresa Neuralink, de Elon Musk el límite entre la ficción y la
realidad se vuelve efímero y el Black Mirror se convierte en el escenario de lo
cotidiano.

Lo que era imposible de materializar hoy tiene un nombre: la
NEUROTECNOLOGÍA. Se trata de la utilización de un conjunto de
herramientas idóneas para analizar e influir en el cerebro humano. Una ciencia
con múltiples usos positivos en el área de la medicina, pero con sombras
cuanto menos polémicas, que la convierten en una fuente virulenta de violencia
tecnológica

“Estas neurotecnologías leen directamente tu cerebro, pueden
mirar directamente, saben que estás pensando, sintiendo. No necesitan la
intermediación de datos. Pueden, a partir de tus ondas cerebrales y tu
funcionamiento neuronal leer lo que tu piensas, sientes e incluso tu
inconsciente, pero si lo pueden leer también pueden escribirlo y pueden poner
en tu cerebro, sin que tú te des cuenta, pensamientos que no son
tuyas, historias de vida que tú no viviste, y que tu cerebro no distingue que son
de diseño externo que tú no sabes, y pueden poner amores u odios
”, analizó
Guido Girardi, principal impulsor de la reforma constitucional chilena y
presidente de la Comisión Desafíos del Futuro del Senado de Chile.

En ocasión de escribir mi libro “Teletrabajo y Neurotecnologia”, de Editorial
Granica
, sentí la necesidad de analizar la aplicación de las Tic en el trabajo,
desde un modo humanizado, tratando de hacer un buen uso de la tecnología
pero proviniendo los daños que su mal uso o abuso puede provocar en el
cerebro. Ciertamente, es el cerebro el órgano encargado de mantener con vida
nuestro organismo, y conforma conjuntamente con la mente, un sistema que
interactúa con el entorno, modificándose recíprocamente en un proceso de
interdependencia permanente. La inteligencia humana es una función activa de
la mente que en sinergia con la inteligencia artificial conforman un equipo
imparable. La R.A.E. define a la Inteligencia Artificial, como la disciplina
científica que se ocupa de crear programas informáticos que ejecutan
operaciones comparables a las que realiza la mente humana, como el
aprendizaje y el razonamiento lógico. En otras palabras, inteligencia artificial es
el desarrollo de algoritmos de computación que están basados en lo que
pensamos que ocurre dentro del cerebro. Neurociencia + tecnología es la
fórmula resultante de la aplicación de la inteligencia artificial a través de
algoritmos, programados por nuestra mente.

Las neurotecnologías incluyen simulaciones de modelos neurales,
computadores biológicos, aparatos para interconectar el cerebro con sistemas
electrónicos y aparatos para medir y analizar la actividad cerebral. La
posibilidad de conectar nuestro cerebro a una máquina puede interferir en las
decisiones cotidianas del individuo, entonces… donde está el discernimiento?
Un agente tecnológico externo puede recopilar datos personales y cualquier
tipo de información desde el ámbito más privado del ser humano, logrando así
interpretar sus pensamientos. Esta posibilidad de leer el cerebro y, en
definitiva, poder mejorar ciertas capacidades humanas, puede generar
desigualdades, discriminación, y una suerte de conflicto de intereses que
requieren por parte del Derecho una respuesta concreta. Es necesario
entonces, contar con un régimen normativo que regule el avance y la aplicación
de la neurotecnología, por eso hablamos de los neuroderechos.
Neuroderechos y neurodatos.

Neuroderechos y neurodatos.

Rafael Yuste, director del Centro de Neurotecnología de la Universidad de
Columbia (EE.UU) y quien lidera el Proyecto BRAIN (Brain Research Through
Advancing Innovative Neurotechnologies), iniciativa estadounidense que
desde 2013, busca comprender el funcionamiento de las redes sinápticas de
nuestro cerebro, propone la creación de cinco neuroderechos:

1- Derecho a la privacidad mental: La actividad de las neuronas – que son el
soporte del pensamiento y mente – no deberían ser sacados del cerebro sin el
consentimiento del individuo y no se podrían utilizar en forma comercial.

2- Derecho a la identidad personal: Cuando conectemos el cerebro a una
interfaz inteligente, es posible que el individuo deje de ser individuo en gran
parte. Cuanto más conectados a la red estemos, menos “yo” seremos y se
podría desdibujar la línea entre la conciencia de una persona y las entradas
tecnológicas externas.

3- Derecho al libre albedrío: Cuando una persona toma una decisión, lo hace
porque así lo quiere. Pero si está conectado a través de lectores de actividad
cerebral a una computadora, puede que ésta sea , la máquina, la que tome la
decisión, o también alguien conectado a ella, resultando invasivo para el
cerebro. Por ello, el individuo debe tener el control final sobre su propia toma
de decisiones, sin manipulación de neurotecnologías externas.

4- Derecho al acceso equitativo al aumento de neurocognición: La
utilización de algoritmos puede mejorar la actividad cerebral. Este aumento
cognitivo no va a ser económico, ni accesible a todos. Por ello, debe ser un
derecho humano con acceso equitativo y justo para toda la sociedad.

5- Derecho a la protección de sesgos algorítmicos: Esta conexión puede
generar discriminación entre sexos, razas o personas de otro pensamiento
político.

Podemos definir lo neuroderechos como los nuevos derechos humanos que protegen la privacidad e integridad mental y psíquica (tanto consciente como inconsciente), de las personas, respecto al uso abusivo de las neurotecnologias. Yuste da un paso mas, y crea una nueva categoría de datos personales: los neurodatosconsiderándolos órganos humanos. En palabras de Yuste, “habrá una línea que no se puede cruzar porque quedarían establecidos como los órganos humanos, que se pueden donar y recibir con fines médicos o altruista, pero no comerciales”. 

El hito histórico, en la materia, fue en el año 2019, cuando veinticinco expertos en medicina, bioética, derecho y otras disciplinas propusieron añadir nuevos neuroderechos, sobre la Declaración Universal de DDHH de Naciones Unidas, buscando legislar sobre el resguardo de los datos de la mente humana, estableciendo asi los límites respecto de la lectura y la escritura en el cerebro, con una distribución equitativa de acceso a estas tecnologías y fijando los límites de los neuroalgoritmos.

El grupo de presidentes del PROSUR, (que es un espacio de diálogo y cooperación de todos los países de América del Sur para avanzar hacia una integración más efectiva que permita el crecimiento, progreso y desarrollo de los países suramericanos) ha interactuado con el presidente de Francia, Macron, para que la OEA incorpore un nuevo derecho humano en la declaración universal de derechos humanos. Obviamente es inclusivo de todos los países, pues se trata de la democracia transnacional, es el ciberespacio, donde no existe la frontera de los estados nacionales. 

Destaco en este sentido, la frase de Estéban Lerardo, filósofo, escritor y autor del libro Mundo virtual: Black Mirror, postapocalipsis y ciberadicción, “Nunca tenemos que olvidar los aspectos peligrosos que supone la construcción de este mundo, cada vez más mediado por una invasión y mejoramiento de los medios tecnodigitales. Hay aspectos sumamente prometedores, pero hay otros que requieren una mirada de alerta”.

Desde el Método GNT, el poder gestionar las reacciones que producen las emociones, es sin lugar a dudas la clave para el buen uso de la tecnología. Entonces a través de las diferentes prácticas de respiración, meditación, yoga, mindfulness, programación neurolingüística, y pensamiento lateral podemos lograr el detox y salvaguardarnos de la violencia tecnológica. Así, como la música, activa la empatía en nuestro cerebro, equilibrando con eficacia nuestros sentimientos y emociones, la actividad mental cambia y nosotros podemos entrenarnos para que un uso humanizado de las Tic sea posible. Y desde la música, (a la cual volví en tiempos de pandemia), Pink Floyd nos decía: “Hay alguien en mi cabeza pero no soy yo” … Esta consideración de la ajenidad
en mi cerebro, de la privacidad mental , nos lleva al ordenamiento argentino, a
nuestra Constitución Nacional y a su art. 19, que reza: “Las acciones privadas de los hombres que de ningún modo ofendan al orden y a la moral pública, ni perjudiquen a un tercero, están sólo reservadas a Dios, y exentas de la autoridad de los magistrados. Ningún habitante de la Nación será obligado a hacer lo que no manda la ley, ni privado de lo que ella no prohíbe”

Pero parecería que la neurotecnologia podría vulnerar este derecho constitucional.
En este sentido, la Ley de Protección de Datos Personales (Ley 25326, ) dispone que: “La presente ley tiene por objeto la protección integral de los datos personales asentados en archivos, registros, bancos de datos, u otros medios técnicos de tratamiento de datos, sean éstos públicos, o privados destinados a dar informes, para garantizar el derecho al honor y a la intimidad de las personas, así como también el acceso a la información que sobre las mismas se registre, de conformidad a lo establecido en el art. 43, párrafo tercero de la Constitución Nacional”. Entonces, estarían comprendidos los derechos a la privacidad mental y a la identidad personal. Los parámetros éticos representan el limite a fin de evitar que los individuos sean dañados o explotados por quienes manipulan sus datos amparándose en el
consentimiento que cada persona pueda otorgar.

Pero, en otro sentido, si esta neurotecnología puede aumentar mi sesgo cognitivo, si unos pocos pueden acceder a mejorar el cerebro y la mente a través de algoritmos, pagando por este acceso tecnológico, ello generaría desigualdades. El aumento cognitivo implica un cambio radical en la concepción misma de lo que consideramos como “humano”. 

En palabras de Yuste, “Estas tecnologías van a ser muy caras, y sólo ciertos grupos sociales en ciertos países tendrán acceso a ellas. A raíz de dicho escenario, creemos
necesario el desarrollo de políticas públicas”
, pues parafraseando a Santiago
Bilinkis, “Hay un paso peligrosamente corto entre que la mejora mental sea
posible a que se vuelva imprescindible”
…. ¿En qué punto, con la incorporación de partes no biológicas en el cuerpo y la mente, una persona deja de ser humana? Debemos considerar que los algoritmos son creados por seres humanos (programadores), quienes conscientemente o no pueden interferir en los mismos con sus prejuicios, generando sesgos muy difíciles de cambiar.
Las sombras de la tecnología crecen y se vuelven peligrosas. En este sentido, la Unión Europea (UE) prepara un borrador para regular los usos permitidos de los mecanismos de inteligencia artificial (IA), y en él establece prohibiciones para usos como los sistemas de vigilancia masiva y las tecnologías que valoran a las personas de forma predictiva. Además, la idea es que los sistemas de alto riesgo pasen a tener una mayor supervisión. Los avances en las neurociencias, las disciplinas científicas que estudian el comportamiento del cerebro y buscan fundamentos biológicos a la conducta del ser humano, han dado vida a un movimiento cuya aspiración es protegernos de posibles abusos e injerencias. Desde este movimiento, los neuroderechos condensan las amenazas que representan estos avances y ante las que hay que parapetarse. 

Elisa Moreu, doctora en Derecho y profesora titular de Derecho Administrativo de la Universidad de Zaragoza, lo expone de esta forma: “Para los juristas, la neurociencia es un desafío apasionante porque nos ayudará a conocer -y quizás prevenir- las causas por las que las personas infringen las leyes y cometen delitos. Sin embargo, también constituye una amenaza porque si se puede manipular el cerebro
desaparece el ‘libre albedrío’ o la ‘libre elección’
.” ¿Tiene sentido abanderar la neurociencia y los neuroderechos a la vez? Aunque Moreu reconoce que “parece contradictorio”, destaca más bien el mensaje que subyace: “Indica dos cosas. Primero, que estamos ante un riesgo real y no potencial. Y segundo, que los neurocientíficos son ante todo seres humanos muy conscientes de las implicaciones éticas de sus avances”. Los objetivos que se perfilan tras las investigaciones de la neurociencia son tan ambiciosos y a la vez tan cruciales como encontrar qué se esconde tras enfermedades como el Alzheimer, el Parkinson, la epilepsia o la esquizofrenia, y
contrarrestarlo.  Pero también entraña un lado oscuro, en los usos menos éticos, que se le puede dar por parte de empresas y gobiernos. 

CAPITALISMO DE VIGILANCIA, un concepto controvertido.

Hubo un tiempo en el que buscábamos en Google. Ahora Google busca en nosotros. Pensamos que son compañías innovadoras que ocasionalmente cometen errores que violan la privacidad, cuando la realidad es que esos errores son las innovaciones”, sostiene Shoshana Zuboff en lo que denomina como “La era del capitalismo de la vigilancia” (Paidós). “Si en el capitalismo industrial se explotaba al máximo la naturaleza y hoy vivimos una emergencia climática, el nuevo capitalismo de la vigilancia, creado por Google pero seguido por empresas digitales y no digitales, explota con afán la propia naturaleza humana para convertirla en predicciones sobre nuestra conducta que comercializar”, señala Zuboff, quien es catedrática emérita de la Harvard Business School y que a finales de los ochenta ya publicó La era de la máquinainteligente.
En el mundo digital, pequeñas compañías intentaron averiguar cómo hacer dinero en él, las “”puntocom “”explotaron. Google se transforma en el bosque virgen, un nuevo espacio de extracción y mercantilización, y allí nace el capitalismo de vigilancia, que explica Zuboff con las capitalizaciones de Google, Facebook, Amazon, Microsoft, Apple y miles de compañías no solo en el sector tecnológico. 

El CEO de Ford dice que quiere atraer financiación como la de Google y Facebook pero nadie está interesado, por lo que cambiará Ford y será un sistema operativo de transporte que extraerá datos de la gente que conduce sus coches y los agregará en Ford Credit para crear grandes bases de datos y atraer inversores, es el dividendo de la vigilancia, sostiene Zuboff. Documentos filtrados de Facebook muestran que en sus fábricas, la inteligencia artificial toma trillones de datos al día y hace seis millones de predicciones de comportamiento humano cada segundo. Y como la competición en este mercado se intensifica descubren que los datos más predictivos vienen de cómo intervenir en nuestro comportamiento para garantizar resultados comerciales. Facebook en 2013 hizo experimentos que mostraban cómo manipular con señales subliminales, dinámicas de comparación social, microtargeting psicológico y premios y castigos. Con una recopilación de datos muy inteligentes vieron que podían
afectar el comportamiento en el mundo real. Fue en 2018 cuando con Cambridge Analytica, vimos que los métodos de Facebook se usaban a gran escala, pasando de objetivos comerciales a políticos. La campaña de Trump usó los datos de Facebook para apuntar psicológicamente a muchos votantes negros y persuadirles de no votar en el 2016, una de las claves por las que Hillary perdió.
La clave está en la dualidad que genera la neurociencia y en cómo ésta se
amplifica valiéndose de la tecnología.  Explica Adrián Sabafrén, psicólogo y científico de datos, del Colegio de Economistas de Madrid.  “La economía de la conducta (Behavioral Economics ) incorpora otros recursos con los que realizar un análisis más completo y comprender cómo nos comportamos los humanos. Es decir, tener en cuenta factores tanto externos como inherentes a la persona” Uno de sus conceptos claves son los HEURÍSTICOS, que son los atajos que toma nuestra mente a la hora de enfrentarse ante una elección. 

De forma general, dependemos de mecanismos predeterminados por influencia cultural, por nuestras creencias, por nuestras características psicológicas, o incluso por condiciones biológicas. 

"Es muy importante poder gestionar nuestras reacciones, conocer nuestro cerebro y entrenar nuestra inteligencia para lograr mantener nuestra esencia humana y utilizar las Tic como herramientas y no como razón de ser de nuestra existencia, de esto se trata el método GNT, saber distinguir aquellos factores que de forma involuntaria interfieren en nuestra mente y que nos llevan a la irracionalidad."

Este artículo forma parte de la revista Ideides, edición Enero 2022

Haciendo click en la imágen pueden ver la revista completa

Related Articles

El Big Data

El mundo habla de Big Data y no siempre se comprende muy bien qué es y en qué situaciones puede ser útil. Sin duda, no es cuestión…