• Hace 16 años, Dennis DeGray quedó paralítico durante un accidente. Pero ahora los implantes que tiene el su cerebro le permiten cierto grado de control

Esta es una traducción hecha por El Diario de la nota The Man Who Controls Computers With His Mind, original de The New York Times. 

Durante la noche del 10 de octubre de 2006, la mente de Dennis DeGray casi se separó de su cuerpo. Luego de un día de pesca, regresó a su casa en Pacific Grove, California, y se dio cuenta de que aún no había sacado la basura. Estaba lloviendo bastante fuerte, por lo que decidió correr desde la puerta hasta los botes de basura que estaban afuera con una bolsa en cada mano. En el camino, se resbaló con una mancha de moho negro debajo de unos robles, aterrizó con fuerza sobre su barbilla y se partió el cuello entre la segunda y la tercera vértebra.

Mientras se recuperaba, DeGray (que tenía 53 años de edad en ese momento) se enteró por sus médicos que había quedado paralítico permanentemente de la clavícula para abajo. A excepción de los espasmos vestigiales, no puede mover el torso ni las extremidades. “Estoy tan lastimado como se puede estar o no conectado a una máquina”, me dijo. Varios años después del accidente, “simplemente permanecía allí, mirando History Channel” mientras luchaba por aceptar la realidad.

Un tiempo más tarde, durante un evento de recaudación de fondos para la investigación con células madre, conoció a Jaimie Henderson, profesora de neurocirugía en la Universidad de Stanford. Ambos comenzaron a hablar sobre robots, un tema que le había interesado durante mucho tiempo a DeGray, quien creció en el taller de máquinas de su familia. Según recuerda DeGray, Henderson lo cautivó con una sola pregunta: ¿quieres volar un dron?

Henderson explicó que ella y sus colegas habían estado desarrollando una interfaz cerebro-computadora: una conexión experimental entre el cerebro humano y un dispositivo externo -como una computadora, una extremidad robótica o un dron- que la persona podía controlar con solo pensar. DeGray estaba ansioso por participar y finalmente se mudó a Menlo Park para estar más cerca de Stanford mientras esperaba una oportunidad en el estudio y los permisos necesarios. 

En el verano de 2016, Henderson abrió el cráneo de DeGray y expuso su corteza, la capa delgada y arrugada más externa del cerebro, en la que implantó dos conjuntos de electrodos de cuatro por cuatro milímetros, que se asemejan a camas de clavos en miniatura. Cada conjunto tenía 100 diminutas puntas de metal que, en total, registraban impulsos eléctricos que surgían a lo largo de cientos de neuronas en la corteza motora, una región del cerebro involucrada en el movimiento voluntario.

Después de un periodo de recuperación, varios de los colaboradores de Henderson se reunieron en la casa de DeGray y lo colocaron frente a la pantalla de una computadora que mostraba un anillo de ocho puntos blancos, del tamaño de monedas de 25 centavos, que se turnaban para brillar de color naranja. La tarea de DeGray era mover un cursor hacia el punto brillante usando solo sus pensamientos. Los científicos conectaron cables a pedestales de metal que sobresalían de la cabeza de DeGray, y que transmitían las señales eléctricas registradas en su cerebro a un decodificador: una red cercana de computadoras que ejecutan algoritmos de aprendizaje automático.

Los algoritmos fueron construidos por David Brandman, en ese momento un estudiante de doctorado en Neurociencia, quien colaboraba con el equipo de Stanford a través de un consorcio conocido como BrainGate. Los diseñó para asociar rápidamente distintos patrones de actividad neuronal con diferentes movimientos dirigidos de la mano, y para actualizarse cada dos o tres segundos, en teoría siendo más precisos cada vez. Si las neuronas en el cráneo de DeGray eran como notas de un piano, entonces sus distintas intenciones eran análogas a composiciones musicales únicas. Un intento de levantar la mano coincidiría con una melodía neuronal, por ejemplo, mientras que intentar mover la mano hacia la derecha correspondería a otra. A medida que el decodificador aprendió a identificar los movimientos que buscaba DeGray, envió comandos para mover el cursor en la dirección correspondiente.

Brandman le pidió a DeGray que imaginara un movimiento que le diera un control intuitivo del cursor. Mirando la pantalla de la computadora, buscando en su mente una manera de comenzar, DeGray recordó una escena de la película Ghost, en la que el difunto Sam Wheat (interpretado por Patrick Swayze) desliza invisiblemente un centavo por una puerta para demostrarle a su novia que todavía existe, pero de forma espectral. DeGray se imaginó a sí mismo empujando el cursor con el dedo como si fuera un centavo, arrastrándolo hacia el objetivo. Aunque era físicamente incapaz de mover la mano, trató de hacerlo con todas sus fuerzas. Brandman estaba encantado de ver que el decodificador funcionaba tan rápido como esperaba. En 37 segundos, DeGray obtuvo el control del cursor y alcanzó el primer punto brillante. En varios minutos golpeó docenas de objetivos seguidos.

Solo pocas docenas de personas en el planeta han tenido interfaces neuronales incrustadas en su tejido cortical como parte de una investigación clínica a largo plazo. DeGray es ahora uno de los más experimentados y dedicados entre ellos. Desde esa prueba inicial, ha pasado más de 1.800 horas en casi 400 sesiones de entrenamiento controlando varias formas de tecnología con su mente. Jugó un videojuego, manipuló una extremidad robótica, envió mensajes de texto y correos electrónicos, compró productos en Amazon e incluso voló un dron –solo un simulador, por el momento– todo sin mover un dedo. Juntos, DeGray y otros voluntarios similares, están explorando la frontera de una tecnología con el potencial de alterar fundamentalmente la forma en que interactúan los humanos y las máquinas.

Los científicos e ingenieros han estado creando y estudiando interfaces cerebro-computadora desde la década de 1950. Dado que gran parte del comportamiento del cerebro sigue siendo un misterio, sobre todo por cómo surge la conciencia en entre 1.300 y 1.400 gramos de gelatina eléctrica, los logros agregados de tales sistemas son notables. Las personas paralíticas con interfaces neuronales han aprendido a tocar melodías simples en un teclado digital, controlar exoesqueletos y maniobrar miembros robóticos con la destreza suficiente para beber de una botella. En marzo, un equipo de científicos internacionales publicó un estudio que documenta por primera vez que alguien con parálisis total en todo el cuerpo usó una interfaz cerebro-computadora para transmitir sus deseos y necesidades formando oraciones letra por letra.

Las interfaces neuronales también pueden crear vías bidireccionales de comunicación entre el cerebro y la máquina. En 2016, Nathan Copeland, quien quedó paralítico del pecho hacia abajo por un accidente automovilístico, no solo golpeó al entonces presidente Barack Obama con una mano robótica, sino que también experimentó la sensación táctil del golpe en su propia mano cuando la prótesis le devolvió con electrodos las señales en su cerebro, estimulando su corteza sensorial. Mediante la combinación de tecnología de imágenes cerebrales y redes neuronales, los científicos también han descifrado y parcialmente reconstruido imágenes de la mente de las personas, produciendo imitaciones brumosas que se asemejan a Polaroids desgastadas o pinturas al óleo con manchas.

La mayoría de los investigadores que desarrollan interfaces cerebro-computadora dicen que están interesados ​​principalmente en aplicaciones terapéuticas, es decir, en restaurar el movimiento y la comunicación de personas paralíticas o discapacitadas. Sin embargo, el evidente potencial de dicha tecnología, y el creciente número de empresas emergentes de alto perfil que la desarrollan, sugieren la posibilidad de una adopción mucho más amplia: un futuro en el que las interfaces neuronales realmente mejoren las habilidades innatas de las personas y les otorguen otras nuevas, además de restaurar aquellas que se han perdido.

En la historia de la vida en la Tierra, nunca nos hemos encontrado con una mente sin cuerpo. La cognición altamente compleja siempre se ha situado en un marco físico intrincado, ya sean ocho brazos con ventosas, cuatro extremidades peludas o un conjunto de plumas y pico. La tecnología humana a menudo amplifica las capacidades inherentes del cuerpo o extiende la mente al entorno que lo rodea a través del cuerpo. Arte y escritura, agricultura e ingeniería: todas las innovaciones humanas han dependido de la capacidad del cuerpo para manipular físicamente cualquier herramienta que imagine la mente y, por lo tanto, se han visto limitadas por ella. Si las interfaces cerebro-computadora cumplen su promesa, quizás la consecuencia más profunda sea esta: nuestra especie podría trascender esas limitaciones, pasando por alto el cuerpo a través de una nueva fusión de mente y máquina.

Ilustración de Dadu Shin

Ilustración de Dadu Shin

En una mañana de primavera de 1893, durante un ejercicio de entrenamiento militar en Würzburg, Alemania, un joven de 19 años de edad llamado Hans Berger fue derribado de su caballo y casi muere aplastado por la rueda de un cañón de artillería. Esa misma mañana, su hermana, a casi 100 kilómetros de distancia en Coburg, tuvo un presentimiento y persuadió a su padre para que enviara un telegrama preguntando por el bienestar de su hermano. Esa premonición aparentemente telepática obsesionó a Berger, obligándolo a estudiar los misterios de la mente. Sus esfuerzos culminaron en la década de 1920 con la invención de la electroencefalografía: un método para registrar la actividad eléctrica en el cerebro mediante electrodos adheridos al cuero cabelludo. Los patrones oscilantes que producía su aparato, similares a los garabatos de un sismógrafo, fueron las primeras transcripciones de la actividad celular del cerebro humano.

En las décadas siguientes, los científicos aprendieron nuevas formas de registrar, manipular y canalizar las señales eléctricas del cerebro, construyendo puentes cada vez más elaborados entre la mente y la máquina. En 1964, José Manuel Rodríguez Delgado, un neurofisiólogo español, detuvo la embestida de un toro utilizando electrodos controlados por radio incrustados en el cerebro del animal. En la década de 1970, el profesor de la Universidad de California en Los Ángeles, Jacques Vidal, acuñó el término interfaz cerebro-computadora y demostró que las personas podían guiar mentalmente un cursor a través de un simple laberinto virtual. A principios de la década de 2000, el neurocientífico Miguel Nicolelis de la Universidad de Duke y sus colaboradores habían publicado estudios que demostraban que los monos a los que se les habían implantado interfaces neuronales podían controlar prótesis robóticas con la mente. En 2004, Matt Nagle, quien quedó paralítico de los hombros para abajo, se convirtió en el primer ser humano en hacer lo mismo. Además, aprendió a usar sus pensamientos solo para jugar Pong (un videojuego), cambiar canales en un televisor, abrir correos electrónicos y dibujar un círculo en la pantalla de una computadora.

Desde entonces, el ritmo de los logros en el campo de las interfaces cerebro-computadora ha aumentado considerablemente, gracias en parte al rápido desarrollo de la inteligencia artificial. El software de aprendizaje automático ha mejorado sustancialmente la eficiencia y la precisión de las interfaces neuronales al automatizar algunos de los cálculos necesarios y anticipar las intenciones de los usuarios humanos, de manera similar a como su teléfono o correo electrónico ahora tienen texto predictivo asistido por inteligencia artificial. El año pasado, el neurocirujano Edward Chang de la Universidad de California en San Francisco, y una docena de colaboradores, publicaron un estudio histórico que describe cómo una interfaz neuronal le dio voz a un hombre paralítico de 36 años de edad por primera vez en más de 15 años. Luego de un accidente automovilístico y un derrame cerebral severo a los 20 años de edad, el hombre, conocido como Pancho, perdió la capacidad de producir un habla inteligible. Durante un período de aproximadamente 20 meses, 128 electrodos en forma de disco colocados en la parte superior de la corteza sensoriomotora de Pancho registraron la actividad eléctrica en las regiones del cerebro involucradas en el procesamiento del habla y el control del tracto vocal mientras intentaba pronunciar palabras en voz alta. Un decodificador asoció diferentes patrones de actividad neuronal con diferentes palabras y, con la ayuda de algoritmos de predicción de lenguaje, eventualmente aprendió a descifrar 15 palabras por minuto con un 75 % de precisión en promedio. Aunque esto es solo una fracción de la velocidad del habla típica en inglés (140 a 200 palabras por minuto), es considerablemente más rápido que muchos métodos de comunicación para personas con parálisis severa que apuntan y hacen clics.

En otro estudio innovador publicado el año pasado, Jaimie Henderson y varios colegas, incluidos Francis Willett, un ingeniero biomédico, y Krishna Shenoy, un ingeniero eléctrico, presentaron un enfoque igualmente impresionante pero completamente diferente para la comunicación por interfaz neuronal. Los científicos registraron la activación de las neuronas en el cerebro de Dennis DeGray mientras se visualizaba a sí mismo escribiendo palabras con un bolígrafo en un bloc de notas, tratando de recrear los distintos movimientos necesarios de la mano para cada letra. Escribió mentalmente miles de palabras para que el sistema reconociera de manera confiable los patrones únicos de actividad neuronal específicos de cada letra y las palabras de salida en una pantalla. “Realmente aprendes a odiar a la (letra) M después de un tiempo”, me dijo con su característico buen humor. En última instancia, el método fue extremadamente exitoso. DeGray pudo escribir hasta 90 caracteres o 18 palabras por minuto, más del doble de la velocidad de sus esfuerzos anteriores con un cursor y un teclado virtual. Es el mecanógrafo mental más rápido del mundo. “A veces voy tan rápido que solo se hace un gran borrón”, detalló. “Mi concentración llega a un punto en el que no es raro que me recuerden que debo respirar”.

Los logros en las interfaces cerebro-computadora hasta la fecha se han basado en una combinación de tecnologías invasivas y no invasivas. Muchos científicos en el campo, incluidos los que trabajan con DeGray, confían en una serie de electrodos puntiagudos incrustados quirúrgicamente y producidos por una empresa con sede en Utah: Blackrock Neurotech. Utah Array, como se le conoce, puede diferenciar las señales de las neuronas individuales, proporcionando un control más refinado de los dispositivos conectados, pero la cirugía que requiere puede provocar infección, inflamación y cicatrización, lo que puede contribuir a la eventual degradación de la potencia de la señal. Las interfaces que residen fuera del cráneo, como los auriculares que dependen de un electroencefalograma, actualmente se limitan a interceptar las señales colectivas de grupos de neuronas, sacrificando poder y precisión por seguridad. Para complicar aún más la situación, la mayoría de las interfaces neuronales estudiadas en los laboratorios requieren hardware, cables y un séquito de computadoras complejas, mientras que la mayoría de las interfaces disponibles comercialmente son esencialmente controles remotos para videojuegos, juguetes y aplicaciones rudimentarias. Estos auriculares comerciales no resuelven ningún problema del mundo real y los sistemas más potentes en estudios clínicos son demasiado poco prácticos para el uso diario.

Con este problema en mente, la empresa de Elon Musk, Neuralink, ha desarrollado una serie de hilos de polímero flexibles con más de 3.000 pequeños electrodos conectados a un procesador de señal y radio inalámbrico del tamaño de una tapa de botella, así como un robot que puede implantar quirúrgicamente los hilos en el cerebro, evitando los vasos sanguíneos para reducir la inflamación. Neuralink ha probado su sistema en animales y ha dicho que comenzará las pruebas en humanos este año.

Synchron, con sede en Nueva York, ha desarrollado un dispositivo llamado Stentrode que no requiere cirugía de cerebro abierto. Es una red tubular autoexpandible de electrodos de cuatro centímetros, que se inserta en uno de los principales vasos sanguíneos del cerebro a través de la vena yugular. Una vez colocado, un Stentrode detecta campos eléctricos locales producidos por grupos cercanos de neuronas en la corteza motora y transmite las señales registradas a un transmisor inalámbrico incrustado en el pecho, que las pasa a un decodificador externo. En 2021, Synchron se convirtió en la primera empresa en recibir la aprobación de la Administración de Alimentos y Medicamentos (una agencia del gobierno) para realizar ensayos clínicos en humanos de una interfaz cerebro-computadora que se implanta de forma permanente. Hasta el momento, cuatro personas con diversos niveles de parálisis han recibido Stentrodes y los han utilizado; algunas en combinación con seguimiento ocular y otras con tecnologías de asistencia, para controlar computadoras personales sin supervisión en el hogar.

Philip O’Keefe, de 62 años de edad, de Greendale (Australia), recibió un Stentrode en abril de 2020. Debido a la esclerosis lateral amiotrófica, O’Keefe solo puede caminar distancias cortas, no puede mover el brazo izquierdo y está perdiendo la capacidad de hablar con claridad. Al principio, explicó, tuvo que concentrarse intensamente en los movimientos imaginados necesarios para operar el sistema; en su caso, pensar en mover el tobillo izquierdo durante diferentes periodos de tiempo. “Pero cuanto más lo usas, más se parece a andar en bicicleta”, dijo. “Llegas a una etapa en la que no piensas tanto en el movimiento que necesitas hacer. Piensas en la función que necesitas ejecutar, ya sea abrir un correo electrónico, desplazarte por una página web o escribir algunas letras”. En diciembre, O’Keefe se convirtió en la primera persona en el mundo en publicar en Twitter utilizando una interfaz neuronal: “No se necesitan pulsaciones de teclas ni voces”, escribió mentalmente. “Creé este tuit con solo pensarlo. #holamundobci”.

Thomas Oxley, neurólogo y CEO de Synchron, cree que las futuras interfaces cerebro-computadora se ubicarán entre LASIK (cirugía refractiva) y los marcapasos cardíacos en términos de costo y seguridad, ayudando a las personas con discapacidades a recuperar la posibilidad de relacionarse con su entorno físico y un entorno digital en rápida evolución. “Más allá de eso”, dice, “si esta tecnología le permite a cualquiera interactuar con el mundo digital mejor que con un cuerpo humano común, ahí es donde se vuelve realmente interesante. Para expresar emociones, para expresar ideas, todo lo que haces para comunicar lo que sucede en tu cerebro tiene que suceder a través del control de los músculos. Las interfaces cerebro-computadora finalmente permitirán el paso de información que va más allá de las limitaciones del cuerpo humano. Y desde esa perspectiva, creo que la capacidad del cerebro humano en realidad va a aumentar”, agregó.

Todavía no existe una tecnología que pueda comunicar los pensamientos humanos tan rápido como ocurren. Los dedos y los pulgares nunca se moverán lo suficientemente rápido. Y hay muchas formas de procesamiento de información que se adaptan mejor a una computadora que a un cerebro humano. Oxley especuló sobre la posibilidad de usar interfaces neuronales para mejorar la memoria humana, reforzar las habilidades de navegación innatas con un enlace directo al GPS, aumentar considerablemente las habilidades computacionales del cerebro humano y crear una nueva forma de comunicación en la que las emociones se “lanzan” sin palabras de una mente a otra. “Es solo el comienzo del amanecer de este espacio”, aseguró Oxley. “Realmente va a cambiar la forma en que interactuamos entre nosotros como especie”, remarcó.

Ilustración de Dadu Shin

Frederic Gilbert, filósofo de la Universidad de Tasmania, ha estudiado los dilemas éticos que plantea la neurotecnología durante más de una década. A través de entrevistas en profundidad, él y otros especialistas en ética han documentado cómo algunas personas tienen reacciones adversas a los implantes neurales, que incluyen autodistanciamiento, aumento de la impulsividad, manía, autolesiones e intento de suicidio. En 2015, viajó a Penola, Australia del Sur, para conocer a Rita Leggett, una paciente de 54 años de edad con una experiencia muy diferente, aunque igualmente preocupante.

Varios años antes, Leggett participó en el primer ensayo clínico en humanos de una interfaz cerebro-computadora particular que advertía a las personas con epilepsia de ataques inminentes a través de un bíper de mano, dándoles tiempo suficiente para tomar un medicamento estabilizador o llegar a un lugar seguro. Con el implante, se sintió mucho más segura, capaz y mucho menos ansiosa. Con el tiempo, se volvió inseparable de su identidad. “Era yo, se convirtió en mí”, le dijo a Gilbert en referencia al aparato. “Con este dispositivo me encontré a mí misma”. Alrededor de 2013, NeuroVista, la empresa que fabricaba la interfaz neuronal, cerró porque no pudo obtener nuevos fondos. A pesar de su resistencia, Leggett se sometió a una explicación. Estaba devastada. “Su simbiosis era tan profunda”, dijo Gilbert, que cuando le quitaron el dispositivo, “ella sufrió un trauma”.

En un paralelismo sorprendente, una investigación reciente realizada por la revista de ingeniería IEEE Spectrum reveló que, debido a ingresos insuficientes, la empresa de neuroprótesis Second Sight, con sede en Los Ángeles, había dejado de producir y en gran medida había dejado de ofrecer soporte a los ojos biónicos que le vendía a más de 350 personas con discapacidad visual en todo el mundo. El implante de al menos un individuo ya ha fallado y no hay forma de repararlo, una situación que podría ocurrirle a muchos otros. Algunos pacientes inscritos en ensayos clínicos para la última interfaz neuronal de Second Sight, que estimula directamente la corteza visual, se han quitado el dispositivo o están pensando en hacerlo.

Si las interfaces cerebro-computadora sofisticadas finalmente trascienden las aplicaciones médicas y se convierten en bienes de consumo disponibles para el público en general, las consideraciones éticas que las rodean se multiplicarán exponencialmente. En un comentario de 2017 sobre neurotecnología, el neurobiólogo de la Universidad de Columbia Rafael Yuste, junto con 24 colegas, identificó cuatro áreas principales de preocupación: aumento; parcialidad; privacidad y consentimiento; y agencia e identidad. Los implantes neurales a veces provocan cambios desconcertantes en la autopercepción de los pacientes. Algunos han informado sentirse como “una muñeca electrónica” o desarrollar un sentido borroso de sí mismos. Si alguien cometiera un delito y culpara a un implante, ¿cómo determinaría el sistema legal la culpa? A medida que evolucionen las interfaces neuronales y la inteligencia artificial, es probable que estas tensiones se intensifiquen.

Todos los científicos e ingenieros con los que hablé reconocieron los problemas éticos que plantean las interfaces neuronales, pero la mayoría estaba más preocupada por el consentimiento y la seguridad que por lo que consideraban preocupaciones lejanas o no comprobadas sobre la privacidad y la agencia. En el mundo de la investigación científica académica, los límites futuros apropiados para la tecnología siguen siendo polémicos.

En el sector privado, la ética es a menudo una nota al pie del entusiasmo, cuando se menciona en todo. A medida que aumenta la presión para asegurar la financiación y la comercialización, proliferan las afirmaciones espectaculares y, a veces, aterradoras. Christian Angermayer, un empresario e inversionista alemán, ha dicho que confía en que todos usarán interfaces cerebro-computadora dentro de 20 años. “Es fundamentalmente un dispositivo de entrada y salida para el cerebro y puede beneficiar a una gran parte de la sociedad”, publicó en LinkedIn el año pasado. “Las personas se comunicarán entre sí, realizarán el trabajo e incluso crearán bellas obras de arte, directamente con sus mentes”. Musk ha descrito el objetivo final de Neuralink como lograr “una especie de simbiosis con la inteligencia artificial” para que la humanidad no sea destruida, subyugada o “dejada atrás” por máquinas superinteligentes. “Si no puedes vencerlos, únete a ellos”, dijo una vez en Twitter, calificándolo de “declaración de la misión de Neuralink”. Y Max Hodak, un expresidente de Neuralink que se vio obligado a dejar la empresa y luego fundó una nueva llamada Science, sueña con usar implantes neuronales para hacer que el sensorium humano sea “directamente programable” y, por lo tanto, crear un “mundo de bits”: un entorno virtual paralelo, un sueño lúcido despierto, que aparece cada vez que alguien cierra los ojos.

Hoy, DeGray, de 68 años de edad, todavía reside en el centro de vida asistida de Menlo Park que eligió hace una década por su proximidad a Stanford. Todavía tiene los mismos dos conjuntos de electrodos que Henderson incrustó en su cerebro hace seis años, así como los pedestales de metal que sobresalen y que proporcionan puntos de conexión a las máquinas externas. La mayor parte del tiempo, no siente su presencia, aunque un golpe accidental puede reverberar a través de su cráneo como si fuera un golpe. En su vida cotidiana, depende de la atención permanente de los cuidadores y de un conjunto de tecnologías de asistencia, incluidos los comandos de voz y el seguimiento del movimiento de la cabeza. Puede moverse en una silla de ruedas operada por respiración, pero los viajes largos son agotadores. Pasa gran parte de su tiempo leyendo artículos de noticias, estudios científicos y de ficción en su computadora. “Realmente extraño los libros”, me dijo. “Huelen bien y se sienten bien en tus manos”, recordó.

La participación personal de DeGray en la investigación de las interfaces cerebro-computadora se ha convertido en el centro de su vida. Los científicos de Stanford visitan su casa dos veces por semana, en promedio, para continuar con sus estudios. “Me refiero a mí mismo como un piloto de pruebas”, aseguró. “Mi responsabilidad es tomar un buen avión nuevo todas las mañanas y sacarle las alas. Luego, los ingenieros lo arrastran de regreso al hangar y lo arreglan, y hacemos todo de nuevo al día siguiente”, detalló.

Exactamente lo que experimenta DeGray cuando activa su interfaz neuronal depende de sus tareas. Controlar un cursor con intentos de movimientos de la mano, por ejemplo, “reduce el mundo entero a un Etch A Sketch. Todo lo que tienes es izquierda, derecha, arriba y abajo”. Con el tiempo, este tipo de control se vuelve tan inmediato e intuitivo que se siente como una extensión continua de su voluntad. Por el contrario, maniobrar un brazo robótico en tres dimensiones es un proceso mucho más recíproco: “No estoy haciendo que haga cosas”, me dijo. “Está trabajando conmigo de la manera más versátil. Los dos juntos somos como un par de bailarines”.

Nadie sabe exactamente cuánto tiempo pueden permanecer los conjuntos de electrodos existentes en un cerebro humano sin romperse o poner en peligro la salud del portador. Aunque DeGray puede solicitar la explantación en cualquier momento, quiere continuar como participante de la investigación indefinidamente. “Me siento muy validado en lo que estoy haciendo aquí”, dijo. “Me rompería el corazón si tuviera que salir de este programa por alguna razón”.

Sin embargo, sobre al futuro a largo plazo de la tecnología implantada en su cráneo, se siente un poco en conflicto. “De hecho, paso bastante tiempo preocupándome por esto”, me dijo. “Estoy seguro de que será mal utilizado, como lo es toda tecnología cuando sale por primera vez. Con suerte, eso impulsará una cierta comprensión de dónde debería residir en nuestra civilización. Creo que, en última instancia, debes confiar en la bondad básica del hombre; de ​​lo contrario, nunca buscarías nuevas tecnologías. Tienes que desarrollarlo y dejar que se monetice y ver a dónde va. Es como tener un bebé: solo puedes criarlos por un tiempo, y luego tienes que soltarlos en el mundo”, puntualizó.

Ferris Jabr es colaborador de la revista de New York Times. Ha escrito anteriormente sobre descubrimientos innovadores en neurociencia e intervenciones médicas que pueden extender significativamente la vida humana.

Traducido por José Silva

Noticias relacionadas