Noticias

Mensaje del futuro

Cuando la tecnología lo permita, ¿quién querrá conocer su futuro? Sus aptitudes para la compresión lectora o la abstracción matemática, sus tendencias a la adicción o a la delincuencia, su impulsividad para reincidir en hábitos insanos o su respuesta al tratamiento psicológico o a los fármacos. Puede dar miedo, y lo da, pero el caso es que la tecnología para predecir todos esos comportamientos ya existe. Se llama neuroimagen, y todo el mundo ha visto algunos de sus resultados: esas secciones virtuales del cerebro donde una zona u otra se ilumina en colores cálidos cuando el voluntario se somete a una prueba psicológica que le exige entender, reaccionar, planificar, resistir a la tentación o, simple y llanamente, mentir como un trilero. Estamos desnudos ante esas máquinas que filman nuestro pensamiento en acción cerebro, y los resultados de esas decenas de miles de experimentos se pueden ya usar para predecir el comportamiento futuro. Se puede hacer, pero ¿se debe? Así lo acaba de proponer un grupo de neurocientíficos del Massachusetts Institute of Technology (MIT) ¿Qué pretenden en realidad? Construir un Big Brother global que va mucho más allá de las actuales cámaras de seguridad al registrar no ya nuestros actos, sino nuestras intenciones? ¿Se han tomado en serio estos científicos el argumento de Minority Report? La tecnología ya permite este escenario, ¿cuáles son los riesgos? Hay sobre todo uno: que se utilicen esas predicciones para seleccionar a niños y adultos que vayan a alcanzar el éxito con mayor probabilidad, o para descartar a quienes puedan caer en la adicción o en el delito. Para detener al delincuente antes de que haya hecho nada. Terrorífico, ¿no es cierto? Los científicos, sin embargo, proponen su proyecto de adivinación con la mejor de las intenciones: ayudar a la gente. Las neurociencias ya permiten saber si un niño va a ser disléxico a las 36 horas de nacer, es decir, ocho años antes de que su dislexia se revele. Ocho años que pueden ayudar a dedicar a esos niños los programas que necesitan para superar su traba. Si podemos hacer eso, ¿tenemos derecho a no hacer nada? ¿Y por el mero hecho de que una técnica valiosa se puede usar mal?