«Por qué la civilización es más frágil de lo que creíamos» Londres. Por Tom Chatfield, corresponsal de reportajes, BBC edición Reino Unido

«Por qué la civilización es más frágil de lo que creíamos» Londres. Por Tom Chatfield, corresponsal de reportajes, BBC edición Reino Unido

Antes de su reciente muerte, el influyente filósofo Daniel Dennett habló con la BBC sobre su búsqueda de toda la vida para comprender la experiencia humana y por qué vio nuevos peligros en la Inteligencia Artificial (IA).

El filósofo Daniel Dennett, que murió a los 82 años el 19 de abril, fue una de las mentes más agudas y proféticas del último medio siglo. Se atrevió a abordar algunas de las preguntas más importantes sobre la mente y la conciencia humanas. A lo largo de su carrera publicó más de una docena de libros, hizo importantes aportaciones a campos que van desde la ciencia cognitiva y la filosofía de la mente hasta la teoría evolutiva, y se convirtió en un ardiente defensor de la racionalidad y el escepticismo.

En diciembre de 2023, hablé con él durante varias horas sobre sus recientes memorias, “I’ve Been Thinking” (“Estuve pensando”), así como sobre su vida y obra. Todavía estaba apasionadamente comprometido con las cuestiones de la verdad, la cognición y la posibilidad tecnológica que lo fascinaron por primera vez cuando era estudiante de doctorado en Oxford en la década de 1960, y todavía dispuesto a luchar al servicio de un pensamiento riguroso.

En particular, nuestra conversación se centró en los graves riesgos que plantea la inteligencia artificial. Su advertencia no era de una toma de control por parte de alguna superinteligencia, sino de una amenaza que, en su opinión, podría ser existencial para la civilización, enraizada en las vulnerabilidades de la naturaleza humana.

“Si convertimos esta maravillosa tecnología que tenemos para el conocimiento en un arma para la desinformación”, me dijo, “estamos en serios problemas”. ¿Por qué? “Porque no sabremos lo que sabemos, y no sabremos en quién confiar, y no sabremos si estamos informados o mal informados. Podemos volvernos paranoicos e hiperescépticos, o simplemente apáticos e impasibles. Ambas son vías muy peligrosas. Y las tenemos encima”.

Filosofía de la ciencia ficción

Para entender el argumento de Dennett sobre la IA, y lo que lo convirtió en un pensador tan profundo y original, vale la pena remontarse a uno de sus artículos académicos más inusuales. En 1978, publicó “¿Dónde estoy?”, que tomó la forma de un cuento de ciencia ficción con su propio cerebro en una tina.

“Hace varios años”, comienza la historia, “se me acercaron funcionarios del Pentágono que me pidieron que me ofreciera como voluntario para una misión altamente peligrosa y secreta”. Gracias a un accidente durante un proyecto de investigación clasificado, un dispositivo de perforación con una ojiva atómica se había atascado a una milla (1.6 kilómetros) bajo tierra, debajo de Tulsa, Oklahoma. Necesitaban que les ayudara a recuperarlo. Más precisamente, necesitaban su cuerpo. Con el fin de evitar la radiación dañina para las neuronas emitida por el dispositivo (la verosimilitud no es una característica necesaria de la ciencia ficción filosófica), su cerebro sería extirpado quirúrgicamente y conectado por transceptores de radio a su cuerpo. De este modo, podría controlarlo de forma remota sin correr el riesgo de exponerse.

La pregunta detrás de la deliciosa fantasía de Dennett era la siguiente: suponiendo que el procedimiento tuviera éxito, y que su cerebro continuara controlando su cuerpo y recibiendo información a través de sus órganos sensoriales, ¿dónde estaría Daniel Dennett? En la historia, imagina su cuerpo entrando en la habitación donde su cerebro flota dentro de una tina reforzado, y luego se sienta y lo mira.

La escena fue recreada para la televisión en un documental de 1988 del director holandés Piet Hoenderdos, en el que Dennett se interpretaba a sí mismo (con gusto). Seguramente es uno de los pocos casos de un artículo académico que recibe una adaptación de este tipo. “Bueno, aquí estoy, sentado en una silla plegable, mirando a través de un pedazo de vidrio a mi propio cerebro”, declara el atónito Dennett. “Pero espera… ¿No debería haber pensado: ‘Aquí estoy, suspendido en un líquido burbujeante, siendo mirado por mis propios ojos’?”.

El segundo de estos pensamientos resulta aún más difícil de mantener que el primero. Y el pensamiento que se deriva de esto es que es imposible estar seguro de dónde estoy “yo” -o incluso de lo que significa la palabra “aquí”- puramente sobre la base de la experiencia personal.

Lo que importa es la visión externa

“¿Cómo supe a dónde me refería con ‘aquí’ cuando pensé ‘aquí’?”, continúa. “¿Podría pensar que me refería a un lugar cuando en realidad quería decir otro?” No importa lo que pueda creer acerca de su propia ubicación o estado mental, tales creencias no ofrecen ninguna garantía especial de su propia exactitud. Lo que importa es la visión externa de los acontecimientos, no la interna: los hechos sobre el terreno, no cómo aparece este terreno a la persona que está de pie sobre él (o flotando en una cuba, según sea el caso).

Contrariamente a siglos de tradición filosófica, propuso, no tenemos ningún conocimiento especial sobre el funcionamiento de nuestras propias mentes, mientras que la sensación de que nuestro “yo” es una entidad unificada y coherente es simplemente una ilusión maravillosa y evolucionada.

Como dijo en sus memorias, “hay poco que pueda saber con certeza a partir de la introspección de mi propia mente”. Pero hay mucho que aprender “estudiando científicamente las mentes de los demás”, siempre y cuando esto implique un escepticismo riguroso incluso sobre las intuiciones más plausibles. La verdad no te liberará de las restricciones cognitivas, porque tal cosa no es posible. Pero puede, si tienes cuidado, enseñarte sobre los tipos de libertad que vale la pena desear.

Esto nos lleva de vuelta a una tecnología asombrosamente capaz de invertir el escenario en el corazón de “¿Dónde estoy?”: la IA generativa. Tiene la capacidad de conjurar simulacros humanos convincentes a partir de billones de bytes de datos; y, al hacerlo, poner patas arriba siglos de suposiciones en torno a la verdad, la identidad y nuestras experiencias compartidas de la realidad.

Con solo 30 segundos de video de calidad moderada, por ejemplo, los servicios de IA disponibles gratuitamente ahora pueden crear una versión artificial de cualquier hablante, o una persona totalmente ficticia, y hacer que digan cualquier cosa. Líderes como el primer ministro de India, Narendra Modi, ya han utilizado herramientas de inteligencia artificial para crear versiones de sí mismos que hablen con fluidez las lenguas regionales, con el fin de ganar votos; se están implementando enfoques similares en Indonesia y Pakistán. En julio de 2023, en Bangladesh, se difundieron burdas falsificaciones de videos en los que aparecen mujeres líderes de la oposición en bikini y en la piscina, que fueron rápidamente desmentidos pero aun así se compartieron ampliamente. Y mucho más está por venir.

Manipulación electoral

Con 2024 a punto de ser el año electoral más importante de la historia (nada menos que la mitad de la población mundial acudirá a las urnas en muchos países), nunca ha sido tan fácil manipular la información que influye en la toma de decisiones humanas, ni subvertir nuestras intuiciones e inclinaciones cotidianas.

De hecho, hay muchas razones para pensar que, con suficientes datos, pronto podría ser posible crear un facsímil convincente de una persona: una entidad que podría pasar por un político, o por usted o por mí, no solo en una actuación pregrabada, sino también en una conversación cotidiana.

Proféticamente, Dennett imaginó este escenario hace décadas. En la historia de ciencia ficción del documental de Hoenderdos, los científicos crean un Dennett extra: junto al cerebro original en una tina, su mente se duplica como un “gemelo digital”. Ambos compiten por el control de su cuerpo. En este escenario, la cuestión de si alguien está realmente en alguna parte –o ha dicho o hecho algo, o incluso existe– se vuelve aún más complicada.

Para ver lo cerca que la realidad se ha acercado ya a la ficción, consideremos el caso –una imitación basada en IA– del robot de Luciano Floridi, otro destacado filósofo de la tecnología (conocido por su estudio sobre la tradición del escepticismo y por sus trabajos sobre la filosofía de la información y la ética de la información), “diseñado para responder preguntas y escribir textos emulando las formas de pensar y el estilo de escritura de Floridi”. Se trata tanto de una fascinante herramienta pedagógica como de un estudio de caso sobre cómo, en la era de la IA, nuestras ideas y nuestras identidades pueden empezar a cobrar literalmente vida propia.

Para Dennett, había algo preocupante en el hecho mismo de nuestra obsesión con la IA que parece humana. Si bien los facsímiles completos de la mente humana pueden no ser inminentes, la forma en que estamos usando la IA para hacerse pasar por seres humanos –me dijo– ya nos ha puesto en una trayectoria peligrosa. Llamó a esas IA “personas falsas” y me dijo que el despliegue masivo de tales entidades constituía “una travesura de la peor clase”: una forma de “vandalismo social” que debería ser abordada por la ley.

¿Por qué? Porque, si se pueden crear representaciones digitales convincentes de los seres humanos a su antojo, se pone en riesgo todo el negocio de evaluar colectivamente las afirmaciones, experiencias y acciones de otras personas, por no hablar de la infraestructura social esencial, como los contratos, las obligaciones y las consecuencias. De ahí la necesidad de prohibiciones legales, un argumento que expuso extensamente en un artículo de mayo de 2023 para The Atlantic.

“No sería perfecto”, me dijo, “pero ayudaría si pudiéramos prohibir por ley la falsificación de personas. Podemos imponer penas severas por falsificar personas, igual que hacemos con el dinero falso… deberíamos convertirlo en una marca de vergüenza, no de orgullo, el hecho de hacer que tu propia IA sea más humana”.

Inteligencia Artificial, ¿capaz de ser «humana»?

No deja de ser irónico que Dennett se pasara décadas argumentando en contra de quienes intentan esculpir una categoría elusiva de “humanidad” que sólo nuestras mentes pueden poseer. Materialista convencido, defendió repetidamente que, como dijo en 1995 en “La peligrosa idea de Darwin”, su análisis de la teoría evolutiva, “todos los logros de la cultura humana –lenguaje, arte, religión, ética, la propia ciencia– son en sí mismos artefactos… del mismo proceso fundamental que desarrolló las bacterias, los mamíferos y el Homo sapiens. No existe una creación especial del lenguaje, y ni el arte ni la religión tienen una inspiración literalmente divina”.

La aparición de la humanidad a partir de materia irreflexiva es maravillosa, pero no milagrosa. Incluso mentes tan extraordinarias como la nuestra son, en última instancia, el producto de una variedad de módulos incomprensibles, compuestos a su vez de componentes más toscos, conectados en secuencia ininterrumpida a las primeras formas de vida.

De ello se deduce que, en principio, nada impide que los algoritmos de la inteligencia artificial se acerquen o superen nuestras propias capacidades; o de los humanos que aumentan y rediseñan sus mentes a través de medios artificiales. De hecho, algunos de los primeros trabajos más importantes de Dennett consistieron en defender el poder y el potencial de la computación contra aquellos que, como el filósofo John Searle, afirmaban que el mero cálculo nunca podría dar lugar a fenómenos como la conciencia. Para Dennett, no había nada “simple” en el cálculo o en los procesos algorítmicos: sólo era una cuestión de escala y complejidad.

En este sentido, los logros de las IA modernas –desde su destreza lingüística y su dominio de juegos como el ajedrez y el Go hasta su capacidad para aprobar exámenes legales y médicos– son una reivindicación continua de la insistencia de Dennett en que la competencia de nivel humano puede surgir de procesos totalmente incomprensibles (por no mencionar que, en nuestro caso, así fue).

Durante nuestra conversación, sin embargo, también se esforzó en destacar el abismo entre las arquitecturas computacionales actuales y las complejidades analógicas de los humanos. Es peligroso obsesionarse sobre si la IA alcanzará la “inteligencia general”, con toda la flexibilidad cognitiva de un ser humano, por no hablar de algo mayor.

Mucho antes de que algo así ocurra, señaló, tendremos que enfrentarnos a la aparición de agentes autónomos “extremadamente manipuladores”, y éstos supondrán una amenaza mucho mayor que las hipotéticas superinteligencias (“¡olvídate de eso!”).

Una tentadora combinación

¿Por qué? Porque, al igual que las redes sociales han demostrado ser un caldo de cultivo evolutivo para los contenidos capaces de explotar las vulnerabilidades humanas, la misma dinámica favorece tanto a los contenidos generados por IA como a las IA capaces de desplegar una tentadora combinación de persuasión, seducción, conmoción y adulación.

Desde “influencers” artificiales impecablemente glamorosos hasta falsa pornografía a gran escala, desde compañeros infinitamente empáticos hasta estafas románticas, los amores y anhelos humanos son un campo fértil para el refinamiento de la manipulación. Puede que (todavía) no seamos cerebros en tinas. Pero lo que vemos, creemos, pertenecemos y hacemos está cada vez más entrelazado con innumerables sistemas de información; y muchos de ellos son más hábiles para ofrecer persuasión y verosimilitud que la propia verdad.

Nada de esto significa negar el poder y el potencial de tecnologías como las IA, o las innumerables formas en que pueden mejorar el alcance y el autoconocimiento de la humanidad. Pero sí se trata de argumentar que, como dijo Dennett, es probable que las IA “evolucionen para reproducirse”. Y las que mejor se reproduzcan serán las que sean más hábiles manipulando a nuestros interlocutores humanos. A las aburridas las dejaremos de lado, y a las que mantengan nuestra atención las difundiremos. Todo esto sucederá sin ninguna intención. Será la selección natural del software”.

Para que se desarrollen escenarios nocivos, no se necesita ni un plan maestro hecho por humanos ni por máquinas. Como sostenía Dennett en su libro de 2017 “From Bacteria to Bach” (De las bacterias a Bach), “una vez que la infraestructura para la cultura ha sido diseñada e instalada [es decir, ha evolucionado en las mentes humanas]… la posibilidad de que existan memes parásitos que exploten esa infraestructura está más o menos garantizada”.

En términos evolutivos, nuestras mentes no están afinadas para diferenciar la verdad de la mentira. Somos criaturas parciales, apasionadas y tribales: animales sociales unidos por lazos de amor y lealtad que definen nuestra humanidad y nos hacen dolorosamente vulnerables.

¿Qué hacer? Afortunadamente, otro rasgo definitorio del pensamiento humano es nuestra capacidad para reflexionar precisamente sobre estas limitaciones: para corregir, colectiva y gradualmente, los puntos ciegos de la percepción personal. “Lo que quieres”, me dijo Dennett, “es que tu pensamiento esté determinado por la verdad sobre lo que hay ahí fuera. Quieres sentirte atraído por la buena evidencia que hay de cómo es el mundo. Pero también quieres tener el espacio para reconsiderar, y recapacitar, y seguir reconsiderando: tus perspectivas, tus proyectos, tus objetivos. Quieres ser un sistema intencional de orden superior que reflexiona sobre medios y fines y objetivos”.

Este es el método científico en microcosmos, con un sabor de librepensamiento humanista. La “libertad” de actuar sobre la base de información manipuladoramente inexacta no es libertad en absoluto. Por el contrario, las acciones determinadas por “la buena evidencia que está ahí fuera” son emancipatorias: están abiertas a las complejidades de la realidad en lugar de estar atrapadas por falsedades.

Para ampliar el experimento mental de “¿Dónde estoy?”, imagina lo que sucedería si tu cerebro se colocara en una tina y luego, sin tu conocimiento o permiso, se conectara a una versión simulada de la realidad. Dentro de ese reino virtual, es posible que aún poseas ciertas libertades. En el contexto del mundo externo, sin embargo, estarías atrapado y engañado: aislado de toda forma significativa de comprensión y acción.

Aunque pueda parecer puramente un asunto de ficción especulativa, una versión de este escenario se desarrolla cada vez que alguien toma una afirmación falsa como la verdad literal, o una entidad artificial como un ser un humano. Desde las teorías conspirativas hasta la propaganda totalitaria, desde las pruebas fabricadas hasta los sucedáneos de los humanos, el rechazo de la realidad es un negocio en auge. Y no hay nada que haga inevitable la supervivencia de la tolerancia, el escepticismo o el debate razonado en un mundo plagado de estas cosas.

La civilización, me dijo Dennett, “es más frágil de lo que creíamos”, y por eso es aún más valiosa. A pesar de sus conflictos, injusticias y odios, vivimos en una época en la que es posible para una gran parte de la humanidad “confiar los unos en los otros, tener proyectos a largo plazo, viajar libremente, formar familias, vivir con muy poco miedo. Eso es maravilloso. Y deberíamos preservarlo. Esa auténtica estructura social a toda costa”. Este es el gran peligro de los grandes modelos lingüísticos de la IA y de las personas ficticias por igual: “que destruyan la confianza que hemos engendrado durante miles de años”.

El «alma» hace la diferencia

A pesar de todo esto –y de su reputación de inflexible sensatez– Dennett me dejó claro que no tenía ningún interés en trascender las limitaciones de la naturaleza humana. Para él, el amor y la lealtad no son un bagaje biológico que sería mejor superar. Por el contrario, son fuerzas motivadoras de la más profunda naturaleza: manantiales de propósito y bondad, siempre que puedan liberarse del egoísmo y el odio.

“Cuidar del número uno es una buena norma de los agentes. Pero el número uno puede entenderse de forma muy amplia. El número uno puede incluir a tus hijos, una idea, tocar la guitarra, tu equipo deportivo favorito. El número uno puede ser lo que tú quieras que sea. Eso es lo que más te importa. Eso es lo que vas a proteger. Y esto es obvio. Si alguien quiere extorsionarte, no tienen que amenazarte. Sólo tienen que amenazar lo que amas”.

La biología es donde todo comienza y termina: el patrón evolucionado y asombroso de nuestra emergencia junto con cualquier otra forma de vida; las complejidades ilimitadas que somos capaces de concebir a través de la cultura, el lenguaje y la computación; nuestra existencia común como criaturas de carne y hueso.

“Mis dos hijos son adoptados”, me dijo Dennett al final de nuestra conversación. “Pero los amo con la intensidad de cualquier padre biológico. Puedo recordar un momento en los primeros años de vida de nuestra hija mayor, cuando era una niña, tal vez de dos años o menos, cuando detecté una posible amenaza en un patio de recreo o algo así, y de repente me di cuenta: ‘Oh, Dios mío, creo que mataría para proteger a esta niña’. Y me asustó, casi. Pero también me emocionó, porque fue un reconocimiento de la intensidad y profundidad del apego emocional. Y de eso se trata la vida”.

(*) Tom Chatfield es un autor británico y filósofo de la tecnología. Su libro más reciente, Wise Animals (Animales sabios), explora la coevolución de la humanidad y la tecnología.