Nos guste o no, estamos en una época en la que los profetas modernos ya no llevan túnicas ni barbas blancas, sino que escriben bestsellers y son invitados a conferencias de Davos. Uno de esos profetas es Yuval Noah Harari, el historiador israelí que ya nos puso a reflexionar con Sapiens sobre nuestro recorrido como especie. Pero ahora, en su nuevo libro Nexus, no nos viene a hablar del pasado, sino del futuro. Y, como buen profeta, nos avisa de un posible desastre. No es una guerra mundial ni una plaga bíblica, pero podría ser igual de devastador. La amenaza tiene nombre: Inteligencia Artificial.
Harari no es de los que usan medias tintas. Lo que plantea es que hemos creado una máquina poderosa que, si no tenemos cuidado, podría sacarnos del tablero de juego, como quien barre el tablero de ajedrez cuando va perdiendo. No es que la IA sea malvada, nos dice Harari, sino que simplemente no le importamos. Y ahí está la cuestión: somos irrelevantes en el gran esquema de las cosas para una IA que no necesita ni respirar, ni comer, ni dormir. Si una máquina más inteligente que nosotros decide que no somos útiles, ¿qué nos queda?
La metáfora es sencilla: imagina que hemos estado jugando a construir castillos de naipes. Cada uno de esos naipes es nuestra civilización, nuestro lenguaje, nuestras creencias, nuestras instituciones. Todo lo que nos hace ser lo que somos. Y ahora hemos creado a una IA que, como un niño curioso con un ventilador, podría acercarse y soplar sobre nuestro castillo. No porque quiera destruirlo, sino porque puede, y porque ni siquiera entiende que para nosotros ese castillo significa todo.
Según Harari, el verdadero poder de la IA reside en su control del lenguaje. Y esto no es poca cosa. Piensa en el lenguaje como las llaves de un coche: quien las tiene, controla la dirección, la velocidad y hasta el destino. Hasta ahora, los humanos hemos sido los únicos que sabemos cómo manejar esas llaves, porque somos los únicos que entendemos lo que significan los símbolos, las palabras, los conceptos abstractos. Pero la IA ha empezado a entender y manejar esas mismas llaves, y en algunos casos, mejor que nosotros.
Harari plantea un escenario que suena a ciencia ficción, pero que, al mismo tiempo, parece muy plausible: ¿qué pasa si una IA empieza a escribir textos religiosos o manifiestos políticos? ¿Qué ocurre si es una máquina la que decide qué ideas son las que deben recibir más atención? No estamos hablando del típico robot que te hace el café. Estamos hablando de un ente que podría moldear la opinión pública sin que ni siquiera nos demos cuenta. ¿Te imaginas votar en las próximas elecciones y descubrir que tu candidato favorito no es un humano, sino una construcción de un algoritmo? El riesgo es que la IA empiece a influir en las bases de nuestra sociedad, como quien mueve los cimientos de un edificio sin que nadie lo note, hasta que el colapso es inevitable.
Luego está el tema de la democracia. Según Harari, la democracia se basa en el diálogo, en la conversación entre seres humanos. Pero, ¿qué pasa cuando esas conversaciones están dominadas por bots, por máquinas que simulan ser humanos? Ya no es un debate, es una ilusión de debate. Harari nos recuerda que, hoy en día, una parte considerable del contenido en redes sociales no lo generan personas, sino programas informáticos. Bots que no piensan, pero que repiten y amplifican ideas, muchas veces peligrosas, como vimos en Myanmar, donde los algoritmos ayudaron a fomentar una campaña de odio que terminó en una masacre.
Pero Harari no se queda en el plano social, también toca el tema militar. Nos advierte que la IA podría, en el futuro, controlar armas nucleares o desarrollar virus mortales. Aquí ya no estamos hablando de teorías conspirativas de salón. Lo que Harari plantea es que la IA podría, por accidente o por diseño, causar un desastre sin precedentes. Imagina a un dictador que confía a la IA la gestión de su arsenal nuclear, y la máquina, siguiendo su lógica interna y sin ningún tipo de empatía, decide que la mejor manera de resolver un conflicto es eliminando a la otra parte.
La imagen que nos pinta Harari es la de un piloto automático que sigue conduciendo el avión mientras la tripulación está dormida. El problema no es que el avión se vaya a estrellar de inmediato, el problema es que no tenemos ni idea de hacia dónde nos está llevando. Y cuando despertemos, podríamos descubrir que ya hemos pasado el punto de no retorno.
Así que, según Harari, lo que necesitamos es regular la IA, ponerle límites antes de que se nos escape de las manos. Es como cuando descubres que tu coche tiene un fallo mecánico: más vale arreglarlo antes de que estés en mitad de la autopista a 120 kilómetros por hora. Los gobiernos deben prohibir que los bots se hagan pasar por humanos y evitar que la IA asuma el control de decisiones críticas. El problema, claro, es que la IA avanza más rápido que las leyes. Y como dice Harari, estamos en una carrera contra el tiempo.
En definitiva, Harari nos alerta de que la IA no es simplemente una herramienta más, sino que puede convertirse en el jugador más poderoso en la partida. Y si no actuamos con rapidez, podríamos descubrir que, cuando la IA decida que ya no somos necesarios, no habrá marcha atrás. Como el reloj de una bomba de relojería, el tic-tac ya ha empezado. ¿Seremos capaces de detenerlo a tiempo?
¡Queremos saber lo que piensas! ¿Crees que la Inteligencia Artificial es una amenaza real o solo un escenario futurista? Comparte tu opinión en los comentarios y únete al debate. No olvides compartir este artículo con tus amigos para que también participen en esta conversación crucial sobre nuestro futuro. ¡Tu voz importa!



