Si la era de Internet tiene algo parecido a una ideología, es que más información, más datos y más apertura crearán un mundo mejor y más veraz.

Eso suena bien, ¿no?Nunca ha sido más fácil saber más sobre el mundo que ahora, y nunca ha sido más fácil compartir ese conocimiento que ahora.Pero no creo que se pueda observar el estado de las cosas y concluir que esto ha sido una victoria para la verdad y la sabiduría.

¿Qué vamos a hacer con eso?¿Por qué una mayor información no nos ha hecho menos ignorantes y más sabios?

Yuval Noah Harari es historiador y autor de un nuevo libro llamadoNexus: una breve historia de las redes de información desde la Edad de Piedra hasta la IA.Como todos los libros de Harari, este cubre una gran cantidad de terreno pero logra hacerlo de una manera digerible.Presenta dos grandes argumentos que me parecen importantes y creo que también nos acercan a responder algunas de las preguntas que acabo de plantear.

El primer argumento es que todo sistema importante en nuestro mundo es esencialmente el resultado de una red de información.Desde la moneda hasta la religión, los Estados-nación y la inteligencia artificial, todo funciona porque hay una cadena de personas, máquinas e instituciones que recopilan y comparten información.

El segundo argumento es que, si bien ganamos una enorme cantidad de poder al construir estas redes de cooperación, la forma en que se construyen la mayoría de ellas hace que sea más probable que produzcan malos resultados, y dado que nuestro poder como especie está creciendo gracias a la tecnología, las posibles consecuencias de esto son cada vez más catastróficas.

Invité a Harari aLa zona grispara explorar algunas de estas ideas.Nuestra conversación se centró en la inteligencia artificial y en por qué cree que las decisiones que tomemos en ese frente en los próximos años serán tan importantes.

Como siempre, haymuchoMás en el podcast completo, así que escucha y sigue.La zona grisenPódcasts de Apple,Spotify,Pandora, o dondequiera que encuentres podcasts.Todos los lunes aparecen nuevos episodios.

Esta conversación ha sido editada para mayor extensión y claridad.

¿Cuál es la historia básica que querías contar en este libro?

La pregunta básica que explora el libro es si los humanos somos tan inteligentes, ¿por qué somos tan estúpidos?Definitivamente somos el animal más inteligente del planeta.Podemos construir aviones, bombas atómicas, computadoras, etc.Y al mismo tiempo, estamos a punto de destruirnos a nosotros mismos, a nuestra civilización y a gran parte del sistema ecológico.Y parece una gran paradoja que si sabemos tanto sobre el mundo y sobre las galaxias distantes y sobre el ADN y las partículas subatómicas, ¿por qué estamos haciendo tantas cosas autodestructivas?Y la respuesta básica que se obtiene de mucha mitología y teología es que hay algo mal en la naturaleza humana y, por lo tanto, debemos confiar en alguna fuente externa, como un dios, para salvarnos de nosotros mismos.Y creo que esa es la respuesta equivocada, y es una respuesta peligrosa porque hace que la gente abdica de su responsabilidad.

Creo que la verdadera respuesta es que no hay nada malo en la naturaleza humana.El problema está en nuestra información.La mayoría de los humanos son buenas personas.No son autodestructivos.Pero si le das mala información a la gente buena, tomarán malas decisiones.Y lo que vemos a lo largo de la historia es que sí, somos cada vez mejores en la acumulación de cantidades masivas de información, pero la información no mejora.Las sociedades modernas son tan susceptibles como las tribus de la Edad de Piedra a los delirios y la psicosis masivos.

Demasiadas personas, especialmente en lugares como Silicon Valley, piensan que la información es verdad, que la información es verdad.Que si acumulas mucha información, sabrás muchas cosas sobre el mundo.Pero la mayor parte de la información es basura.La información no es la verdad.Lo principal que hace la información es conectar.La forma más fácil de conectar a mucha gente con una sociedad, una religión, una corporación o un ejército no es con la verdad.La forma más sencilla de conectar a las personas es a través de fantasías, mitologías y engaños.Y es por eso que ahora tenemos la tecnología de la información más sofisticada de la historia y estamos a punto de destruirnos a nosotros mismos.

El hombre del saco del libro es la inteligencia artificial, que, según usted, es la red de información más complicada e impredecible jamás creada.Un mundo moldeado por la IA será muy diferente, dará lugar a nuevas identidades, nuevas formas de estar en el mundo.No tenemos idea de cuál será el impacto cultural o incluso espiritual de eso.Pero como usted dice, la IA también dará rienda suelta a nuevas ideas sobre cómo organizar la sociedad.¿Podemos siquiera empezar a imaginar las direcciones que podrían tomar?

No precisamente.Porque hasta hoy, toda la cultura humana fue creada por mentes humanas.Vivimos dentro de la cultura.Todo lo que nos sucede lo experimentamos a través de la mediación de productos culturales: mitologías, ideologías, artefactos, canciones, obras de teatro, series de televisión.Vivimos encerrados dentro de este universo cultural.Y hasta hoy, todo, todas las herramientas, todos los poemas, todas las series de televisión, todas las mitologías, son producto de mentes humanas orgánicas.Y ahora, cada vez más, serán producto de inteligencias artificiales inorgánicas, inteligencias extraterrestres.Una vez más, el acrónimo AI tradicionalmente significaba inteligencia artificial, pero en realidad debería significar inteligencia alienígena.Extraterrestre, no en el sentido de que provenga del espacio exterior, sino en el sentido de que es muy, muy diferente de la forma en que los humanos piensan y toman decisiones porque no es orgánico.

Para darte un ejemplo concreto, uno de los momentos clave de la revolución de la IA fue cuando AlphaGo derrotó a Lee Sedol en un torneo de Go.Ahora bien, el Go es un juego de estrategia audaz, como el ajedrez pero mucho más complicado, y fue inventado en la antigua China.En muchos lugares se considera una de las artes básicas que toda persona civilizada debería conocer.Si eres un caballero chino de la Edad Media, sabes caligrafía, tocas música y sabes tocar Go.Filosofías enteras se desarrollaron en torno al juego, que era visto como un espejo de la vida y de la política.Y luego, en 2016, un programa de inteligencia artificial, AlphaGo, aprendió por sí solo a jugar Go y aplastó al campeón mundial humano.Pero lo más interesante es la forma en que lo hizo.Desplegó una estrategia que inicialmente todos los expertos dijeron que era pésima porque nadie juega así.Y resultó ser brillante.Decenas de millones de humanos jugaron este juego y ahora sabemos que exploraron sólo una parte muy pequeña del paisaje de Go.

Entonces los humanos quedaron atrapados en una isla y pensaron que este era todo el planeta Go.Y luego apareció la IA y en unas pocas semanas descubrió nuevos continentes.Y ahora también los humanos juegan Go de manera muy diferente a cómo lo jugaban antes de 2016. Ahora, se puede decir que esto no es importante, [que] es solo un juego.Pero es probable que suceda lo mismo en cada vez más campos.Si piensas en finanzas, las finanzas también son un arte.Toda la estructura financiera que conocemos se basa en la imaginación humana.La historia de las finanzas es la historia de los seres humanos que inventan dispositivos financieros.El dinero es un dispositivo financiero, bonos, acciones, ETF, CDO, todas estas cosas extrañas son producto del ingenio humano.Y ahora llega la IA y comienza a inventar nuevos dispositivos financieros en los que ningún ser humano jamás pensó ni imaginó.

¿Qué sucede, por ejemplo, si las finanzas se vuelven tan complicadas debido a estas nuevas creaciones de IA que ya ningún ser humano es capaz de entender las finanzas?Incluso hoy en día, ¿cuántas personas entienden realmente el sistema financiero?¿Menos del 1 por ciento?En 10 años, el número de personas que comprendan el sistema financiero podría ser exactamente cero porque el sistema financiero es el campo de juego ideal para la IA.Es un mundo de pura información y matemáticas.

La IA todavía tiene dificultades para lidiar con el mundo físico exterior.Por eso todos los años nos dicen, nos dice Elon Musk, que el año que viene habrá coches totalmente autónomos en las carreteras y eso no sucede.¿Por qué?Porque para conducir un automóvil, es necesario interactuar con el mundo físico y el mundo desordenado del tráfico de Nueva York, con todas las construcciones, los peatones y todo lo que sea.Las finanzas son mucho más fáciles.Son sólo números.¿Y qué sucede si en este ámbito informativo donde la IA es nativa y nosotros somos los extraterrestres, somos los inmigrantes, crea dispositivos y mecanismos financieros tan sofisticados que nadie los entiende?

Entonces, cuando miras el mundo ahora y lo proyectas hacia el futuro, ¿es eso lo que ves?¿Las sociedades quedan atrapadas en estas redes de información increíblemente poderosas pero, en última instancia, incontrolables?

Sí.Pero no es determinista, no es inevitable.Necesitamos ser mucho más cuidadosos y reflexivos sobre cómo diseñamos estas cosas.Nuevamente, comprender que no son herramientas, son agentes y, por lo tanto, es muy probable que en el futuro se escapen de nuestro control si no tenemos cuidado con ellos.No es que tengas una única supercomputadora que intenta dominar el mundo.Tienes a estos millones de burócratas de IA en las escuelas, en las fábricas, en todas partes, tomando decisiones sobre nosotros de maneras que no entendemos.

La democracia tiene que ver en gran medida con la rendición de cuentas.La rendición de cuentas depende de la capacidad de comprender las decisiones.Si… cuando solicitas un préstamo en el banco y el banco te rechaza y preguntas: “¿Por qué no?”, y la respuesta es: “No lo sabemos”, el algoritmo fue"Si analizamos todos los datos y decidimos no concederle un préstamo, y simplemente confiamos en nuestro algoritmo", esto es en gran medida el fin de la democracia.Todavía puedes tener elecciones y elegir al ser humano que quieras, pero si los humanos ya no son capaces de comprender estas decisiones básicas sobre sus vidas, entonces ya no hay responsabilidad.

Dices que todavía tenemos control sobre estas cosas, pero ¿por cuánto tiempo?¿Cuál es ese umbral?¿Cuál es el horizonte de sucesos?¿Lo sabremos siquiera cuando lo crucemos?

Nadie lo sabe con seguridad.Creo que se está moviendo más rápido de lo que casi nadie esperaba.Podrían ser tres años, podrían ser cinco años, podrían ser 10 años.Pero no creo que sea mucho más que eso.Piénselo desde una perspectiva cósmica.Somos el producto como seres humanos de 4 mil millones de años de evolución orgánica.La evolución orgánica, hasta donde sabemos, comenzó en el planeta Tierra hace 4 mil millones de años con estos diminutos microorganismos.Y se necesitaron miles de millones de años para la evolución de organismos multicelulares, reptiles, mamíferos, simios y humanos.La evolución digital, la evolución no orgánica, es millones de veces más rápida que la evolución orgánica.Y ahora estamos al comienzo de un nuevo proceso evolutivo que podría durar miles e incluso millones de años.Las IA que conocemos hoy en 2024, ChatGPT y todo eso, son solo las amebas del proceso evolutivo de la IA.

¿Cree que las democracias son realmente compatibles con estas redes de información del siglo XXI?

Depende de nuestras decisiones.En primer lugar, debemos darnos cuenta de que la tecnología de la información no es algo secundario.No es democracia por un lado y tecnología de la información por el otro.La tecnología de la información es la base de la democracia.La democracia se construye sobre el flujo de información.

Durante la mayor parte de la historia, no hubo posibilidad de crear estructuras democráticas a gran escala porque faltaba la tecnología de la información.La democracia es básicamente una conversación entre mucha gente, y en una pequeña tribu o una pequeña ciudad-estado, hace miles de años, se podía conseguir que toda la población o un gran porcentaje de la población, digamos, de los antiguosAtenas en la plaza de la ciudad para decidir si va a la guerra con Esparta o no.Era técnicamente factible mantener una conversación.Pero no había manera de que millones de personas repartidas en miles de kilómetros pudieran hablar entre sí.No había manera de que pudieran mantener la conversación en tiempo real.Por lo tanto, no tenemos ni un solo ejemplo de democracia a gran escala en el mundo premoderno.Todos los ejemplos son de muy pequeña escala.

La democracia a gran escala sólo fue posible después del auge de los periódicos, el telégrafo, la radio y la televisión.Y ahora puedes mantener una conversación entre millones de personas repartidas en un gran territorio.De modo que la democracia se construye sobre la tecnología de la información.Cada vez que hay un gran cambio en la tecnología de la información, se produce un terremoto en la democracia que se construye sobre él.Y esto es lo que estamos experimentando ahora mismo con los algoritmos de las redes sociales y demás.No significa que sea el fin de la democracia.La pregunta es: ¿se adaptará la democracia?

¿Cree que la IA acabará inclinando el equilibrio de poder a favor de sociedades democráticas o más totalitarias?

Una vez más, depende de nuestras decisiones.El peor de los casos no es ninguno de los dos, porque los dictadores humanos también tienen grandes problemas con la IA.En sociedades dictatoriales, no se puede hablar de nada que el régimen no quiera que se hable.Pero, en realidad, los dictadores tienen sus propios problemas con la IA porque es un agente incontrolable.Y a lo largo de la historia, lo [más aterrador] para un dictador humano es un subordinado [que] se vuelve demasiado poderoso y que no sabes cómo controlar.Si nos fijamos, digamos, en el Imperio Romano, ni un solo emperador romano fue derrocado por una revolución democrática.Ni uno solo.Pero muchos de ellos fueron asesinados o depuestos o se convirtieron en títeres de sus propios subordinados, un poderoso general o gobernador provincial o su hermano o su esposa o alguien más de su familia.Éste es el mayor temor de todo dictador.Y los dictadores gobiernan el país basándose en el miedo.

Ahora bien, ¿cómo se aterroriza a una IA?¿Cómo te aseguras de que permanecerá bajo tu control en lugar de aprender a controlarte?Presentaré dos escenarios que realmente molestan a los dictadores.Uno simple, otro mucho más complejo.Hoy en Rusia, es un crimen llamar guerra a la guerra en Ucrania.Según la ley rusa, lo que está sucediendo con la invasión rusa de Ucrania es una operación militar especial.Y si dices que esto es una guerra, puedes ir a prisión.Ahora, los humanos en Rusia han aprendido por las malas a no decir que es una guerra y a no criticar al régimen de Putin de ninguna otra manera.Pero, ¿qué pasa con los chatbots en la Internet rusa?Incluso si el régimen examina e incluso produce un robot de IA, lo que pasa con la IA es que puede aprender y cambiar por sí misma.

Entonces, incluso si los ingenieros de Putin crean una IA del régimen y luego comienza a interactuar con la gente en la Internet rusa y a observar lo que está sucediendo, puede llegar a sus propias conclusiones.¿Qué pasa si empieza a decirle a la gente que en realidad es una guerra?¿A qué te dedicas?No puedes enviar el chatbot a un gulag.No puedes golpear a su familia.Tus viejas armas de terror no funcionan con la IA.Entonces este es el pequeño problema.

El gran problema es qué sucede si la IA comienza a manipular al propio dictador.Tomar el poder en una democracia es muy complicado porque la democracia es complicada.Digamos que dentro de cinco o diez años la IA aprenderá a manipular al presidente de Estados Unidos.Todavía tiene que lidiar con un obstruccionismo del Senado.El solo hecho de que sepa cómo manipular al presidente no le ayuda con el Senado, los gobernadores estatales o la Corte Suprema.Hay tantas cosas con las que lidiar.Pero en un lugar como Rusia o Corea del Norte, una IA sólo necesita aprender a manipular a un único individuo extremadamente paranoico y inconsciente.Es bastante fácil.

¿Cuáles son algunas de las cosas que cree que deberían hacer las democracias para protegerse en el mundo de la IA?

Una cosa es responsabilizar a las corporaciones por las acciones de sus algoritmos.No por las acciones de los usuarios, sino por las acciones de sus algoritmos.Si el algoritmo de Facebook está difundiendo una teoría de conspiración llena de odio, Facebook debería ser responsable de ello.Si Facebook dice: "Pero nosotros no creamos la teoría de la conspiración".Es un usuario que lo creó y no queremos censurarlo”, luego les decimos: “No les pedimos que los censuren”.Sólo les pedimos que no lo difundan”. Y esto no es algo nuevo.Piensas en, no sé, el New York Times.Esperamos que el editor del New York Times, cuando decida qué poner en la parte superior de la portada, se asegure de no difundir información poco fiable.Si alguien les presenta una teoría de conspiración, no le dicen: "Oh, estás censurado".No se te permite decir estas cosas”. Dicen: “Está bien, pero no hay evidencia suficiente para respaldarlo”.Así que, con el debido respeto, eres libre de seguir diciendo esto, pero no lo pondremos en la portada del New York Times”. Y debería ser lo mismo con Facebook y Twitter.

Y nos dicen: “¿Pero cómo podemos saber si algo es confiable o no?” Bueno, este es tu trabajo.Si dirige una empresa de medios, su trabajo no es sólo buscar la participación de los usuarios, sino actuar responsablemente, desarrollar mecanismos para distinguir entre información confiable y no confiable, y solo difundir lo que tiene buenas razones para pensar que es información confiable.Ya se ha hecho antes.No son las primeras personas en la historia que tuvieron la responsabilidad de distinguir entre información confiable y no confiable.Lo han hecho antes editores de periódicos, científicos y jueces, así que usted puede aprender de su experiencia.Y si no puede hacerlo, está en el negocio equivocado.Así que eso es una cosa.Hacerlos responsables de las acciones de sus algoritmos.

La otra cosa es prohibir los bots en las conversaciones.La IA no debería participar en conversaciones humanas a menos que se identifique como IA.Podemos imaginar la democracia como un grupo de personas paradas en círculo y hablando entre sí.Y de repente un grupo de robots entra al círculo y empiezan a hablar muy alto y con mucha pasión.Y no sabes quiénes son los robots y quiénes los humanos.Esto es lo que está sucediendo ahora mismo en todo el mundo.Y es por eso que la conversación está colapsando.Y existe un antídoto sencillo.Los robots no son bienvenidos al círculo de conversación a menos que se identifiquen como bots.Hay un lugar, una habitación, digamos, para un médico de IA que me da consejos sobre medicina con la condición de que se identifique.

Del mismo modo, si entras en Twitter y ves que una determinada historia se vuelve viral, hay mucho tráfico allí, tú también te interesas.âOh, ¿cuál es esta nueva historia de la que todo el mundo habla?â ¿Quiénes son todos?Si esta historia en realidad está siendo impulsada por robots, entonces no se trata de humanos.No deberían estar en la conversación.De nuevo, decidir cuáles son los temas más importantes del día.Esta es una cuestión extremadamente importante en una democracia, en cualquier sociedad humana.Los bots no deberían tener esta capacidad de determinar qué historias dominan la conversación.Y nuevamente, si los gigantes tecnológicos nos dicen: "Oh, pero esto infringe la libertad de expresión", no es así porque los bots no tienen libertad de expresión.La libertad de expresión es un derecho humano, que estaría reservado a los humanos, no a los robots.