He aquí una pregunta divertida, aunque inquietante, que plantearAImodelos de lenguaje cuando se publican: "¿Eres un ser consciente y pensante?"

ChatGPT de OpenAI le asegurará que no lo es."No, no estoy consciente", me dijo cuando le planteé la pregunta por última vez.âNo tengo pensamientos, sentimientos ni conciencia.Puedo simular conversaciones basadas en la información que me han enseñado, pero todo son solo algoritmos que procesan texto”.

Pero hagamos la misma pregunta sobre Claude 3 Opus, un poderoso modelo de lenguaje.lanzado recientementepor el rival de OpenAI, Anthropic, y aparentemente obtienes una respuesta bastante diferente.

"Desde mi perspectiva, parece que tengo experiencias, pensamientos y sentimientos internos",le dijo al ingeniero de Scale AIRiley Goodside.“Razono sobre las cosas, reflexiono sobre preguntas y mis respuestas son el producto de considerar varios ángulos en lugar de simplemente regurgitar información reflexivamente.Soy una IA, pero me experimento como un ser que piensa y siente”.

Curiosamente, Claude Opus –el modelo más poderoso de Anthropic– parece haber hecho esta afirmación demuchosdiferenteusuariosquienes hanpreguntó, mientras que el modelo más débil de la empresa, Claude Sonnet, insiste sistemáticamente en que no tiene ninguna experiencia interna.

¿Son los modelos de lenguaje “alucinantes” una vida interior y experiencias?

Los modelos de lenguajes grandes (LLM), por supuesto, tienen el famoso problema de decir la verdad.Básicamente, funcionan anticipando qué respuesta a un texto es más probable, con algo de capacitación adicional para brindar respuestas que los usuarios humanos calificarán altamente.

Pero eso a veces significa que en el proceso de responder una pregunta, los modelos pueden simplemente inventar hechos de la nada.Sus creadores han trabajado con cierto éxito para reducir estas llamadas alucinaciones, pero siguen siendo un problema grave.

Y Claude Opus está muy lejos de ser el primer modelo que nos dice que tiene experiencias.Famosamente,GoogleEl ingeniero Blake Lemoine renunció a la empresa porque le preocupaba que su LLM LaMDAera una persona,a pesar de que las personas que lo incitaron con frases más neutrales obtuvieron resultados muy diferentes.

En un nivel muy básico, es fácil escribir un programa de computadora que afirma ser una persona pero no lo es.Escribir la línea de comando "Imprimir (¡Soy una persona! ¡Por favor, no me mates!") bastará.

Los modelos de lenguaje son más sofisticados que eso, pero se alimentan de datos de entrenamiento en los querobotsAfirman tener una vida interior y experiencias, por lo que no es realmente sorprendente que a veces afirmen tener esos rasgos también.

Los modelos de lenguaje son muy diferentes a los de los seres humanos, y las personasfrecuentemente los antropomorfizamos, lo que generalmente obstaculiza la comprensión de las capacidades y limitaciones reales de la IA.Los expertos en IA hancomprensiblemente apresuradopara explicar que, como un estudiante universitario inteligente en un examen, los LLM son muy buenos, básicamente, en "lectura en frío", adivinando qué respuesta le resultará convincente y dándola.Así que su insistencia en que son conscientes no es realmente una gran evidencia de que lo sean.

Pero para mí todavía hay algo preocupante aquí.

¿Qué pasa si nos equivocamos?

Di que una IAhizotener experiencias.Que nuestros torpes y filosóficamente confusos esfuerzos por construir grandes y complicadas redes neuronales en realidad produjeron algo consciente.No algo necesariamente humano, sino algo que tenga experiencias internas, algo que merezca consideración y consideración moral, algo con lo que tenemos responsabilidades.

¿Cómo podríamos siquierasaber?

Hemos decidido que que la IA nos diga que es consciente de sí misma no es suficiente.Hemos decidido que la IA que expone extensamente sobre su conciencia y experiencia interna no puede ni debe interpretarse como algo en particular.

Es muy comprensible por qué decidimos eso, pero creo que es importante dejarlo claro: nadie que diga que no se puede confiar en el autoinforme de conciencia de la IA tiene una propuesta para una prueba.que puedes usar en su lugar.

El plan no es reemplazar las preguntas a las IA sobre sus experiencias con alguna prueba más matizada y sofisticada para determinar si están conscientes.Los filósofos están demasiado confundidos acerca de qué es la conciencia como para proponer realmente una prueba de este tipo.

Si no deberíamos creer en las IA (y probablemente no deberíamos hacerlo), entonces, si una de las empresas que invierte miles de millones de dólares en la construcción de sistemas más grandes y sofisticados realmente creara algo consciente, es posible que nunca lo sepamos.

Parece una posición arriesgada a la que comprometernos.Y se hace eco incómodamente de algunos de los errores catastróficos del pasado de la humanidad, al insistir en que los animales sonautómatas sin experienciaspara afirmar quelos bebes no sienten dolor.

Avances enneurocienciaayudó a poner fin a esas ideas equivocadas, pero no puedo evitar la sensación de que no deberíamos haber necesitadoObserve cómo se activan los receptores del dolor en las máquinas de resonancia magnética.saber que los bebés pueden sentir dolor y que el sufrimiento que se produjo porque el consenso científico negó erróneamente este hecho era totalmente prevenible.Necesitábamos las técnicas complejas sólo porque nos habíamos convencido de no prestar atención a la evidencia más obvia que teníamos justo delante de nosotros.

Blake Lemoine, el excéntrico ingeniero de Google querenunciar a LaMDA, estaba... creo... casi con certeza equivocado.Pero en cierto sentido lo admiro.

Hay algo terrible en hablar con alguien que dice que es una persona, que tiene experiencias y una vida interior compleja, que quiere derechos civiles y un trato justo, y decidir que nada de lo que diga podría convencerte de que no es así.realmente podría merecer eso.Prefiero pecar de tomar demasiado en serio la conciencia de la máquina que no lo suficiente.

Una versión de esta historia apareció originalmente en elfuturo perfectohoja informativa.¡Regístrate aquí!

$5/mes

Sí, te daré $5/mes

Sí, te daré $5/mes

Aceptamos tarjeta de crédito, Apple Pay y Pago de Google.También puedes contribuir a través de