Es el comienzo del año escolar y, por tanto, el comienzo de unaronda frescadediscursosobre el nuevo papel de la IA generativa en las escuelas.En el espacio de aproximadamente tres años, los ensayos han pasado de ser un pilar de la educación en el aula en todas partes a una herramienta mucho menos útil, por una razón: ChatGPT.Estimaciones de cuántos estudiantes usan ChatGPT para ensayosvariar, pero es lo suficientemente común como paraobligar a los profesores a adaptarse.

Si bien la IA generativa tiene muchas limitaciones, los ensayos de los estudiantes entran en la categoría de servicios en los que son muy buenos: hay muchos ejemplos de ensayos sobre los temas asignados en sus datos de capacitación, existe una demanda de un enorme volumen detales ensayos, y los estándares de calidad de la prosa y de investigación original en los ensayos de los estudiantes no son tan altos.

Inscribirseaquípara explorar los grandes y complicados problemas que enfrenta el mundo y las formas más eficientes de resolverlos.Enviado dos veces por semana.

En este momento, es difícil detectar trampas en los ensayos mediante el uso de herramientas de inteligencia artificial.Varias herramientas anuncian que pueden verificar que el texto está generado por IA, pero sonno muy confiable.Desdeacusar falsamente a estudiantes de plagioEs un gran problema, estas herramientas tendrían que ser extremadamente precisas para funcionar, y simplemente no lo son.

Toma de huellas dactilares de IA con tecnología

Pero aquí hay una solución técnica.En 2022, un equipo de OpenAI, dirigido por un investigador de computación cuánticaScott Aaronson, desarrolló una solución de “marca de agua” que hace que el texto con IA sea prácticamente inconfundible, incluso si el usuario final cambia algunas palabras aquí y allá o reorganiza el texto.La solución es un poco complicada técnicamente, pero tengan paciencia porque también es muy interesante.

En esencia, la forma en que funciona la generación de texto por IA es que la IA "adivina" un montón de posibles siguientes tokens dado lo que aparece en un texto hasta el momento.Para no ser demasiado predecibles y producir el mismo resultado repetitivo constantemente, los modelos de IA no se limitan a adivinar el token más probable, sino que incluyen un elemento de aleatorización, que favorece las terminaciones "más probables", pero a vecesseleccionando uno menos probable.

La marca de agua funciona en esta etapa.En lugar de que la IA genere el siguiente token de acuerdo con una selección aleatoria, la IA utiliza un proceso no aleatorio: favorecer los siguientes tokens que obtienen una puntuación alta en una función interna de "puntuación" inventada por OpenAI.Podría, por ejemplo, favorecer ligeramente las palabras con la letra V, de modo que el texto generado con esta regla de puntuación tendrá un 20 por ciento más de V que el texto humano normal (aunque las funciones de puntuación reales son más complicadas que esto).Los lectores normalmente no notarían esto; de hecho, edité este boletín para aumentar la cantidad de V y dudo que esta variación en mi escritura normal se destaque.

De manera similar, el texto con marca de agua no será, a primera vista, diferente de la salida normal de IA.Pero sería sencillo para OpenAI, que conoce la regla de puntuación secreta, evaluar si un determinado cuerpo de texto obtiene una puntuación mucho más alta en esa regla de puntuación oculta que la que jamás obtendría el texto generado por humanos.Si, por ejemplo, la regla de puntuación fuera mi ejemplo anterior sobre la letra V, podría ejecutar este boletín a través de un programa de verificación y ver que tiene aproximadamente 90 V en 1200 palabras, más de lo que esperaría según la frecuencia con la V.se utiliza en inglés.Es una solución inteligente y técnicamente sofisticada para un problema difícil, y OpenAI ha tenido un prototipo funcional parados años.

Entonces, si quisiéramos resolver el problema del texto de IA disfrazado de texto escrito por humanos, es muy viable.Pero OpenAI no ha lanzado su sistema de marcas de agua, ni nadie más en la industria.¿Por qué no?

Todo es cuestión de competencia

Si OpenAI, y sólo OpenAI, lanzara un sistema de marcas de agua para ChatGPT, que facilitara saber cuándo la IA generativa ha producido un texto, esto no afectaría en lo más mínimo el plagio de ensayos de los estudiantes.Se correría la voz rápidamente y todos simplemente cambiarían a una de las muchas opciones de IA disponibles hoy en día: Meta's Llama, Anthropic's Claude, Google's Gemini.El plagio continuaría sin cesar y OpenAI perdería gran parte de su base de usuarios.Por lo tanto, no es sorprendente que mantengan en secreto su sistema de marcas de agua.

En una situación como esta, podría parecer apropiado que los reguladores intervengan. Si se requiere que cada sistema de IA generativa tenga una marca de agua, entonces no es una desventaja competitiva.Esta es la lógica detrás de un proyecto de ley presentado este año en la Asamblea del estado de California, conocido como elEstándares de procedencia del contenido digital de California, lo que requeriría que los proveedores de IA generativa hicieran detectable su contenido generado por IA, además de exigir a los proveedores que etiqueten la IA generativa y eliminen el contenido engañoso.OpenAI esa favordel proyecto de ley, lo cual no es sorprendente, ya que son el único proveedor de IA generativa conocido que tiene un sistema que hace esto.Sus rivales se oponen en su mayoría.

Estoy ampliamente a favor de algún tipo de requisitos de marca de agua para el contenido de IA generativa.La IA puede serincreíblemente útil, pero sus usos productivos no requieren que pretenda ser creado por humanos.Y aunque no creo que sea competencia del gobierno prohibir que los periódicos nos reemplacen a los periodistas con IA, ciertamente no quiero que los medios desinformen a los lectores sobre si el contenido que están leyendo es correcto o no.creado por humanos reales.

Aunque me gustaría algún tipo de obligación de marca de agua, no estoy seguro de que sea posible implementarla.Los mejores modelos de IA “abiertos” que se han lanzado (como el último Llama), modelos que puedes ejecutar tú mismo en tu propia computadora, son de muy alta calidad, sin duda lo suficientemente buenos para los ensayos de los estudiantes.Ya están disponibles y no hay forma de volver atrás y agregarles marcas de agua porque cualquiera puede ejecutar las versiones actuales, independientemente de las actualizaciones que se apliquen en versiones futuras.(Esta es una de las muchas formas en que tengo sentimientos complicados acerca de los modelos abiertos. Permiten una enorme cantidad de creatividad, investigación y descubrimiento, y también hacen imposible hacer todo tipo de anti-suplantación o suplantación de sentido común).material contra el abuso sexual infantilmedidas que de otro modo nos gustaría mucho tener).

Entonces, aunque las marcas de agua son posibles, no creo que podamos contar con ellas, lo que significa que tendremos que descubrir cómo abordar la ubicuidad del contenido fácil generado por IA como sociedad.Los profesores ya están cambiando a requisitos de redacción en clase y otros enfoques para reducir las trampas de los estudiantes.Es probable que también veamos un abandono de los ensayos de admisión a la universidad y, sinceramente, será una buena solución, ya que probablementeNunca es una buena manera de seleccionar estudiantes..

Pero aunque no me lamentaré mucho por el ensayo de admisión a la universidad, y aunque creo que los profesores son muy capaces de encontrar mejores formas de evaluar a los estudiantes, sí noto algunas tendencias preocupantes en toda la saga.Había una forma sencilla de permitirnos aprovechar los beneficios de la IA sin desventajas obvias como la suplantación y el plagio, pero el desarrollo de la IA se produjo tan rápido que la sociedad más o menos dejó pasar la oportunidad.Los laboratorios individuales podrían hacerlo, pero no lo harán porque los pondría en desventaja competitiva, y no es probable que haya una buena manera de obligar a todos a hacerlo.

En el debate sobre el plagio escolar, hay poco en juego.Pero es probable que la misma dinámica reflejada en el debate sobre las marcas de agua de la IA (donde los incentivos comerciales impiden que las empresas se autorregulan y el ritmo del cambio impide que los reguladores externos intervengan hasta que sea demasiado tarde) siga siendo lo que está en juego.llegar más alto.