Google
Crédito: Pixabay/CC0 Dominio público

¿Escuchaste?Google ha sido acusado de tener una vendetta secreta contra los blancos.Elon Musk intercambió tweets sobre la conspiración en X más de 150 veces durante la semana pasada, todos relacionados con retratos generados con el nuevo chatbot de inteligencia artificial Gemini de Google.

Ben Shapiro, The New York Post y Musk se sintieron apopléticos por la diversidad de las imágenes: ¡Papas!¡Nazis negros!¡Padres fundadores indígenas!Google se disculpó y detuvo la función.

En realidad, el problema es que la empresa hizo un trabajo deficiente al corregir en exceso la tecnología que solía tener un sesgo racista.No, su director ejecutivo, Sundar Pichai, no ha sido infectado por el virus de la mente despierta.Más bien, está demasiado obsesionado con el crecimiento y descuida los controles adecuados de sus productos.

Hace tres años, Google se metió en problemas cuando su herramienta de etiquetado de fotografías empezó a etiquetar a algunas personas negras como simios.Cerró la función y luego empeoró el problema al despedir a dos de sus principales investigadores de ética de la IA.

Estas eran las personas cuyo trabajo era asegurarse de que la tecnología de Google fuera justa en la forma en que representaba a las mujeres y las minorías.No demasiado diverso como el nuevo Géminis, pero sí equitativo y equilibrado.

Cuando Gemini comenzó a producir imágenes de soldados alemanes de la Segunda Guerra Mundial que eran negros y asiáticos esta semana, fue una señal de que el equipo de ética no se había vuelto más poderoso, como sugieren Musk y otros, sino que estaba siendo ignorado en medio de la carrera de Google contraMicrosoft Corp. y OpenAI dominarán la búsqueda web generativa.Una inversión adecuada habría llevado a un enfoque más inteligente de la diversidad en la generación de imágenes, pero Google estaba descuidando ese trabajo.

Las señales han estado ahí durante el año pasado.Las personas que prueban la seguridad de los sistemas de inteligencia artificial son superadas en número por aquellas cuyo trabajo es hacerlos más grandes y más capaces en una proporción de 30 a 1, según una estimación del Center for Humane Technology.

A menudo gritan al vacío y les dicen que no se interpongan en su camino.El anterior chatbot de Google, Bard, era tan defectuoso que cometió errores fácticos en su demostración de marketing.

Los empleados habían hecho advertencias al respecto, pero los gerentes no quisieron escuchar.Uno publicó en un foro de mensajes interno que Bard era "peor que inútil: por favor no lo lance", y muchos de los 7.000 empleados que vieron el mensaje estuvieron de acuerdo, según una investigación de Bloomberg News.

No mucho después, los ingenieros que habían llevado a cabo una evaluación de riesgos dijeron a sus superiores de Google que Bard podía causar daño y que no estaba preparado.Probablemente puedas adivinar lo que hizo Google a continuación: lanzó Bard al público.

La apresurada y defectuosa IA de Google no está sola.El chatbot Bing de Microsoft no sólo era inexacto, sino que estaba trastornado, y poco después de su lanzamiento le dijo a un columnista del New York Times que estaba enamorado de él y quería destruir cosas.Google ha dicho que la IA responsable es una prioridad absoluta y que "continuará invirtiendo en los equipos" que aplican sus principios de IA a los productos.Una portavoz de Google dijo que la compañía "continúa abordando rápidamente los casos en los que (Gemini) no responde adecuadamente".

OpenAI, que impulsó la carrera de las Big Tech por afianzarse en la IA generativa, normalizó la lógica para tratarnos a todos como conejillos de indias con nuevas herramientas de IA.Su sitio web describe una filosofía de "implementación iterativa", donde lanza productos como ChatGPT rápidamente para estudiar su seguridad e impacto y prepararnos para una IA más poderosa en el futuro.Pichai de Google ahora dice más o menos lo mismo.

Al lanzar herramientas de IA a medias, nos está dando "tiempo para adaptarnos" cuando la IA se vuelva superpoderosa, según comentarios que hizo en una entrevista de 60 Minutes el año pasado.

Cuando se le preguntó qué le mantiene despierto por la noche, Pichai dijo, sin ningún rastro de ironía, que era saber que la IA podría ser "muy dañina si se utiliza incorrectamente".Entonces, ¿cuál fue su solución?

Pichai no mencionó invertir más en los investigadores que hacen que la IA sea segura, precisa y ética, pero señaló una mayor regulación, una solución que estaba fuera de su control.

"Tiene que haber consecuencias por la creación de vídeos falsos que causan daño a la sociedad", dijo, refiriéndose a los vídeos de IA que podrían difundir información errónea."Cualquiera que haya trabajado con IA durante un tiempo se dará cuenta de que esto es algo tan diferente y tan profundo que necesitaríamos regulaciones sociales para pensar en cómo adaptarnos".

Esto es un poco como si el chef de un restaurante dijera: "Enfermar a la gente con salmonella es malo y necesitamos más inspectores de alimentos para controlar nuestros alimentos crudos", cuando saben muy bien que no hay inspectores de alimentos de quienes hablar y ganaron.No será por años.Les da licencia para seguir repartiendo carne o pescado contaminados.

Lo mismo ocurre con la IA.Con las regulaciones en un futuro lejano, Pichai sabe que recae en su empresa la responsabilidad de construir sistemas de IA que sean justos y seguros.Pero ahora que está atrapado en la carrera por incorporar rápidamente la IA generativa a todo, hay pocos incentivos para garantizar que así sea.

Sabemos del error de diversidad de Gemini por todos los tweets sobre X, pero el modelo de IA puede tener otros problemas que desconocemos: cuestiones que tal vez no desencadenen a Elon Musk, pero no son menos insidiosas.Las papas y los padres fundadores negros son producto de un problema más profundo y de años de anteponer el crecimiento y el dominio del mercado a la seguridad.Espere que nuestro papel como conejillos de indias continúe hasta que eso cambie.

Noticias de Bloomberg 2024.Distribuido por Tribune Content Agency, LLC.

Citación:La IA de Google no está demasiado "despierta".Es demasiado apresurado (2024, 29 de febrero)recuperado el 29 de febrero de 2024de https://techxplore.com/news/2024-02-google-ai-isnt-woke.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.