OpenAI
Crédito: Unsplash/CC0 Dominio público

El mes pasado, OpenAIsalió en contrauna ley californiana aún por promulgar que tiene como objetivo establecer estándares básicos de seguridad para los desarrolladores de grandes modelos de inteligencia artificial (IA).Este fue un cambio de postura para la empresa, cuyo director ejecutivo, Sam Altman, había anteriormentehablado en apoyode la regulación de la IA.

La antigua organización sin fines de lucro, que saltó a la fama en 2022 con el lanzamiento de ChatGPT, ahora está valorada enhasta 150 mil millones de dólares.Sigue a la vanguardia del desarrollo de la IA, con el lanzamiento la semana pasada deun nuevo modelo de "razonamiento"diseñado para abordar tareas más complejas.

La compañía ha realizado varios movimientos en los últimos meses, lo que sugiere un creciente apetito por la adquisición de datos.No se trata solo del texto o las imágenes utilizadas para entrenar las herramientas de IA generativa actuales, sino que también puede incluir datos íntimos relacionados con el comportamiento en línea, las interacciones personales y la salud.

No hay evidencia de que OpenAI planee reunir estos diferentes flujos de datos, pero hacerlo ofrecería grandes beneficios comerciales.Incluso la posibilidad de acceder a información tan amplia plantea importantes cuestiones sobre la privacidad y lade control centralizado de datos.

Ofertas de medios

Este año, OpenAI ha firmadomúltiples asociacionesconincluidoTiemporevista, laTiempos financieros, Axel Springer,El Mundo, Prisa Media y, más recientemente, Condé Nast, propietario de empresas comoModa,El neoyorquino,Feria de la vanidadycableado.

Las asociaciones otorgan a OpenAI acceso a grandes cantidades de contenido.Los productos de OpenAI también se pueden utilizar para analizar el comportamiento del usuario y métricas de interacción, como hábitos de lectura, preferencias y patrones de participación en todas las plataformas.

Si OpenAI obtuviera acceso a estos datos, la empresa podría obtener una comprensión integral de cómo los usuarios interactúan con varios tipos de contenido, lo que podría usarse para realizar perfiles y seguimiento en profundidad de los usuarios.

Vídeo, biometría y salud

OpenAI también ha invertido enuna startup de cámara web llamada Opal.El objetivo es mejorar las cámaras con capacidades avanzadas de IA.

Las imágenes de vídeo recopiladas por cámaras web impulsadas por IA podrían traducirse en datos biométricos más sensibles, como expresiones faciales y estados psicológicos inferidos.

En julio, OpenAI y Thrive Global lanzaron Thrive AI Health.La empresa dice que utilizará IA para "Hiperpersonalizar y escalar el cambio de comportamiento."en salud.

Si bien Thrive AI Health dice que tendrá "barandillas sólidas de privacidad y seguridad", no está claro cómo serán.

Proyectos de salud de IA anteriores han implicado un amplio intercambio de datos personales, como una asociación entre Microsoft y Providence Health en los Estados Unidos y otra entre Google DeepMind y Royal Free London NHS Foundation Trust en el Reino Unido.En este último caso, DeepMindenfrentó acciones legalespor el uso de datos sanitarios privados.

El proyecto paralelo de escaneo del globo ocular de Sam Altman

Altman también tiene inversiones en otras empresas ávidas de datos, en particular un controvertido proyecto de criptomonedas llamado WorldCoin (que él cofundó).WorldCoin tiene como objetivo crear una red financiera global y un sistema de identificación mediante identificación biométrica, específicamente escaneos del iris.

La empresa afirma que yaescaneó los globos oculares de más de 6,5 millones de personasen casi 40 países.Mientras tanto, más de una docena de jurisdicciones han suspendido sus operaciones o examinado su procesamiento de datos.

Las autoridades bávaras están deliberando actualmente sobresi Worldcoin cumple con las normas europeas de privacidad de datos.Un fallo negativo podría impedir a la empresa operar en Europa.

Las principales preocupaciones que se están investigando incluyen la recopilación y el almacenamiento de datos biométricos confidenciales.

¿Por qué esto importa?

Los modelos de IA existentes, como el buque insignia GPT-4o de OpenAI, se han entrenado en gran medida endatos disponibles públicamentedesde internet.Sin embargo, los modelos futuros necesitarán más datos, y esCada vez es más difícil conseguirlo..

El año pasado, la empresadichoquería que los modelos de IA "comprendieran profundamente todos los temas, industrias, culturas e idiomas", lo que requeriría "un conjunto de datos de capacitación lo más amplio posible".

En este contexto, la búsqueda de OpenAI de asociaciones con los medios, las inversiones en tecnologías de recopilación de datos biométricos y de salud, y los vínculos del CEO con proyectos controvertidos como Worldcoin, comienzan a pintar un panorama preocupante.

Al obtener acceso a grandes cantidades de datos de usuarios, OpenAI se está posicionando para construir la próxima ola de modelos de IA, pero la privacidad puede ser una víctima.

Los riesgos son multifacéticos.Grandes colecciones de datos personales son vulnerables a violaciones y uso indebido, como laViolación de datos segurosen el que a casi la mitad de los australianos les robaron sus datos personales y médicos.

El potencial de consolidación de datos a gran escala también plantea preocupaciones sobre la elaboración de perfiles y la vigilancia.Nuevamente, no hay evidencia de que OpenAI planee actualmente involucrarse en tales prácticas.

Sin embargo, las políticas de privacidad de OpenAI han sidomenos que perfecto en el pasado.Las empresas tecnológicas en general también tienen una larga historia deprácticas de datos cuestionables.

No es difícil imaginar un escenario en el que el control centralizado sobre muchos tipos de datos permitiría a OpenAI ejercer una influencia significativa sobre las personas, tanto en el ámbito personal como en el público.

¿La seguridad pasará a un segundo plano?

La historia reciente de OpenAI hace poco para aliviar las preocupaciones sobre seguridad y privacidad.En noviembre de 2023, Altman fuetemporalmente expulsadocomo, supuestamente debido a conflictos internos sobre la dirección estratégica de la empresa.

Altman ha sido un firme defensor de la rápida comercialización y despliegue de tecnologías de inteligencia artificial.Según se informa, a menudo ha priorizado el crecimiento y la penetración en el mercado.sobre las medidas de seguridad.

La destitución de Altman del cargo fue breve,seguido de una rápida reinstalacióny una reestructuración significativa de la junta directiva de OpenAI.Esto sugiere que el liderazgo de la compañía ahora respalda su enfoque agresivo para el despliegue de IA, a pesar de los riesgos potenciales.

En este contexto, las implicaciones de la reciente oposición de OpenAI al proyecto de ley de California se extienden más allá de un simple desacuerdo político.La postura antirregulación sugiere una tendencia preocupante.

OpenAI no respondió a la solicitud de comentarios de The Conversation antes de la fecha límite.

Este artículo se republica desdeLa conversaciónbajo una licencia Creative Commons.Lea elartículo original.The Conversation

Citación:El hambre de datos de OpenAI genera preocupaciones sobre la privacidad (2024, 22 de septiembre)recuperado el 22 de septiembre de 2024de https://techxplore.com/news/2024-09-openai-hunger-privacy.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.