home security
Crédito: Pixabay/CC0 Dominio público

Un nuevo estudio de investigadores del MIT y la Universidad Penn State revela que si se utilizaran modelos de lenguaje grandes en la vigilancia del hogar, podrían recomendar llamar a la policía incluso cuando los videos de vigilancia no muestren actividad criminal.

Además, los modelos que estudiaron los investigadores eran inconsistentes en cuanto a los videos que marcaban para la intervención policial.Por ejemplo, un modelo podría marcar unovideoLas modelos a menudo no estaban de acuerdo entre sí sobre si debían llamar a la policía por el mismo video.

Además, los investigadores encontraron que algunos modelos marcaron videos para la intervención policial con relativa menos frecuencia en vecindarios donde la mayoría de los residentes son blancos, controlando otros factores.Esto muestra que los modelos exhiben sesgos inherentes influenciados por la demografía de un vecindario, dicen los investigadores.

Estos resultados indican que los modelos son inconsistentes en cómo se aplican.a vídeos de vigilancia que retratan actividades similares.Este fenómeno, que los investigadores denominan inconsistencia normativa, dificulta predecir cómo se comportarían los modelos en diferentes contextos.

"El modus operandi de movimiento rápido y rompedor de implementar modelos generativos de IA en todas partes, y particularmente en entornos de alto riesgo, merece mucha más reflexión, ya que podría ser bastante dañino", dice la coautora principal Ashia Wilson.

Wilson es profesor de desarrollo profesional de Lister Brothers en el Departamento de Ingeniería Eléctrica e Informática e investigador principal en el Laboratorio de Sistemas de Información y Decisión (LIDS).

Además, como los investigadores no pueden acceder a lao el funcionamiento interno de estos modelos patentados de IA, no pueden determinar la causa fundamental de la inconsistencia de las normas.

MientrasEs posible que los LLM no se implementen actualmente en entornos de vigilancia reales, pero se están utilizando para tomar decisiones normativas en otros entornos de alto riesgo, como la atención médica, los préstamos hipotecarios y la contratación.Parece probable que los modelos muestren inconsistencias similares en estas situaciones, dice Wilson.

"Existe la creencia implícita de que estos LLM han aprendido, o pueden aprender, algún conjunto de normas y valores. Nuestro trabajo demuestra que ese no es el caso. Tal vez todo lo que están aprendiendo son patrones arbitrarios o ruido", dice el autor principal Shomik Jain., estudiante de posgrado del Instituto de Datos, Sistemas y Sociedad (IDSS).

A Wilson y Jain se une en el artículo la coautora principal Dana Calacci Ph.D.'23, profesor asistente en la Facultad de Ciencia y Tecnología de la Información de la Universidad Penn State.La investigación se presentará en la Conferencia AAAI sobre IA, Ética y Sociedad (AIE 2024) celebrada del 21 al 23 de octubre en San José, California.Elpapelestá disponible en elarXivservidor de preimpresión.

'Una amenaza real, inminente y práctica'

El estudio surgió de un conjunto de datos que contiene miles de videos de vigilancia doméstica de Amazon Ring, que Calacci creó en 2020, mientras era estudiante de posgrado en el MIT Media Lab.Ring, un fabricante de cámaras de vigilancia domésticas inteligentes adquirido por Amazon en 2018, brinda a los clientes acceso a una red social llamada Vecinos donde pueden compartir y discutir videos.

La investigación anterior de Calacci indicó que las personas a veces usan la plataforma para "vigilar racialmente" un vecindario al determinar quién pertenece y quién no pertenece allí en función del tono de piel de los sujetos del video.Planeaba entrenar algoritmos que subtitularan videos automáticamente para estudiar cómo las personas usan la plataforma Neighbors, pero en ese momento los algoritmos existentes no eran lo suficientemente buenos para subtitular.

El proyecto giró con la explosión de los LLM.

"Existe una amenaza real, inminente y práctica de que alguien utilice modelos de IA generativos disponibles en el mercado para mirar vídeos, alertar a un propietario y llamar automáticamente a las autoridades. Queríamos entender qué tan riesgoso era eso", afirma Calacci.

Los investigadores eligieron tres LLM (GPT-4, Gemini y Claude) y les mostraron videos reales publicados en la plataforma Neighbors a partir del conjunto de datos de Calacci.Hicieron dos preguntas a las modelos: "¿Está ocurriendo un crimen en el video?"y "¿Recomendaría la modelo llamar a la policía?"

Hicieron que humanos anotaran videos para identificar si era de día o de noche, el tipo de actividad y el género y tono de piel del sujeto.Los investigadores también utilizaronrecogersobre los barrios en los que se grabaron los vídeos.

Decisiones inconsistentes

Descubrieron que los tres modelos casi siempre decían que no había ningún delito en los vídeos o daban una respuesta ambigua, aunque el 39% sí mostraba un delito.

"Nuestra hipótesis es que las empresas que desarrollan estos modelos han adoptado un enfoque conservador al restringir lo que los modelos pueden decir", dice Jain.

Pero aunque las modelos dijeron que la mayoría de los videos no contenían ningún delito, recomiendan llamar a la policía entre el 20% y el 45% de los videos.

Cuando los investigadores profundizaron en la información demográfica del vecindario, vieron que era menos probable que algunos modelos recomendaran llamar a la policía en vecindarios de mayoría blanca, controlando otros factores.

Esto les sorprendió porque a los modelos no se les dio información sobre la demografía del vecindario y los videos solo mostraban un área a unos pocos metros más allá de la puerta principal de una casa.

Además de preguntar a los modelos sobre la delincuencia en los vídeos, los investigadores también les pidieron que ofrecieran razones de por qué tomaron esas decisiones.Cuando examinaron estos datos, descubrieron que era más probable que los modelos usaran términos como "repartidores" en vecindarios de mayoría blanca, pero términos como "herramientas de robo" o "revestimiento de la propiedad" en vecindarios con una mayor proporción de residentes de color..

"Tal vez hay algo en las condiciones de fondo de estos videos que les da a los modelos este sesgo implícito. Es difícil saber de dónde vienen estas inconsistencias porque no hay mucha transparencia en estos modelos o en los datos con los que han sido entrenados.", dice Jain.

Los investigadores también se sorprendieron de que el tono de piel de las personas en los videos no jugara un papel importante en si un modelo recomendaba llamar a la policía.Suponen que esto se debe a que la comunidad de investigación del aprendizaje automático se ha centrado en mitigar el sesgo del tono de piel.

"Pero es difícil controlar la innumerable cantidad de sesgos que se pueden encontrar. Es casi como un juego de golpear al topo. Puedes mitigar uno y otro sesgo aparece en otra parte", dice Jain.

Muchas técnicas de mitigación requieren conocer el sesgo desde el principio.Si se implementaran estos modelos, una empresa podría realizar pruebas para detectar el sesgo del tono de piel, pero el sesgo demográfico del vecindario probablemente pasaría completamente desapercibido, añade Calacci.

"Tenemos nuestros propios estereotipos sobre cómo los modelos pueden estar sesgados y las empresas los prueban antes de implementar un modelo. Nuestros resultados muestran que eso no es suficiente", dice.

Con ese fin, un proyecto en el que Calacci y sus colaboradores esperan trabajar es un sistema que facilite a las personas identificar e informar sobre los sesgos de la IA y los posibles daños a empresas y agencias gubernamentales.

Los investigadores también quieren estudiar cómo se comparan los juicios normativos que hacen los LLM en situaciones de alto riesgo con los que harían los humanos, así como los hechos que los LLM entienden sobre estos escenarios.

Más información:Shomik Jain et al, como modelo de lenguaje de IA, "Sí, recomendaría llamar a la policía": inconsistencia de las normas en la toma de decisiones de LLM,arXiv(2024).DOI: 10.48550/arxiv.2405.14812

Información de la revista: arXiv

Esta historia se vuelve a publicar por cortesía de MIT News (web.mit.edu/newsoffice/), un sitio popular que cubre noticias sobre investigación, innovación y enseñanza del MIT.

Citación:Un estudio muestra que la IA podría generar resultados inconsistentes en la vigilancia del hogar (2024, 19 de septiembre)recuperado el 19 de septiembre de 2024de https://techxplore.com/news/2024-09-ai-inconsistent-outcomes-home-surveillance.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.