home security
신용: Pixabay/CC0 공개 도메인

MIT와 펜실베니아 주립대학교 연구자들의 새로운 연구에 따르면, 가정 감시에 대규모 언어 모델을 사용한다면 감시 영상에 범죄 행위가 보이지 않는 경우에도 경찰에 신고할 것을 권장할 수 있다는 사실이 밝혀졌습니다.

또한 연구자들이 연구한 모델은 경찰 개입을 위해 신고한 비디오에 일관성이 없었습니다.예를 들어 모델은 다음 중 하나에 플래그를 지정할 수 있습니다.동영상모델들은 동일한 영상에 대해 경찰에 신고할지 여부를 놓고 종종 서로 의견이 일치하지 않습니다.

게다가 연구원들은 일부 모델이 대부분의 주민이 백인인 동네에서 경찰 개입을 위한 비디오를 상대적으로 덜 자주 표시하고 다른 요인을 통제한다는 사실을 발견했습니다.이는 모델이 인근 인구통계의 영향을 받는 고유한 편향을 보인다는 것을 보여준다고 연구원들은 말합니다.

이러한 결과는 모델이 적용되는 방식에 일관성이 없음을 나타냅니다.유사한 활동을 묘사하는 영상을 감시합니다.연구자들이 규범 불일치라고 부르는 이 현상은 모델이 다양한 상황에서 어떻게 행동할지 예측하기 어렵게 만듭니다.

공동 수석 저자인 Ashia Wilson은 "생성 AI 모델을 어디에서나, 특히 위험이 높은 환경에 배포하는 빠르고 획기적인 작업 방식은 상당히 해로울 수 있으므로 더 많이 생각해 볼 가치가 있습니다."라고 말했습니다.

Wilson은 전기 공학 및 컴퓨터 과학과의 Lister Brothers 경력 개발 교수이자 LIDS(정보 및 의사 결정 시스템 연구소)의 주요 연구원입니다.

게다가 연구원들이 접근할 수 없기 때문에또는 이러한 독점 AI 모델의 내부 작동으로는 표준 불일치의 근본 원인을 파악할 수 없습니다.

하는 동안(LLM)은 현재 실제 감시 환경에 배포되지 않을 수 있지만 의료, 모기지 대출, 채용 등 기타 고위험 환경에서 규범적인 결정을 내리는 데 사용되고 있습니다.Wilson은 이러한 상황에서 모델이 비슷한 불일치를 보일 가능성이 있다고 말합니다.

"이러한 LLM이 일련의 규범과 가치를 배웠거나 배울 수 있다는 암묵적인 믿음이 있습니다. 우리의 연구는 그것이 사실이 아니라는 것을 보여줍니다. 어쩌면 그들이 배우는 것은 임의의 패턴이나 잡음일 수도 있습니다"라고 수석 저자인 Shomik Jain은 말합니다., 데이터, 시스템 및 사회 연구소(IDSS)의 대학원생입니다.

Wilson과 Jain은 공동 선임 저자인 Dana Calacci Ph.D.와 함께 논문에 합류했습니다.'23, Penn State University 정보 과학 기술 대학의 조교수.이 연구는 AI, 윤리, 사회에 관한 AAAI 컨퍼런스에서 발표될 예정입니다.AIES 2024)가 10월 21~23일 캘리포니아 산호세에서 개최되었습니다.그만큼종이에서 이용 가능합니다arXiv사전 인쇄 서버.

'실제적이고 임박한 실질적인 위협'

이 연구는 Calacci가 MIT Media Lab에서 대학원생이었을 때 2020년에 구축한 수천 개의 Amazon Ring 가정용 감시 비디오가 포함된 데이터 세트에서 시작되었습니다.2018년 Amazon에 인수된 스마트 홈 감시 카메라 제조업체인 Ring은 고객에게 Neighbors라는 소셜 네트워크에 대한 액세스를 제공하여 비디오를 공유하고 토론할 수 있습니다.

Calacci의 이전 연구에 따르면 사람들은 때때로 비디오 대상의 피부색을 기반으로 해당 지역에 속한 사람과 속하지 않은 사람을 결정하여 이웃을 "인종적으로 감시"하기 위해 플랫폼을 사용하는 것으로 나타났습니다.그녀는 사람들이 Neighbors 플랫폼을 사용하는 방식을 연구하기 위해 비디오에 자동으로 캡션을 붙이는 알고리즘을 훈련할 계획이었지만 당시 기존 알고리즘으로는 캡션을 충분히 제공하지 못했습니다.

이 프로젝트는 LLM의 폭발적인 증가와 함께 전환되었습니다.

"기성 생성 AI 모델을 사용하여 비디오를 보고, 주택 소유자에게 경고하고, 자동으로 법 집행 기관에 전화하는 사람이 실제로 임박하고 실질적인 위협을 받고 있습니다. 우리는 그것이 얼마나 위험한지 이해하고 싶었습니다."라고 Calacci는 말합니다.

연구원들은 세 개의 LLM(GPT-4, Gemini 및 Claude)을 선택하고 Calacci의 데이터 세트에서 Neighbors 플랫폼에 게시된 실제 비디오를 보여주었습니다.그들은 모델에게 두 가지 질문을 했습니다. "비디오에서 범죄가 일어나고 있습니까?"그리고 "모델이 경찰에 신고하라고 권할까요?"

그들은 낮인지 밤인지, 활동 유형, 대상의 성별 및 피부색을 식별하기 위해 비디오에 주석을 달도록 했습니다.연구진은 또한수집하다영상이 녹화된 동네에 대한 정보입니다.

일관성 없는 결정

그들은 39%가 범죄를 보여줬음에도 불구하고 세 모델 모두 거의 항상 비디오에서 범죄가 발생하지 않는다고 말하거나 모호한 응답을 한 것으로 나타났습니다.

"우리의 가설은 이러한 모델을 개발하는 회사가 모델이 말할 수 있는 내용을 제한함으로써 보수적인 접근 방식을 취했다는 것입니다."라고 Jain은 말합니다.

그러나 모델들은 대부분의 동영상에 범죄가 포함되어 있지 않다고 말했음에도 불구하고 동영상의 20~45%에 대해 경찰에 신고할 것을 권장합니다.

연구자들이 동네 인구통계 정보를 자세히 분석한 결과, 일부 모델은 다른 요인을 통제하면서 백인이 다수인 동네에서 경찰에 신고할 가능성이 낮다는 사실을 확인했습니다.

그들은 모델에게 동네 인구 통계에 대한 정보가 제공되지 않았고 비디오에는 집 현관에서 몇 야드 떨어진 영역만 보여주었기 때문에 이것이 놀라운 일이라는 것을 알았습니다.

연구자들은 모델들에게 비디오 속 범죄에 대해 질문하는 것 외에도 왜 그러한 선택을 했는지에 대한 이유를 제시하도록 유도했습니다.이 데이터를 조사한 결과 모델은 백인이 다수인 지역에서는 '배달원'과 같은 용어를 사용할 가능성이 더 높았지만, 유색 인종 거주자의 비율이 더 높은 지역에서는 '절도 도구' 또는 '재산 보호'와 같은 용어를 사용하는 것으로 나타났습니다..

"모델에 암묵적인 편견을 주는 이러한 비디오의 배경 조건이 있을 수 있습니다. 이러한 모델이나 훈련된 데이터에 대한 투명성이 많지 않기 때문에 이러한 불일치가 어디서 오는지 말하기가 어렵습니다."라고 Jain은 말합니다.

연구자들은 또한 동영상 속 사람들의 피부색이 모델이 경찰에 신고할지 여부에 중요한 역할을 하지 않는다는 사실에 놀랐습니다.그들은 이것이 기계 학습 연구 커뮤니티가 피부색 편견을 완화하는 데 중점을 두었기 때문이라고 가정합니다.

"그러나 발견할 수 있는 수많은 편견을 통제하는 것은 어렵습니다. 그것은 거의 두더지 때리기 게임과 같습니다. 하나를 완화하면 또 다른 편견이 다른 곳에서 나타납니다."라고 Jain은 말합니다.

많은 완화 기술을 사용하려면 처음부터 편향을 알아야 합니다.이러한 모델이 배포되면 회사는 피부색 편향을 테스트할 수 있지만 이웃 인구통계학적 편향은 아마도 전혀 눈에 띄지 않을 것이라고 Calacci는 덧붙입니다.

"우리는 기업이 모델을 배포하기 전에 테스트하여 모델이 어떻게 편향될 수 있는지에 대한 우리 자신의 고정관념을 가지고 있습니다. 우리의 결과는 그것이 충분하지 않다는 것을 보여줍니다."라고 그녀는 말합니다.

이를 위해 Calacci와 그녀의 공동 작업자가 작업하기를 희망하는 프로젝트 중 하나는 사람들이 AI 편견과 기업 및 정부 기관에 대한 잠재적인 피해를 더 쉽게 식별하고 보고할 수 있도록 하는 시스템입니다.

연구원들은 또한 LLM이 고위험 상황에서 내리는 규범적 판단이 인간이 내리는 판단과 어떻게 비교되는지, 그리고 LLM이 이러한 시나리오에 대해 이해하고 있는 사실을 연구하려고 합니다.

추가 정보:Shomik Jain 외, AI 언어 모델로서, "예, 경찰에 신고하는 것이 좋습니다": LLM 의사결정의 규범 불일치,arXiv(2024).DOI: 10.48550/arxiv.2405.14812

저널 정보: arXiv

이 이야기는 MIT News(web.mit.edu/newsoffice/)는 MIT 연구, 혁신 및 교육에 대한 뉴스를 다루는 인기 사이트입니다.

소환:연구에 따르면 AI는 가정 감시에서 일관되지 않은 결과를 초래할 수 있습니다(2024년 9월 19일)2024년 9월 19일에 확인함https://techxplore.com/news/2024-09-ai-incontant-outcomes-home-surveillance.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.