ai
신용: CC0 공개 도메인

전 세계의 정책 입안자들은 국제 조직에서 이러한 도구를 어떻게 사용할 것인지를 포함하여 인공 지능 기술 발전이 미치는 광범위한 영향을 해결하기 위해 고심하고 있습니다.

버지니아 대학 데이터 과학 대학의 조교수인 Aaron Martin은 최근 한 컨퍼런스에서 이 중요한 주제에 대한 통찰력을 공유하도록 초대받았습니다.워싱턴의 세계은행에서 개최되고 유럽 데이터 보호 감독관이 공동 주최한 데이터 보호에 관한 국제기구 워크숍에서.올해 회의는 유럽 이외의 지역에서 처음으로 회의가 개최된 것입니다.

2023년 UVA 미디어 연구과 공동 임명으로 데이터 과학 대학 교수진에 합류한 Martin은 데이터 거버넌스와 특히 기술과 관련하여 국제 기관이 초국적 정책을 수립하는 방법을 전문으로 합니다.

패널 토론에서 Martin은 글로벌 기관이 데이터 보호와 관련하여 직면한 과제와 이를 해결하기 위해 노력하는 것이 왜 중요한지에 대한 자신의 생각을 공유했습니다.

그는 최근 컨퍼런스에서의 자신의 경험과 빠르게 진화하는 글로벌 문제의 다양한 측면에 대한 자신의 견해에 대해 이야기했습니다.

귀하의 패널은 국제기구의 AI 사용에 중점을 두었습니다.대체로 이러한 기관에서 AI 시스템을 얼마나 널리 사용하고 있는지에 대한 인상은 어떻습니까?

말하자면,D.C. 워크숍에 참석한 사람들을 포함하여 이들은 임무와 임무 측면에서 매우 다양합니다.

여기에는 개발 또는 인도주의적 임무를 수행하는 UN 기관부터 국제적으로 보안 및 법 집행 협력을 촉진하는 NATO 또는 인터폴과 같은 조직에 이르기까지 다양합니다.그들 각자는 AI의 활용을 다양한 방식으로 탐구하고 있는데, 현재 그들의 접근 방식은 조심스럽고 고무적이라는 인상을 받았습니다.

IO의 주요 특징은 법적 면제 및 특권을 누리는 것입니다. 이는 독립성과 효과적인 기능을 보장하는 데 도움이 됩니다.이것이 실제로 의미하는 바는 데이터 보호(예: 일반 데이터 보호 규정) 및 AI(예: EU AI 법)에 대한 국내 법률 및 규정이 정부 기관이나 상업 회사에 적용되는 것처럼 IO에 적용되지 않는다는 것입니다.

이는 실제 거버넌스 문제가 됩니다. IO가 데이터를 처리하고 책임감 있게 새로운 기술을 사용하도록 하려면 어떻게 해야 할까요?이러한 조직의 대부분은 개인 정보 보호 및 보안에 대한 정책을 수립했습니다.하지만 AI는 해결해야 할 새로운 과제를 제시합니다.이 워크숍의 요점은 조직이 협력하여 데이터, 그리고 AI에 대한 좋은 지침과 사례를 개발하는 것입니다.

논의의 일부는 이러한 시스템의 위험에 초점을 맞췄습니다.국제기구는 업무의 영향을 받는 많은 구성원에 대한 AI 위험을 완화하기 위해 무엇을 우선시해야 합니까?

최근 저는 AI 기업이 새로운 고품질 데이터 소스에 접근하는 데 직면한 어려움에 대한 뉴스 보도를 접했습니다.AI 모델에 점점 더 많은 데이터가 제공되지 않으면 AI 모델의 유용성과 신뢰성이 떨어질 것이라는 우려가 커지고 있습니다. 공동 패널리스트 중 한 명이 설명했듯이 이러한 모델은 "배고프다"고 합니다.AI 모델이 너무 많은 합성(즉, 가짜) 데이터 또는 AI 생성 데이터를 학습하면 AI 모델이 붕괴되기 시작할 것이라는 우려가 있어 AI 회사들은 새로운 데이터 파트너를 찾기 위해 안간힘을 쓰고 있습니다.

워크숍에서 저는 IO가 AI 회사와 데이터를 과도하게 공유하는 데 따른 다양한 위험에 대한 인식을 높이는 데 중점을 두었습니다.IO는 개발 지표, 글로벌 갈등, 인도주의적 문제 등 놀라울 정도로 풍부하고 다양한 데이터를 보유하고 있습니다.

또한 AI 회사가 일반적으로 데이터를 긁어 모으는 곳인 온라인에서 매우 과소 대표되는 세계 일부 지역의 데이터도 보유하고 있습니다.IO는 이 데이터의 기밀성을 보장하는 방법과 오용 및 유해한 AI 비즈니스 모델로부터 데이터를 보호하기 위한 조치를 취하는 방법에 대해 신중하게 생각해야 합니다.

말씀하신 것처럼 국제기구는 하나의 단일체가 아니며 패널의 청중은 다양한 그룹의 대표자들로 구성되었습니다.다양한 유형의 국제기구는 임무에 따라 이러한 문제에 대해 어느 정도 다르게 생각해야 합니까?

몇 가지 공통적인 문제가 있습니다. 예를 들어 모든 IO에는 인사 부서가 있으므로 엔터프라이즈 애플리케이션은 다른 조직과 마찬가지로 IO에도 존재합니다.그리고 대부분은 아니지만 많은 IO는 생성 AI를 포함한 AI 도구의 사용을 형성하고 제한할 수 있는 중요한 예산 고려 사항을 가지고 있습니다.

제가 연구를 포함하여 특히 관심을 갖고 있는 것은 인도주의적 IO의 AI 사용이 원조 수혜자, 즉 수혜자에게 어떤 영향을 미칠 수 있는지입니다.예를 들어, IO는 식량 지원을 받는 사람에 대한 결정을 AI에만 의존해야 합니까?그렇게 하면 어떤 위험이 있나요?이는 이러한 결정에 직접적인 영향을 받는 사람들을 포함하여 다양한 이해관계자의 참여가 필요한 어려운 질문입니다.

당신은 역사적으로 소외된 지역사회, 특히 난민에 대한 기술의 영향을 조사하는 많은 작업을 해왔습니다.특히 인도주의 단체와 AI와 관련하여 가장 큰 우려 사항은 무엇입니까?

인도주의 단체는 일반적으로 AI에 대한 접근 방식에 대해 상당히 사려 깊습니다."디지털 피해를 주지 마십시오"는 그들의 주문입니다. 이는 AI가 분쟁과 위기의 영향을 받는 난민과 다른 사람들에게 가할 수 있는 잠재적이고 실제적인 피해에 매우 민감하다는 것을 의미합니다.

나는 구호 분야에서 "AI 뱀 기름"이라고 불리는 것과 단순히 과대 광고를 전달할 수 없는 기술을 판매하는 조직에 대해 걱정합니다.이러한 조직과 계속 협력하여 그들이 가능성과 위험을 이해하도록 돕는 것이 중요합니다.

패널을 위한 다른 연사들의 주요 내용과 컨퍼런스에서 들은 내용은 무엇입니까?

뭐, 채텀 하우스 룰이었으니 여기서는 조심해야겠지만, IO가 AI를 조직에 도입하려고 하는 전략적 사고에 상당히 감동받았습니다.저는 사람들이 AI 사용 사례를 무심코 찾고 있는 것처럼 느껴지는 다른 컨퍼런스에 참석한 적이 있는데, 이는 일반적으로 잘못된 접근 방식입니다.

또 다른 패널리스트는 자신의 조직이 AI를 사용하여 문서화하는 방법을 설명했습니다.이는 매혹적인 적용이며 AI가 세상에 긍정적인 영향을 미칠 수 있는 잠재력을 말해줍니다.

소환:Q&A: 교수가 AI 및 데이터 보호와 관련하여 국제기구가 직면한 위험에 대해 논의합니다(2024년 9월 30일)2024년 9월 30일에 확인함https://techxplore.com/news/2024-09-qa-professor-discusses-international-ai.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.