algorithm
신용: Pixabay/CC0 공개 도메인

거의 10년 동안 연구자들은 소셜 미디어 플랫폼인 Facebook이 불균형적으로 영향력을 확대하고 있다는 증거를 수집해 왔습니다.품질이 낮은 콘텐츠그리고오보.

그래서 2023년에 놀라운 일이 일어났습니다.신문과학연구를 발표했습니다2020년 미국 선거에서 페이스북의 알고리즘이 잘못된 정보를 유발하는 주요 요인이 아니라는 사실이 밝혀졌습니다.

본 연구는 Facebook의 모회사인 Meta의 자금 지원을 받았습니다.여러 Meta 직원도 저작팀의 일원이었습니다.폭넓은 관심을 끌었습니다언론 보도.그것은 또한Meta의 글로벌 담당 사장인 Nick Clegg가 기념하는 행사입니다., 그는 회사의 알고리즘이 "양극화, 정치적 태도 또는 신념에 감지 가능한 영향을 미치지 않는다"고 말했습니다.

그러나 매사추세츠 대학교 애머스트(University of Massachusetts Amherst)의 찬닥 바그(Chhandak Bagch)가 이끄는 연구진은 최근 이번 발견에 의문을 제기했습니다.에eLetter는 다음 국가에서도 출판됩니다.과학, 그들은 그 결과가 페이스북의 조작으로 인한 것일 가능성이 높다고 주장합니다.연구가 진행되는 동안.

~ 안에응답 전자 편지, 원래 연구의 저자는 Facebook이 알고리즘을 다른 방식으로 변경했다면 결과가 "다를 수 있었을 것"이라고 인정합니다.그러나 그들은 그들의 결과가 여전히 유효하다고 주장합니다.

전체적인 실패는 거대 기술 자금 조달과 자체 제품에 대한 연구 촉진으로 인한 문제를 강조합니다.이는 또한 소셜 미디어 플랫폼에 대한 더 큰 독립적인 감독의 필요성을 강조합니다.

의심의 상인

빅테크본격적으로 투자를 시작했습니다자사 제품에 대한 학문적 연구를 진행 중입니다.또한 보다 일반적으로 대학에 막대한 투자를 해왔습니다.예를 들어 Meta와 그 수장인 Mark Zuckerberg는수억 달러를 공동으로 기부했습니다.미국 전역의 100개 이상의 대학에 지원금을 지원합니다.

이는 한때 대형 담배가 했던 것과 비슷합니다.

1950년대 중반 담배회사들은공동 캠페인을 시작했습니다흡연과 암과 같은 여러 가지 심각한 건강 문제를 연관시키는 증거가 점점 늘어나고 있다는 사실에 대한 의구심을 불러일으키기 위해.연구를 노골적으로 위조하거나 조작하는 것이 아니라 선별적으로 연구에 자금을 지원하고 결론이 나지 않은 결과에 주목하게 하는 것이었습니다.

이는 다음과 같은 이야기를 육성하는 데 도움이 되었습니다.확실한 증거가 없음흡연은 암을 유발합니다.결과적으로, 이를 통해 담배 회사는 책임과 "선의"에 대한 대중의 이미지를 유지할 수 있었습니다.글쎄 1990년대까지.

긍정적인 회전

에 발표된 메타 자금 지원 연구과학2023년에는 Facebook의 뉴스피드 알고리즘이 신뢰할 수 없는 뉴스 콘텐츠에 대한 사용자 노출을 줄였다고 주장했습니다.저자들은 "메타는 출판 전 승인을 받을 권리가 없다"고 말했지만,Facebook 공개 연구 및 투명성팀은 "전체 프로젝트 실행에 실질적인 지원을 제공했습니다."

이 연구에서는여기서 참가자, 즉 Facebook 사용자는 무작위로 통제 그룹 또는 치료 그룹에 할당되었습니다.

그만큼페이스북의 알고리즘 뉴스피드를 계속 사용했고, 치료 그룹에게는 콘텐츠가 역순으로 제시된 뉴스피드가 제공되었습니다.이 연구에서는 신뢰할 수 없는 뉴스 소스에서 제공되는 허위 정보와 오해의 소지가 있는 정보에 대한 사용자의 노출에 대한 이러한 두 가지 유형의 뉴스 피드가 미치는 영향을 비교하려고 했습니다.

실험은 강력하고 잘 설계되었습니다.하지만 메타는 짧은 기간 동안 뉴스피드 알고리즘을 변경해 더욱 신뢰도 높은 뉴스 콘텐츠를 선보였습니다.이를 통해 실험의 대조조건을 변경하였다.

원래 연구에서 보고된 잘못된 정보에 대한 노출 감소는 알고리즘 변경으로 인한 것 같습니다.그러나 이러한 변경 사항은 일시적이었습니다. 몇 달 후인 2021년 3월에 Meta는 뉴스피드 알고리즘을 원래대로 되돌렸습니다.

성명서에서에게과학논란에 대해 Meta는 당시 연구자들에게 변경 사항을 명확히 밝혔으며 논문 결과에 대한 Clegg의 진술을 지지한다고 말했습니다.

전례 없는 힘

잘못된 정보 및 정치적 양극화와 같은 문제에 대한 알고리즘 콘텐츠 큐레이션의 역할을 경시함으로써 이 연구는 소셜 미디어 알고리즘의 해로운 영향에 대한 의심과 불확실성을 심는 신호가 되었습니다.

분명히 말하면, 원래의 2023년 연구를 수행한 연구자들이 대중을 호도했다는 의미는 아닙니다.진짜 문제는 소셜 미디어 회사가 연구자의 데이터 접근을 통제할 뿐만 아니라 자금을 지원하는 연구 결과에 영향을 미치는 방식으로 시스템을 조작할 수도 있다는 것입니다.

더욱이 소셜 미디어 회사는 연구 대상 플랫폼에서 특정 연구를 홍보할 수 있는 힘을 가지고 있습니다.결과적으로 이는 여론 형성에 도움이 됩니다.알고리즘의 영향에 대한 회의론과 의구심이 일반화되거나 사람들이 단순히 관심을 두지 않는 시나리오를 만들 수 있습니다.

이런 종류의 힘은 전례가 없습니다.대형 담배조차도 대중의 인식을 그렇게 직접적으로 통제할 수는 없었다.

이 모든 것은 플랫폼이 대규모 데이터 액세스와 알고리즘 시스템 변경 사항에 대한 실시간 업데이트를 모두 제공해야 하는 이유를 강조합니다.

플랫폼이 "제품"에 대한 액세스를 제어할 때 그 영향에 대한 과학도 제어합니다.궁극적으로 이러한 자체 연구 자금 조달 모델을 통해 플랫폼은 사람보다 이익을 우선시하고 더 많은 투명성과 독립적인 감독에 대한 필요성에서 관심을 돌릴 수 있습니다.

이 기사는 다음에서 재출판되었습니다.대화크리에이티브 커먼즈 라이센스에 따라.읽기원본 기사.The Conversation

소환:빅테크가 사회에 해를 끼치고 있는가?알아내려면 연구가 필요한데 빅테크 자체가 조작하고 있다(2024년 10월 4일)2024년 10월 4일에 확인함https://techxplore.com/news/2024-10-big-tech-society.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.