algorithm
クレジット: Pixabay/CC0 パブリック ドメイン

研究者らはほぼ10年にわたり、ソーシャルメディアプラットフォームFacebookが情報を不当に増幅させているという証拠を集めてきた。低品質のコンテンツそして誤報

ですから、2023 年にジャーナル科学研究を発表したその結果、Facebookのアルゴリズムは2020年の米国選挙中に誤った情報をもたらす主要な要因ではなかったことが判明した。

この研究にはFacebookの親会社であるMetaが資金提供した。メタ社の従業員数名も著者チームの一員でした。広範囲に注目を集めましたメディア報道。それもあったメタ社の国際問題担当社長ニック・クレッグ氏が祝賀会を開催同社のアルゴリズムが「二極化、政治的態度、信念に検出可能な影響を与えていない」ことが示されたと述べた。

しかし、この発見は最近、マサチューセッツ大学アマースト校のチャンダック・バグ率いる研究者チームによって疑問視されている。でeレターは以下にも掲載されています科学、彼らは、その結果はおそらくFacebookがいじったことによるものであると主張しています。研究が行われている間。

返信メールレター、元の研究の著者らは、もしFacebookが別の方法でアルゴリズムを変更していたら、結果は「違っていたかもしれない」と認めている。しかし彼らは、自分たちの結果が今でも真実であると主張している。

この大失敗全体は、大手テクノロジー企業への資金提供と自社製品の研究促進によって引き起こされた問題を浮き彫りにしている。また、ソーシャルメディアプラットフォームに対する独立した監視を強化することが極めて重要であることも浮き彫りにしている。

疑惑の商人

ビッグテック多額の投資を始めた製品に関する学術研究において。また、大学全般に多額の投資を行っている。たとえば、メタとその責任者マーク・ザッカーバーグ合わせて数億ドルを寄付しました全米の100以上の大学に数ドルを寄付。

これはかつて大手タバコがやったのと似ています。

1950 年代半ば、タバコ会社は連携キャンペーンを開始しました喫煙と癌などの多くの深刻な健康問題とを関連付ける一連の証拠が増えていることに疑問を抱かせるためだ。それは、研究を明示的に改ざんしたり操作したりすることではなく、選択的に研究に資金を提供し、決定的ではない結果に注目を集めることでした。

これは、あるという物語を促進するのに役立ちました。決定的な証拠がない喫煙はガンの原因になります。これにより、タバコ会社は責任と「善意」の公的イメージを維持することができました。1990年代に入ってからも

ポジティブなスピン

で発表されたメタ資金提供による研究科学2023年には、Facebookのニュースフィードアルゴリズムにより、信頼できないニュースコンテンツへのユーザーの接触が減少したと主張した。著者らは「メタには出版前の承認を受ける権利がなかった」と述べたが、次のことは認めた。Facebook のオープンリサーチと透明性チームは「プロジェクト全体の実行に多大なサポートを提供した。」

この研究では、ここでは、参加者(Facebook ユーザー)が対照グループまたは治療グループにランダムに割り当てられました。

治療グループにはFacebookのアルゴリズムニュースフィードを使い続けたが、治療グループにはコンテンツが逆時系列で表示されるニュースフィードが与えられた。この研究では、信頼できないニュース ソースからの誤った誤解を招く可能性のある情報にユーザーがさらされることに対する、これら 2 種類のニュース フィードの影響を比較しようとしました。

実験は堅牢で、よく設計されていました。しかし、実施された短期間の間に、メタはニュース フィードのアルゴリズムを変更し、より信頼性の高いニュース コンテンツを強化しました。そうすることで、実験の制御条件が変更されました。

元の研究で報告された誤情報への曝露の減少は、アルゴリズムの変更によるものと考えられます。しかし、これらの変更は一時的なものでした。数か月後の 2021 年 3 月に、メタはニュース フィード アルゴリズムを元に戻しました。

声明の中で科学この論争についてメタ氏は、当時の研究者らに変更点を明らかにし、論文の発見内容についてのクレッグ氏の発言を支持すると述べた。

前例のないパワー

この研究は、誤った情報や政治的二極化などの問題に対するアルゴリズムによるコンテンツキュレーションの役割を軽視しており、ソーシャルメディアアルゴリズムの有害な影響について疑問と不確実性を植え付ける灯台となった。

誤解のないように言っておきますが、私は2023年に最初の研究を実施した研究者らが国民を誤解させたと言っているわけではありません。本当の問題は、ソーシャルメディア企業が研究者のデータへのアクセスを管理するだけでなく、資金提供した研究の結果に影響を与える方法でシステムを操作できることだ。

さらに、ソーシャルメディア企業は、研究の対象となるプラットフォーム上で特定の研究を推進する力を持っています。これはひいては世論の形成に役立ちます。それは、アルゴリズムの影響に対する懐疑や疑念が常態化する、あるいは人々が単に無視し始めるというシナリオを生み出す可能性があります。

このようなパワーは前例のないものです。たとえ大手のタバコであっても、それ自体に対する国民の認識をこれほど直接的にコントロールすることはできなかった。

これらすべては、大規模なデータ アクセスとアルゴリズム システムの変更に関するリアルタイム更新の両方を提供することがプラットフォームに義務付けられる理由を強調しています。

プラットフォームが「製品」へのアクセスを制御すると、その影響に関する科学も制御されます。結局のところ、これらの自己研究資金モデルにより、プラットフォームは人々よりも利益を優先し、より透明性と独立した監視の必要性から注意をそらすことができます。

この記事はから転載されています会話クリエイティブ・コモンズ・ライセンスに基づいて。読んでください元の記事The Conversation

引用:ビッグテクノロジーは社会に悪影響を及ぼしていますか?それを知るためには研究が必要ですが、それは大手テクノロジーそのものによって操作されています (2024 年 10 月 4 日)2024 年 10 月 4 日に取得https://techxplore.com/news/2024-10-big-tech-society.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除いて、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。