How can we make the best possible use of large language models for a smarter and more inclusive society?
時間の経過に伴う情報環境の発展。新しいテクノロジーにより、情報の検索速度は向上しますが、情報ソースに関する透明性は低下するという一般的な傾向が観察されます。クレジット:自然 人間の行動(2024年)。DOI: 10.1038/s41562-024-01959-9。https://www.nature.com/articles/s41562-024-01959-9

大規模言語モデル (LLM) は近年急速に発展し、ChatGPT などのアプリケーションを通じて私たちの日常生活に不可欠な部分になりつつあります。最近の記事出版された自然 人間の行動集団で熟慮し、意思決定をし、問題を解決する能力にとって、LLM の使用によって生じる機会とリスクについて説明します。

コペンハーゲン ビジネス スクールとベルリンのマックス プランク人間開発研究所の研究者が率いる、28 人の科学者からなる学際的なチームは、人間の集合知を損なうのではなく補完するように LLM が開発されるようにするための推奨事項を研究者や政策立案者に提供しています。

LLM のような用語を知らない場合はどうすればよいでしょうか?おそらくすぐにグーグルで調べたり、チームに尋ねたりするでしょう。私たちは日常生活の中で集合知と呼ばれる集団の知識を当たり前のように利用しています。

個人のスキルと知識を組み合わせることで、私たちの集合知は、個人、さらには専門家だけの能力を超える成果を達成することができます。この集合知は、職場の小さなチームから、ウィキペディアのような大規模なオンライン コミュニティ、さらには社会全体に至るまで、あらゆる種類のグループの成功を推進します。

LLM は大規模なデータセットと深層学習技術を使用してテキストを分析および生成する (AI) システム。新しい記事では、LLM が集合知をどのように強化できるかについて説明し、チームや社会に対する LLM の潜在的な影響について説明します。

"として情報と意思決定の環境がますます形作られているため、その可能性を活用することとリスクから守ることとのバランスをとることが重要です。私たちの記事では、LLM によって人間の集合知が強化される方法と、それがもたらす可能性のあるさまざまな害について詳しく説明しています」と、この記事の共著者であり、ベルリンのマックス・プランク人間開発研究所所長であるラルフ・ヘルトウィッヒ氏は述べています。

その中で、研究者らは、LLM が集合プロセスにおけるアクセシビリティを大幅に向上できることを確認しました。たとえば、翻訳サービスや執筆支援を通じて障壁を取り除き、さまざまな背景を持つ人々が平等にディスカッションに参加できるようにします。

さらに、LLM は、たとえば、議論に有益な情報を持ち込んだり、さまざまな意見を要約したり、合意を見つけたりすることによって、アイデア生成を加速したり、意見形成プロセスをサポートしたりできます。

しかし、LLM の使用には重大なリスクも伴います。たとえば、Wikipedia や Stack Overflow のような集合的なナレッジ コモンズに貢献しようとする人々のモチベーションを損なう可能性があります。ユーザーが独自モデルへの依存を強めると、知識環境のオープン性と多様性が危険にさらされる可能性があります。もう1つの問題は、多数派が規範を受け入れているという誤った信念が存在する、誤った合意と多元的な無知のリスクです。

「LLMはオンラインで入手可能な情報から学習するため、LLMが生成する回答には少数派の視点が反映されないリスクがあります。これにより、誤った同意感が生まれ、一部の視点が疎外される可能性があります」と、この研究の筆頭著者でアシスタントのジェイソン・バートン氏は指摘する。コペンハーゲン・ビジネス・スクールの教授およびMPIBの准研究員。

「この記事の価値は、LLM がオンライン情報環境をどのように変え、ひいては私たちの集合知を良くも悪くもどのように変化させているかについて、なぜ私たちが積極的に考える必要があるのか​​を示していることです」と共著者のジョシュア・ベッカー助教授は要約しています。ユニバーシティ・カレッジ・ロンドンにて。

著者らが呼びかけるのは、LLM の作成においては、トレーニング データ ソースの開示を含め、LLM 開発者が外部の監査と監視を受ける必要があると提案しています。これにより、LLM が実際にどのように開発されているかをよりよく理解でき、不利な開発を軽減できるようになります。

さらに、この記事では、LLM のトレーニングにおける集合知の役割など、LLM に関連するトピックに関するコンパクトな情報ボックスを提供します。ここで著者らは、多様な表現などの目標に対処する方法を含め、LLM の開発における人間の役割について考察します。

研究に焦点を当てた 2 つの情報ボックスは、LLM を使用して人間をシミュレートする方法を概説します。そして、知識の均質化を回避する方法や、LLM と共同で成果を共同作成する場合に信用と説明責任をどのように配分するかなど、未解決の研究課題を特定します。

詳細情報:Jason W. Burton 他、大規模言語モデルが集合知をどのように再形成できるか、自然 人間の行動(2024年)。DOI: 10.1038/s41562-024-01959-9。www.nature.com/articles/s41562-024-01959-9引用

:よりスマートでより包括的な社会のために、大規模な言語モデルを最大限に活用するにはどうすればよいでしょうか?(2024年9月20日)2024 年 9 月 20 日に取得https://techxplore.com/news/2024-09-large- language-smarter-inclusive-society.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。