1 枯れ果てた名無し@転載禁止 (fa4833ef🔰) 2024/10/27 (日) 23:02:18.457 ID:4kxOWCS5O
Google DeepMindは2024年10月18日、科学誌『Science』にて、AIを使った政策議論の調停ツール「ハーバーマス・マシン(Habermas Machine)」の研究成果を発表した。
このツールは、異なる意見を持つグループ間で共通の合意点を見つけ出し、意見を調整する役割を担う。AIが提示する声明は、人間による調停結果よりも支持されることが多く、政策議論の質向上に貢献する可能性が示唆されたという。
研究チームは、5,000人以上の参加者を対象に複数の実験を実施。75の6人グループにおいて、宗教教育や医療研究における動物実験など、社会的に対立しやすいテーマを取り上げた。
この実験では、AIが生成した声明が56%の割合で人間の調停者によるものより好まれ、参加者はAIによる声明を「より明確で理解しやすい」と評価した。
また、参加者の初期意見に比べて合意率が8ポイント上昇し、分断の軽減に寄与することが確認された。
さらに、200人の市民代表を集めた「バーチャル市民会議」でも実験が行われ、ブレグジット(英国のEU離脱)や普遍的な育児支援などのテーマについて議論が深められた。
このプロセスを通じ、AIが生成する声明は、少数派の意見も部分的に反映させる一方で、多数派の意見を尊重する形でテキストを生成する傾向があることが明らかにされたという。
一方で、AIによる調停の限界も明らかになった。AIは多様な意見を取り込むが、すべての少数派の声が十分に反映されない可能性が指摘されている。
また、AIによる合意形成は、長期的な関係構築や参加者間の信頼を深めるという点では不十分とされ、民主的プロセスをどのようにサポートできるかは今後の課題だとされている。
今後の課題として、AIツールが単に合意を得ることだけでなく、参加者間の信頼構築や民主的なプロセスの促進にどのように寄与できるかが問われている。
DeepMindのチームも、技術をより責任ある形で導入するため、さらなる実験と分析が必要だと述べた。
https://ledge.ai/articles/google_deepmind_habermas_machine