ChatGPTが世界的不平等を拡大させる可能性(New study finds that ChatGPT amplifies global inequalities)

2026-01-20 オックスフォード大学

2026年1月20日、オックスフォード大学インターネット研究所(Oxford Internet Institute; OII)とケンタッキー大学の研究チームは、ChatGPTが既存の世界的な不平等を反映・強化しているという研究成果を発表しました。研究論文「The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place」では、2,030万件以上のChatGPTの応答を分析し、同AIが「どこが安全か」「どこが美しいか」などの質問に対し、所得の高い西側諸国や一部の東アジア地域を優先的に肯定的に評価する傾向を示したと報告しています。反対に、アフリカ、中東、アジア・ラテンアメリカの多くが低評価となる傾向があり、主観的な質問だけでなく、客観的と思われる質問でも一貫した偏りが見られました。研究者たちは、これはAIそのもののエラーではなく、訓練データに内在する歴史的・社会的な不平等がそのままAI出力に表れていると指摘し、AIの透明性向上と独立した監査の必要性を訴えています。

ChatGPTが世界的不平等を拡大させる可能性(New study finds that ChatGPT amplifies global inequalities)
World map with code. Credit: Jamjar Creative Ltd

<関連情報>

シリコンの視線:場所というレンズを通して見た大規模言語モデルにおけるバイアスと不平等の類型論 The silicon gaze: A typology of biases and inequality in LLMs through the lens of place

Francisco W. Kerche, Matthew Zook, and Mark Graham
Platforms & Society  Published:January 20, 2026
DOI:https://doi.org/10.1177/29768624251408919

Abstract

This paper introduces the concept of the silicon gaze to explain how large language models (LLMs) reproduce and amplify long-standing spatial inequalities. Drawing on a 20.3-million-query audit of ChatGPT, we map systematic biases in the model’s representations of countries, states, cities, and neighbourhoods. From these empirics, we argue that bias is not a correctable anomaly but an intrinsic feature of generative AI, rooted in historically uneven data ecologies and design choices. Building on a power-aware, relational approach, we develop a five-part typology of bias (availability, pattern, averaging, trope, and proxy) that accounts for the complex ways in which LLMs privilege certain places while rendering others invisible.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました