AIツールはソーシャルメディアユーザーのプライバシーを高める可能性がある(AI tools could boost social media users’ privacy)

ad
ad

スマートなAIツールは、個人の意見を予測するように設計されたアルゴリズムを騙すことで、ソーシャルメディアユーザーのプライバシーを保護できる可能性があることが、研究で示唆されました。 Smart AI tools could protect social media users’ privacy by tricking algorithms designed to predict their personal opinions, a study suggests.

2022-11-30 エディンバラ大学

デジタルアシスタントは、AIとAIで戦うことによって、ユーザーが知らず知らずのうちに社会的、政治的、宗教的な問題に対する見解を明らかにするのを防ぐことができる、と研究者は述べている。
その結果、自動化されたアシスタントは、AI意見検出ツールを欺くためにオンライン行動を修正する方法をリアルタイムでユーザーにアドバイスし、彼らの意見を非公開にすることができるようになるという。
研究者は、米国の4,000人以上のツイッターユーザーから得たデータを使用した。
研究チームはこのデータを使って、オンライン上の活動やプロフィールから、AIがどのように人々の意見を予測できるかを分析した。
また、無神論、フェミニズム、政治など、意見が対立する可能性のあるテーマについて、Twitterユーザーが自分の意見を非公開にできるよう、自動アシスタントの設計に関するテストも実施された。
研究者たちは、米国に住む1,000人以上のユーザーを対象に調査を行い、Twitter上で意見が分かれている話題について、人々がどの程度意見を非公開にする必要性を感じているかを測定した。
論争的な話題に対して中立的な意見を持つ参加者の15~32%が、自分の意見を非公開にする必要性を強く感じていた。また、強い意見を持つユーザーでも、10〜23%の人が自分の意見を秘密にすることを希望していた。
にもかかわらず、研究チームは、これらのユーザーのオンライン活動が、本人が気づかないうちに悪意のあるアルゴリズムに自分の信条を明らかにしてしまう可能性があることを発見した。

<関連情報>

機械学習から意見を隠す Hiding opinions from machine learning

Marcin Waniek, Walid Magdy, Talal Rahwan
PNAS Nexus  Published:16 November 2022
DOI:https://doi.org/10.1093/pnasnexus/pgac256

The degree to which Twitter users feel the need to avoid revealing their stance. For every topic (feminism, Hilary Clinton, and atheism), and every stance (strongly against, against, neither, in favor, and strongly in favor), participants indicated on a Likert scale from 0 to 10 the degree to which they feel the need to avoid revealing their stance on Twitter. The bar height represents the proportion of participants whose reported degree is ≥8. For instance, out of those strongly against feminism, 22.99% selected 8 or above when indicating the degree to which they feel the need to avoid revealing that stance on Twitter.

Abstract

Recent breakthroughs in machine learning and big data analysis are allowing our online activities to be scrutinized at an unprecedented scale, and our private information to be inferred without our consent or knowledge. Here, we focus on algorithms designed to infer the opinions of Twitter users toward a growing number of topics, and consider the possibility of modifying the profiles of these users in the hope of hiding their opinions from such algorithms. We ran a survey to understand the extent of this privacy threat, and found evidence suggesting that a significant proportion of Twitter users wish to avoid revealing at least some of their opinions about social, political, and religious issues. Moreover, our participants were unable to reliably identify the Twitter activities that reveal one’s opinion to such algorithms. Given these findings, we consider the possibility of fighting AI with AI, i.e., instead of relying on human intuition, people may have a better chance at hiding their opinion if they modify their Twitter profiles following advice from an automated assistant. We propose a heuristic that identifies which Twitter accounts the users should follow or mention in their tweets, and show that such a heuristic can effectively hide the user’s opinions. Altogether, our study highlights the risk associated with developing machine learning algorithms that analyze people’s profiles, and demonstrates the potential to develop countermeasures that preserve the basic right of choosing which of our opinions to share with the world.

ad

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました