4の方法であなたのGoogleの検索とソーシャルメディアは、あなたの機会に影響を与える
シャッターストック。

あなたがそれを認識してもそれに同意するかにかかわらず、大きなデータがあなたとあなたの人生の生活に影響を与える可能性があります。 ソーシャルメディアを使用して作成したデータは、 インターネットを閲覧する 身に着けているフィットネストラッカーはすべて収集され、分類され、使用されます ビジネス別 & 状態 私たちのプロフィールを作成します。 これらのプロファイルを使用して、製品やサービスの広告を購入する可能性が最も高い広告主や政府の意思決定に役立てることができます。

ビッグデータは、州や企業が情報にアクセスし、結合し、分析し、明らかにすることを可能にします。 不完全 潜在的に 不正確 - 私たちの生活のプロファイル。 彼らは、私たちについてのデータと、私たちに類似したプロフィールを持つ人々の相関関係やパターンを特定し、私たちが何をするかについての予測を行うことによってそうする。

しかし、大規模なデータ分析はアルゴリズムと統計に基づいているという理由だけではありません。 正確、中立的または本質的に客観的。 大きなデータはグループの行動に関する洞察を提供するかもしれませんが、必ずしも個々の行動を決定する信頼できる方法ではありません。 実際、これらのメソッドは 差別の扉を開く & 人々の人権を脅かす 彼らはあなたに対抗することさえできます。 ビッグデータ分析が不正を招く可能性のある4つの例を以下に示します。

1。 クレジットスコアの計算

大きなデータを使用して、 与信資格、あなたが住宅ローンを付与されているかどうか、または 自動車保険 保険料はすべきです。 これらの決定はあなたの ソーシャルメディアの投稿 リスクや信頼性のレベルを示すために使用される他のアプリからのデータなどが含まれます。

しかし、あなたの教育の背景やあなたの住んでいる場所などのデータは、そのような評価には関連性がなく信頼できるものではありません。 この種のデータは、人種や社会経済的地位の代理人として機能し、信用リスクに関する決定を下すことによって差別が生じる可能性があります。


インナーセルフ購読グラフィック


2。 求人検索

大きなデータを使用して 求人広告を見るか、インタビューのためにショートリストされる。 求人広告は、特定の年齢層を対象とすることができ、 25から36歳までこれは、若年層および高齢労働者が特定の求人情報を見ることさえも排除し、年齢差別のリスクをもたらす。

自動化は、フィルタリング、並べ替え、およびランク付けの候補をより効率的にするためにも使用されます。 しかし、このスクリーニングプロセスでは、 通勤距離。 雇用主は、通勤時間の長い人は長期的に仕事を続ける可能性が低いと考えているかもしれませんが、手頃な価格の住居の場所のために市中心部から遠くに住む人々を差別する可能性があります。

3。 受刑者と保釈の決定

米国と英国では、大規模なデータリスクアセスメントモデルを使用して、公的機関が人々に 仮釈放または保釈、または参照される リハビリプログラム。 また、犯罪者が社会にどのくらいのリスクを与えるかを評価するために使用することもできます。これは、判決が文章の長さを決める際に考慮する1つの要素です。

これらの評価を行うためにどのようなデータが使用されているかは明確ではありませんが、 デジタルポリシング これらのプログラムがオープンソースの情報を取り込む可能性がますます高まっている 社会的な内的活動 - 彼らがまだいなければ。

これらの評価は、単に人のプロフィールを見るだけでなく、他人のプロフィールと比較することもできます。 一部の警察は 歴史的に過剰警察 特定の少数派のコミュニティは、報告された刑事事件の数が不平等につながる。 このデータがアルゴリズムに入力されると、リスク評価モデルが歪められ、直接的に影響を与える差別が生じる 自由に対する権利.

4。 ビザ申請の査定

昨年、米国の移民および税関執行機関(ICE)は、極端なビザの査読"プログラム。 ソーシャルメディアアカウントを自動的かつ継続的にスキャンし、申請者が米国に「プラスの貢献」をするかどうか、また国家安全保障問題が発生するかどうかを評価します。

思考、意見、表現、結社の自由に対するリスクを提示するだけでなく、このプログラムが特定の国籍や宗教の人々を差別する重要なリスクがありました。 コメンテーター それは「アルゴリズムによるイスラム教徒の禁止」として特徴付けられた。

プログラム 最近撤回されました「欲しい代理店を監視する品質を提供することができる「すぐに使用できる」ソフトウェアはなかった」としている。 しかし、そのような目標を調達文書に含めることは、ハイテク産業が差別的に設計されたプログラムを開発するための悪いインセンティブを作り出す可能性があります。

会話大規模なデータ分析は、個人の生活の機会に影響を与える可能性のある方法で機能することは疑いありません。 しかし 透明性の不足 収集され、使用され、共有されるデータの量について、どの情報がどのように、どのように、いつ使用されているかを人々が知ることは困難です。 大規模なデータ分析は、個人が不適切な使用からデータを保護できないほど複雑すぎます。 代わりに、州と企業は、大きなデータを使用しても差別を招かないように規制を制定し、それに従わなければなりません。

著者について

ヒューマンライツセンターディレクターのロナルナ・マグレガー(Lorna McGregor)、ESRCヒューマン・ライツ、ビッグ・データ・アンド・テクノロジー・ラーン・グラント(Big Data and Technology Large Grant) エセックス大学; Daragh Murray、エセックスロースクールの国際人権法講師、 エセックス大学、Vivian Ng、人権担当上級研究員、 エセックス大学

この記事は、最初に公開された 会話。 読む 原著.

これらによる本

著者について

at