誰でも、たとえあなたがインターネットトロールになるかもしれない

定義上、インターネットトロールは、邪魔をしたり、怒ったりするように設計された攻撃的または挑発的なオンライン投稿では、破壊的、闘争的、そしてしばしば不快です。

一般的な前提は、トロールの人たちが私たちの残りの人たちと違って、彼らとその行動を解き放つ自由を与えてくれるということです。 しかし、新しい研究では、適切な状況下では誰もがトロールになる可能性があることが示唆されています。

スタンフォード大学のコンピュータサイエンス研究者であり、この新しい論文の筆頭著者でもあるジャスティン・チェン氏は、「なぜトローリングが今日流行しているのか理解したかったのです。 「一般的な知識として、トロールは特に会話に現れる社会病理学的な人物ですが、他人を連れて行っているのは本当ですか?

悪い気分

トローリング行動は本質的な特性であるか、または状況的要因がトロールのように行動する人々に影響を及ぼし得るか? 調べるために、研究者は実験、データ分析、機械学習を組み合わせて使用​​し、平均的な人がトロールする可能性の高い単純な要因を取り入れました。

研究者は反社会的行動に関する以前の研究に続いて、人々がディスカッションフォーラムでどのように書くかに気分や文脈がどのように影響するかに焦点を当てることに決めました。 彼らは、クラウドソーシングプラットフォームを通じて採用された667被験者を用いて、2部構成の実験を行った。

実験の最初の部分では、参加者には非常に簡単か非常に難しいテストが与えられました。 テストを受けた後、すべての被験者は、怒り、疲労、うつ病、緊張など、気分の様々な側面を評価するアンケートに答えました。 予想どおり、困難なテストを完了した人々は、簡単なテストを受けた人よりも悪い気分になりました。


インナーセルフ購読グラフィック


すべての参加者は、記事を読んでコメントセクションに参加するように指示されました。 彼らは少なくとも1つのコメントを残さなければならなかったが、複数のコメントとアップ・ボートとダウン・ボートを残して、他のコメントに返信することができた。 すべての参加者は同じプラットフォームで同じ記事を見ましたが、実験専用に作成されましたが、一部の参加者にはコメントセクションの上部に3つのトロールポストを持つフォーラムが与えられました。 他の人は3つのニュートラルポストを見た

2人の独立した専門家が、複数のディスカッションフォーラムから投稿された投稿ガイドラインの組み合わせによって、この研究で一般的に定義される、トローリングとして認定された被験者によって投稿された投稿が評価されたかどうかを評価した。 例えば、個人的な攻撃や呪いは、トロール・ポストを示していました。

簡単なテストを完了し、ニュートラルな投稿を見た人の35について、自分のトロールのコメントを投稿しました。 被験者がハード・テストを受けたか、またはトローリング・コメントを見た場合、そのパーセンテージは50%に上昇しました。 困難なテストとトロール・ポストの両方に暴露された人々は、時間の約68%を占めていました。

これらの実験的な洞察を現実の世界に関連付けるために、研究者は2012全体のCNNのコメントセクションの匿名化データも分析しました。 データは、1,158,947ユーザー、200,576ディスカッション、26,552,104投稿で構成され、司会者によって削除された禁止されたユーザーと投稿が含まれていました。 研究のこの部分では、チームは、コミュニティのメンバーが虐待を受けていると報告したものとしてトロール・ポストを定義しました。

「否定性のスパイラル」

コメント作成者の気分を直接評価することはできませんでしたが、以前の調査では、時刻と曜日が気分に対応していたため、投稿のタイムスタンプを調べました。 ダウン投票と旗印の事件は、否定的な気分の確立されたパターンと密接に並んでいた。 このようなインシデントは、夜遅く、早期に増加する傾向があります。これは、人々が気分が悪い可能性が最も高い時期でもあります。

研究者は、気分の影響をさらに調査し、最近フラグが立てられた場合や、他人が書いた旗を掲げた記事だけを含む別のディスカッションに参加した場合、人々が旗国の投稿を作成する可能性が高いことを発見しました。 これらの発見は、どの論文が議論に関連していても真実であった。

「それは否定性の渦巻きです」と、コンピュータサイエンスの准教授であり論文の上級著者であるJure Leskovecは言います。 「気分が悪くなった1人だけが火花をつくることができ、議論と投票のために、これらの火花が悪い行動のカスケードに巻き込まれる可能性があります。 悪い会話は悪い会話につながります。 ダウン投票した人は、さらに多くのコメントを返し、さらに悪いことにコメントする」

フラグが設定された投稿の予測

彼らの研究の最後のステップとして、チームは著者が書いた次の投稿にフラグが立てられるかどうかを予測する機械学習アルゴリズムを作成しました。

アルゴリズムに提供された情報には、著者の最終投稿のタイムスタンプ、最後の投稿がフラグ付けされたかどうか、ディスカッションの前の投稿がフラグ付けされたかどうか、投稿者の全投稿履歴、および著者の匿名のユーザID 。

調査結果は、議論の前の投稿の旗の状態が、次の投稿にフラグが立てられるかどうかの最も強い予測因子であることを示した。 コメントやコメントのタイミングや前回のフラグ付けなど、気分に関連した機能ははるかに予測性がありませんでした。 ユーザーの履歴とユーザーIDは、多少の予測はしていましたが、ディスカッションのコンテキストよりもかなり有益でした。 これは、一貫してトローリングする傾向がありますが、私たちが投稿するコンテキストがトローリングにつながる可能性が高いことを意味します。

影の禁止とクールオフ期間?

実際の大規模なデータ分析、実験、予測タスクの間に、その結​​果は強く一貫していました。 研究者は、会話の文脈と気分がトローリングにつながる可能性があることを示唆している。 彼らはこれがより良いオンラインディスカッションスペースの作成を知らせると信じています。

Cornell Universityの情報科学の助教授、同論文の共著者であるCristian Danescu-Niculescu-Mizilは次のように述べています。「オンラインでの議論の質を向上させたい場合、実際に誰かが反社会的行動をとるかどうかを判断することは不可欠です。 「根本的な因果メカニズムへの洞察は、市民のオンライン・ディスカッションを促し、司会者がトローリングをより効果的に緩和するのを助けるシステムの設計を知らせる可能性がある」

トローリングを防止するための介入には、ポストされたばかりのコメント投稿者に冷却期間を推奨するディスカッションフォーラムや、トロール投稿や「シャドー禁止」になる可能性のある投稿にモデレータを自動的に警告するシステムトロールに知らせることなく、非トロールユーザーから

研究者たちは、このような研究は、しばらくの間必要とされている研究の始まりにすぎないと考えています。

スタンフォード大学のコンピュータサイエンスの助教授、マイケル・バーンスタイン(Michael Bernstein)は次のように述べています。「今日の終わりには、この研究が実際に示唆しているのは、議論の中でこれらの故障を引き起こしているのは私たちだということです。 「多くのニュースサイトでは、実際の議論や議論に反していると考えてコメントシステムを削除しています。 私たち自身の最高と最悪の自己を理解することは、それらを戻すための鍵です。

  2017コンピュータ支援協調作業とソーシャルコンピューティングに関する会議の一環として公開されました。

情報源: スタンフォード大学

関連書籍

at InnerSelfMarketとAmazon