批判サイド > 資料集 > デバンキング

デバンキングハンドブック


これは、University of QueenslandのGlobal Change InstituteのClimate Communication Fellowであり、 Skeptical Science の管理人であるJohn Cookと、University of Western Australiaの心理学者であるStephan Lewandowskyによる"The Debunking Handbook"の訳である。





誤情報をデバンクするのは、なかなかむつかしい。よほど注意してないと、誤情報をデバンクするための努力が、意図せずして、正そうとした誤情報を逆に強化してしまうことがある。このような「バックファイアー効果」を避けるために、効果的なデバンクに次の3大要素が必要だ。第1は、誤情報に慣れ親しまないように、反論は、誤情報ではなくコアな事実に焦点をあてる必要がある。第2は、誤情報に言及するときは、読者に対して予め明確に、誤情報であることを述べておくこと。最後は、反論には、元の誤情報で重要な位置を占めている問題についての、代替説明を加えるべきであること。

デバンクについての誤情報をデバンクする


正確な情報に基づいて意思決定することを、民主主義社会は基礎とすべきことは自明である。多くの問題で、しかし、既得権益が絡んでいる場合は特に、コミュニティの一部に誤情報が定着することがある[1,2]。誤情報の影響を減らすことは困難かつ複雑な課題である。

誤情報についてのよくある誤解は、誤情報の影響の除去は、人々の頭に情報を詰め込めばいいというものだ。このアプローチは、大衆の誤解が知識不足によるものであると仮定し、その解決策はサイエンスコミュニケーションにおける、より多くの情報だというものである。これは「情報の欠如モデル」として知られている。しかし、このモデルは間違っている。ハードディスクにデータをダウンロードするように、人々は情報を処理しているわけではない。

誤情報への反論には、複雑な認知過程への対処が必要である。うまく知識を伝えるには、コミュニケータは、人々がどのように情報を処理し、既存知識をどのように修正し、世界観が合理的思考能力にどのように影響するのか理解しておく必要がある。

まず、我々は「誤情報」という言葉の"の意味を明確にしておこう。それは、人々がその情報を獲得した理由や方法に関わりなく、人々が獲得した、間違っていると判明している情報のことである。既に獲得した情報を人々が修正する過程を支配する認知過程を、我々は相手にしている。我々は信じていた何かが間違いだとわかったとき、どのようにして知識や記憶を更新するのだろうか?

ひとたび人々が誤情報を受け取ると、その影響を除去するのは非常に困難だ。これは1994年に行われた「被験者に架空の倉庫火災についての誤情報を知らせ、その後に、誤っていた情報の一部を訂正する情報を与えた」実験で示されている[3]。被験者たちは、この訂正情報を覚えていて、受け入れているにもかかわらず、質問に対する回答で誤情報の方を引用するという残留効果を示した。

では、誤情報の影響を完全に除去することは可能なのだろうか? いかに精力的に誤情報の訂正を繰り返し行っても、たとえば訂正情報を何度も何度も与えても、誤情報の影響は検出可能なレベルで残っている。古いことわざは正しかった[4]。「たとえ裁判で無罪になっても、悪評は残る」

さらなる合併症状もある。誤情報の除去は困難であり、さらには誤情報のデバンクで人々の信念を逆に強化していまうことがある。誤情報をより身近にしてしまったり[5,6]、多くの論を与えすぎたり[7]、人々の世界観の脅かすような証拠を提示したりする[8]などにより、幾つかの違った「バックファイアー効果」が見られている。

誤情報のデバンクで最もやりたくことは、失態であり、問題のさらなる深刻化である。そこで、このハンドブックでは、主として、誤情報の効果的なデバンクや様々なバックファイヤー効果を回避するための、実用的なTIPSにフォーカスした。これを実現するためには、関連する認知価値の理解が不可欠である。我々は、この分野についての興味深い心理学研究について説明し、広まっている誤情報への効果的反論例を提示する。

人々が考えていることのみが問題ではない、人々が考える方法が問題なのだ。


身近になるバックファイアー効果


誤情報をデバンクするために、誤情報に言及する必要がある。そうしないと、何の話をしているのかわからなくなる。しかし、言及することで、人々は誤情報に身近になり、したがってより誤情報を真実だと思うようになる。これはデバンキングが誤情報を人々の心の中で強化することになるかもしれないということだろうか?

このバックファイアー効果を検証するために、被験者たちに、インフルエンザワクチンについての一般的な誤情報をデバンクしたチラシを見せた[5]。その後、被験者たちは何が事実で何が誤情報か質問した。チラシを読んだ直後に質問されると、被験者たちは正しく誤情報を指摘できた。しかし、チラシを読んで30分後に質問すると、一部の被験者たちは読んだ直後よりスコアが悪くなった。デバンキングが誤情報を強化した。

したがって、バックファイアー効果は実際に存在する。この効果を駆動しているのは、「身近になると、情報を真実として受け入れやすくなる」という事実である。チラシを読んだ直後は、被験者たちは誤情報のデバンクについての詳細を覚えていて、正しく誤情報を指摘できた。しかし、時間とともに詳細についての記憶は薄れていき、すべての被験者は、誤情報をそれ誤りだという「タグ付け」なしに記憶していた。この効果は特に年長の大人に強くみられる。というのは彼らの記憶は脆弱で、詳細を忘却しやすいからだ。


"身近になる"バックファイアー効果が起きるのを避けるにはどうすればいいだろうか? 理想的には誤情報の修正にあたって、誤情報にまったく言及しないことだ。誤情報に対抗しようとしているとき、最善のアプローチは伝えたい事実に焦点を当てることである。


ときとして誤情報に言及しないことは、現実的な選択肢ではない。この場合はデバンキングで事実を強調すべきだ。よく見られるテクニックは、デバンキングする誤情報を大きく太字で書いた表題であり、これは最もやってはならない方法である。そうするのではなく、コアな事実を表題で伝えること。デバンキングは事実の強調から始めるべきであり、誤情報からではない。目標は人々が事実をより身近に感じることである。

最善のアプローチは伝えたい事実に焦点を当てることである


オーバーキルバックファイアー効果


サイエンスコミュニケータが頻繁に守れない一つの原則が、処理しやすいコンテンツを作ることである。これは、読みやすく、理解しやすく、簡潔という意味である。処理しやすい情報は、より真実として受け入れられやすい[7]。たとえば、フォントのカラーコントラストを強調するだけでも読みやすくなり、記述を真実として受け入れる人々が多くなる[9]。

共通的知恵として、あなたが提示する対抗理論が多いほど、誤情報のデバンクが成功するというものがある。しかし、その逆が正しいこともあることがわかっている。誤情報に反論するとき、量が少ない方が効果的である。たとえば、3つの論を提示するデバンクは誤情報の影響を減らすことに成功しやすいが、12の論を提示するデバンクは誤情報を強化する結果に終わる[7]。


オーバーキルバックファイアー効果が起きるのは、多くの論を処理するには、少ない論を処理するよりも手間がかかるからである。単純な誤情報は、過剰に複雑な訂正情報よりも認知的に魅力的である。

この効果に対する解決策は、コンテンツを簡潔で読みやすいものにすることだ。処理しやすいコンテンツを作るには、可能なツールすべてを使う。簡単な言葉、短い文、小見出しと段落。劇的な言葉や人々を遠ざけるような軽蔑的コメントは使ってはならない。事実にこだわること。

「気候科学者100人中97人が人間が地球温暖化を起こしていることに同意している」あるいは「研究によりMMRワクチンが安全であることが示された」といった、人々が記憶し、友人にツイートするような、強くて単純なメッセ―ジで終わること。主張したい点を説明するため使えるなら、図を使うこと。

科学者たちは長きにわたって情報の欠如モデルの原則に従ってきた。これは「人々がすべての情報を知っているわけではないから、誤った見方をするのだ」ということを意味する。しかし、過剰な情報は逆効果である。そうではなくて、KISS原則に従うこと。すなわち、単純にしておけ!!

単純な誤情報は、過剰に複雑な訂正情報よりも、認知的に魅力的である。


世界観バックファイアー効果


3つめの、そして間違いなく最も強力なバックファイアー効果は、人々の世界観や文化的アイデンティティの感覚とを結びつい話題で起きる。いくつかの認知のプロセスで、人々は無意識にバイアスのかかった方法で情報を処理することがある。自分たちの見方に強固に固執している場合、対抗議論に直面すると、その見方を強化してしまうことがある。

この効果に寄与する一つの認知プロセスは、人々が自分たちの見方を支持する情報を選択的に探し出す、確証バイアスである。ある実験では、被験者たちは、銃規制や差別撤廃措置のようなホットボタンな問題についての情報を提示された。各情報は情報源が書かれていて、その情報が賛成か反対か(たとえば全米ライフル協会 vs 銃規制運動)明確にわかるようになっていた。両者を公平に提示したにもかかわらず、被験者たちは自分が元々持っている見方に合う情報源を選択した。この研究で、公平な形で情報を提示されても、人々は既に正しいと考えている情報に傾くことで、元々持っている見方を強化する。自分たちの見方を強く持っている人々の間で二極化が強く起きることがわかった。[10]

もし、選択の要素を取り除いて、誰かに世界観に反する論を提示したら、どうなるだろうか? この場合、前面に出てくる認知プロセスは、反証バイアスすなわち、確証バイアスの裏面である。この場合、人々は非常に多くの時間を費やして、対抗議論に積極的に反論を考える。[8]

サダム・フセインと9/11のテロリストの攻撃に関連があると考えている共和党支持者に対して、
ジョージ・ブッシュ大統領の発言を含む、両者に関連がないことを示す証拠を提示することで、この反証バイアスの存在が示されている[11]。被験者のわづか2%が考えを変えた(興味深いことに14%が、もともと両者に関連があったと考えていたこと自体を否定した)。大多数はイラクと9/11の関連に固執し、あらゆる論を使って、それらの証拠を押しのけた。最も一般的な反応は、自分の見方を支持する事実を心の中に持ってきて、矛盾する事実を無視して、自分の見方を強化するというものだった。この支持する事実を前面に持ってくるプロセスにより、結果として人々は誤った信念を強化する。

事実が既存の信念を変えさせられないなら、そして時には事態を悪化させるとしたら、誤情報の影響をどうやって減らせばいいのだろうか? 2つの方法がある。

第1は、世界観バックファイアー効果は、自分の見方に既に固執している人々で強いことである。したがって、ホットボタンな問題について確固とした立場を持っていない人々に広まっている誤情報を訂正できる可能性がある。このことから、我々は確固とした立場の少数派ではなく、態度を決めていない多数を、アウトリーチの対象にすべきである。

第2は、心理的抵抗を減らすような形でメッセージを提示することが可能だということである。世界観を脅かすメッセージが自己肯定と結びついているとき、人々は賛否両論を公平に見る。[12][13]

人々は自分たちにとって重要だという価値に基づいて行動うるので、自分たちにとって良いことだと感じるときについて短文を書かせることで、自己肯定は実現可能である。そうすると、人々は自分たちの世界観を脅かすかもいれないメッセージを、自己肯定なしにメッセージを受けた人々より、受容しやすくなる。興味深いことに、自己肯定効果は、自己価値の感覚でイデオロギーが中心となっている人々に最も強く出る。

情報を受け入れやすくするもうひとつの方法は、個人の世界観をより脅かさない形のフレーミングを行うことである。たとえば、共和党支持者は「税金」としてより「カーボンオフセット」として同額を課金する方を受け入れやすい。このような言葉使いは、民主党支持者や無党派にはあまり効かない。というのは「税金」という単語が民主党支持者や無党派の世界観を脅かしていないからだ。[14]

自己肯定とフレーミングは、人々を操作するものではない。自己肯定とフレーミングは、事実に戦う機会を与えるものである。

自分たちの見方に強く固執している人々にとって、対抗議論に遭遇することは、自分たちの見方を強化することにつながることがある。


代わりになる説明で隙間を埋める


さまざまなバックファイアー効果にうまく折り合いをつけたとすると、もっとも効果的な誤情報デバンクの方法は何だろうか? 問題は、人の心に一度入り込んだ誤情報を削除するのは非常に困難だということである。人々が訂正情報を覚えていて、それを受け入れている場合でも同様に困難である。

これは、被験者に架空の倉庫火災の記事を読ませる実験で実証された。その架空記事は、爆発とともに塗料とガス缶に言及していた[15][16][3]。その記事の後の方には、火災のときは塗料とガス缶はなかったことが明らかになったと書かれていた。被験者たちは、この訂正情報を覚えていても、火災について質問されると、塗料とガス缶について言及した。「大量に煙が出た理由はなんだと思いますか?」と質問されると、被験者たちは、火災の時になかったことを知っていて、なおかつ油性塗料を理由に挙げた。

人々は誤情報を聞くと、誤情報が与える説明とともにメンタルモデルを構築する。誤情報がデバンクされると、メンタルモデル上では、そこが隙間のままになる。このジレンマに対処するために、人々は不完全なモデルよりも、間違ったモデルを選好する。より良い説明が存在しないと、人々は間違った説明を選択する。[17]

倉庫火災実験では、ライターオイルと促進剤を含む、代わりとなる説明を加えると、塗料とガス缶に言及する被験者は少なくなった。誤情報の影響を最も効果的に削減する方法は、誤情報がカバーしていた現象について、代わりとなる説明を提示することである。


この戦略は、架空の殺人事件の裁判では特に明確に示された。別の容疑者を非難すると、単に被告が無罪である理由を説明した弁護よりも、陪審員を務めた被験者で有罪と判断する者の数が少なくなった。[18]

代わりとなる説明が受け入れられるためには、その説明が、観察された事項すべてを尤もらしく説明している必要がある[19][15]。誤情報をデバンクしたとき、人々の心に隙間をつくってしまう。デバンクが効果を発揮するためには、デバンキングでその隙間を埋めなければならない。

埋める必要があると思われる隙間のひとつに、誤情報が誤りである理由の説明がある。これは誤情報を広めるために使われたレトリックをあばくことで実現可能である。科学的混戦さ鵜を否定する多くの運動で共通して見られるテクニックは、否定論に見られる。否定論とは何か、そして科学者はこれにどう対処すべきか? 否定論に用いられるテクニックは、チェリーピッキング(証拠の選択的提示)と陰謀論とニセの専門家である。これ以外の方法としては、誤情報を宣伝する誤情報屋の動機を説明することである。誤情報の情報源の疑わしさを喚起することで、誤情報の影響をより削減できる。[21][22]

効果的な反論に別の重要な要素は、誤情報に言及する前に明示的な警告を(「注意してください。誤解する可能性があります」)を使用することである。違った反論の構成を使った実験で、「代わりとなる説明」と「明示的な警告」の組合わせが最も効果的であることがわかっている。[17]

図はデバンカーの道具として重要な部分であり、誤解を減らす際に、文章よりも非常に効果的である。人々は自分の信念と矛盾する反論を読んだとき、別の解釈を構築するために曖昧さを利用する。図は、より明瞭な表現を提供し、誤解の可能性を減らす。地球温暖化の信条についての調査で、気温のトレンドグ​​ラフを示された、共和党支持お自己申告した人々は、文章記述だけを与えられるより、はるかに多くの割合で、地球温暖化を受け入れた。[13]

別の調査では、地表気温のデータポイントを示されると、地球温暖化についての信条とは関係なく、被験者たちは、正しく温暖化トレンドを指摘できた[23]。コンテンツをビジュアルに表現できるなら、デバンキングでは図を使うべきだ。

誤情報をデバンクすると、人々の心に隙間を作ることになる。効果的にデバンクするには、その隙間を埋める必要がある。

効果的なデバンキング法


以上をすべて合わせると、効果的デバンキングの要件は次の通り:

  • コアな事実:反論は事実を強調すべきで、誤情報を強調すべきでない。
  • 直接な警告:誤情報に言及る前に、文字もしくはビジュアルで、次に各情報が間違っていることを注意喚起すべきである。
  • 代わりとなる説明:デバンキングによってできた隙間を埋める必要がある。誤情報が間違っている理由についての、代わりとなる原因の説明や、さらには、そもそも誤情報の宣伝者が何故に宣伝しているのかを提示することで達成できる。
  • 図:コアな事実は可能ならグラフィカルに提示すべきである。

以下の例では誤情報「31,000人の科学者が人間の活動が気象に影響した証拠がないという嘆願書に署名しているので、人間活動に起因する地球温暖化には科学的コンセンサスはない」をデバンクする。


1. Jacques, P. J., & Dunlap, R. E. (2008). The organisation of denial: Conservative think tanks and environmental skepticism. Environmental Politics, 17, 349-385.
2. Oreskes, N., & Conway, E. M. (2010). Merchants of doubt. Bloomsbury Publishing.
3. Johnson, H. M., & Seifert, C. M. (1994). Sources of the continued influence effect: When discredited information in memory affects later inferences. Journal of Experimental Psychology: Learning, Memory, and Cognition, 20 (6), 1420-1436.
4. Ecker, U. K., Lewandowsky, S., Swire, B., & Chang, D. (2011). Correcting false information in memory: Manipulating the strength of misinformation encoding and its retraction. Psychonomic Bulletin & Review, 18, 570-578.
5. Skurnik, I., Yoon, C., Park, D., & Schwarz, N. (2005). How warnings about false claims become recommendations. Journal of Consumer Research, 31, 713-724.
6. Weaver, K., Garcia, S. M., Schwarz, N., & Miller, D. T. (2007). Inferring the popularity of an opinion from its familiarity: A repetitive voice sounds like a chorus. Journal of Personality and Social Psychology, 92, 821-833.
7. Schwarz, N., Sanna, L., Skurnik, I., & Yoon, C. (2007). Metacognitive experiences and the intricacies of setting people straight:Implications for debiasing and public information campaigns. Advances in Experimental Social Psychology, 39, 127-161.
8. Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32, 303-330.
9. Reber, R., Schwarz, N. (1999). Effects of Perceptual Fluency on Judgments of Truth, Consciousness and Cognition, 8, 338-3426.
10. Taber, C. S., & Lodge, M. (2006). Motivated skepticism in the evaluation of political beliefs. American Journal of Political Science, 50, 755–69.
11. Prasad, M., Perrin, A. J., Bezila, K., Hoffman, S. G., Kindleberger, K., Manturuk, K., et al. (2009). “There Must Be a Reason’’: Osama, Saddam, and Inferred Justification. Sociological Inquiry, 79, 142-162.
12. Cohen, G. L., Sherman, D. K., Bastardi, A., Hsu, L., & McGoey, M. (2007). Bridging the Partisan Divide: SelfAffirmation Reduces Ideological Closed-Mindedness and Inflexibility in Negotiation. Personality & Soc. Psych., 93, 415-430.
13. Nyhan, B., & Reifler, J. (2011). Opening the Political Mind? The effects of self-affirmation and graphical information on factual misperceptions. In press.
14. Hardisty, D. J., Johnson, E. J. & Weber, E. U. (1999). A Dirty Word or a Dirty World?: Attribute Framing, Political Affiliation, and Query Theory, Psychological Science, 21, 86-92
15. Seifert, C. M. (2002). The continued influence of misinformation in memory: What makes a correction effective? The Psychology of Learning and Motivation, 41, 265-292.
16. Wilkes, A. L.; Leatherbarrow, M. (1988). Editing episodic memory following the identification of error, The Quarterly Journal of Experimental Psychology A: Human Experimental Psychology, 40A, 361-387.
17. Ecker, U. K., Lewandowsky, S., & Tang, D. T. (2011). Explicit warnings reduce but do not eliminate the continued influence of misinformation. Memory & Cognition, 38, 1087-1100.
18. Tenney, E. R., Cleary, H. M., & Spellman, B. A. (2009). Unpacking the doubt in “Beyond a reasonable doubt:” Plausible alternative stories increase not guilty verdicts. Basic and Applied Social Psychology, 31, 1-8.
19. Rapp, D. N., & Kendeou, P. (2007). Revising what readers know: Updating text representations during narrative comprehension. Memory & Cognition, 35, 2019-2032.
20. Diethelm, P., & McKee, M. (2009). Denialism: what is it and how should scientists respond? European Journal of Public Health, 19, 2-4.
21. Lewandowsky, S., Stritzke, W. G., Oberauer, K., & Morales, M. (2005). Memory for fact, fiction and misinformation: The Iraq War 2003. Psychological Science, 16, 190-195.
22. Lewandowsky, S., & Stritzke, W. G. K., Oberauer, K., & Morales, M. (2009). Misinformation and the ‘War on Terror’: When memory turns fiction into fact. In W. G. K. Stritzke, S. Lewandowsky, D. Denemark, J. Clare, & F. Morgan (Eds.), Terrorism and torture: An interdisciplinary perspective (pp. 179-203). Cambridge, UK: Cambridge University Press.
23. Lewandowsky, S. (2011). Popular consensus: Climate change set to continue. Psychological Science, 22, 460-463.





最終更新:2013年04月10日 07:44