|     © 2019   |      AE911Truth.CH

PHYSIK  BEWEIST SPRENGUNG*

„Warum schweigen gute Menschen zum 11. September?“


Teil 3: Autoritäten gehorchen


von Frances T. Shure

Übersetzung Andreas Bertram-Weiss


Aus: http://www1.ae911truth.org/en/news-section/41-articles/841-why-do-good-people-become-silentor-worseabout-911.html


Wir setzen Frances Shures Analyse im 3. Teil fort mit den Experimenten zu Herrschaft (authority) von Stanley Milgram, Jane Elliott und Philip Zimbardo.



In seinem bekannten Experiment zum Gehorsam gegenüber Autoritäten 1961 an der Yale Universität hat der Psychologe Stanley Milgram sich vorgenommen, die Frage zu beantworten: „Konnte es sein, dass Eichmann und seine Millionen Komplizen während des Holocausts nur Befehlen gefolgt sind? Ist es so, dass wir sie alle Kompliz/inn/en nennen können?“[1]


Drei Personen führten jedes von Milgrams Experimenten aus: Ein Experimentator (die Autorität); die Versuchspersonen des Experiments, die Freiwillige waren, denen gesagt wurde, er oder sie seien eine „Lehrperson“; und eine Person, von der die Versuchsperson dachte, er oder sie wären Studierende oder Lernende, aber tatsächlich waren sie Schauspieler.

Dem „Lehrer“ (Versuchsperson) wurde eine Probe eines Elektroschocks gegeben, dem der „Student“ (Schauspieler) angeblich erhalten würde. Dann lasen die Lehrpersonen eine Liste von Wortpaaren den Student/inn/en vor, die einen Knopf für ihre Antwort drücken sollten. Wenn die Antwort richtig war, dann würde der Lehrer zur nächsten Liste von Wortpaaren übergehen, aber falls die Antwort falsch war, dann sollten die Lehrpersonen den Studierenden einen Elektroschock geben. Dies wurde (in der für die Versuchsperson fingierten Versuchsanordnung) fortgesetzt mit Schocks, die in 15 Volt-Schritten für jede folgende unrichtige Antwort anstiegen.


In Wirklichkeit wurden keine elektrischen Schocks ausgelöst, aber vorher aufgenommene Schmerzlaute wurden bei bestimmten Schockgraden abgespielt. Bei einem höheren Level der angeblichen Schocks klopfte der Schauspieler an die Wand, die ihn vom Lehrer trennte, und beklagte sich über den Zustand seines Herzens. Bei noch höheren Schockgraden verstummte jegliches Geräusch von Seiten der „Studenten“.


Für den Fall, dass die Lehrerin/der Lehrer das Experiment abbrechen wollte, verfügte die Autoritätsperson über einen festgelegten Satz von verbalen Anstössen zu seiner Fortsetzung, die dann in folgender Reihenfolge gegeben wurden:


1. Bitte machen Sie weiter. (Please continue)

2. Das Experiment erfordert es, dass Sie weitermachen.

3. Es ist absolut wichtig, dass Sie weitermachen

4. Sie haben keine andere Wahl. Sie müssen fortfahren. (You must go on.)


Wenn die Versuchsperson auch nach dem vierten Anstoss noch den Wunsch abzubrechen äusserte, wurde das Experiment abgebrochen. Sonst wurde es erst dann beendet, wenn die Versuchsperson glaubte, das Schock-Maximum von 450 Volt in dreifacher Folge ausgeteilt zu haben.


Überraschenderweise sagten die Teilnehmer/innen einer zuvor ausgeführten Umfrage, die unter den älteren Psychologiestudent/inn/en, Milgrams Kolleg/inn/en und einigen örtlichen Psychiatern durchgeführt wurde, voraus, dass nur ein sehr kleiner Teil der Versuchspersonen den maximalen Schock auslösen würde. Milgram fand jedoch heraus, dass ungefähr zwei Drittel der Versuchspersonen einem „Studenten“ bereitwillig das verabreichten, von dem sie dachten, dass es der maximale und wahrscheinlich tödliche 450-Volt Schock wäre, obwohl vielen von ihnen bei der Ausführung unwohl war.


In seinem Artikel „Die Gefahren des Gehorsams“ (The Perils of Obedience) fasste Milgram die Ergebnisse seiner bahnbrechenden Studie zusammen:


„Wir ließen eine schroff wirkende Autorität gegen die stärksten moralischen Imperative der Versuchspersonen, andere nicht zu verletzen, antreten und kämpfen. Und auch wenn die Schreie der Opfer in den Ohren der Versuchspersonen gellten, hörten diese seltener mit der Bestrafung auf, als es den Autoritätspersonen gelang, sie zum Weitermachen zu bewegen. Die Bereitschaft von Erwachsenen, den Befehl von Vorgesetzten bis zu einem fast unbegrenzten Ausmass an Folgewirkungen auszuführen, stellt den Hauptbefund dieser Studie dar und die Tatsache, die am dringendsten eine Erklärung erfordert.[2]


Eine veränderte Version dieses Experiments ergab einige gute Neuigkeiten für die unter uns, die sich den Lügen und Missbräuchen von Autoritäten entgegenstellen:

In einer Abwandlung des Versuchs führten drei Lehrer/innen (zwei Schauspieler und die wirkliche Versuchsperson) den Test und die Schocks durch. Als die zwei Schauspieler dem Versuchsleiter nicht gehorchten und es ablehnten, über einen bestimmten Schocklevel hinauszugehen, schlossen sich 36 von 40 Versuchspersonen den ungehorsamen Kollegen an und weigerten sich ebenfalls.[3]


Was Skeptiker von 9/11 davon lernen können:

Wenn wir damit fortfahren, gegen unsere eigenen Tabu-Schranken und den Widerstand anderer vorzugehen, und wenn wir selbstbewusst unsere Wahrheit mit fundierter Information vortragen, dann werden unsere Kolleg/inn/en in der Welt sich uns nach und nach anschliessen.


Nichtsdestotrotz können die Ergebnisse des ursprünglichen Milgram Experiments uns weiterhin so schockieren, wie sie es in der Welt der 1960er Jahre taten. Als ich eine Studentin in den Anfangsjahren war und zur Kenntnis nehmen musste, dass zwei Drittel von uns einen hilflosen und kranken Menschen einem möglicherweise tödlichen Schock aussetzen würden, war dies verstörend und veränderte mein Leben. Nachdem ich von ziemlich autoritären Eltern erzogen worden war, wusste ich, dass ich wahrscheinlich  auch jenen Anordnungen gefolgt wäre! Ich beschloss, niemals blind einer Autoritätsperson zu gehorchen, sondern stattdessen auf meine innere Führung und mein Gewissen zu hören und zu vertrauen.


Aber können wir diese Erkenntnisse auf eine Konstellation übertragen, bei der wir fest glauben, was eine Autorität uns erzählt? Zwar können wir den Verdacht gegen uns hegen, dass wir manchmal den Anordnungen eines Vorgesetzten folgen. Aber gewiss glauben wir nicht immer fest daran, was diese Autoritätsperson uns verkündet (z. B. dass 19 Muslime uns angriffen, weil sie unsere Freiheit hassten). Die Befunde legen nahe, dass diese Ergebnisse übertragbar sind, und zwar vor allem dann, wenn unsere Angst verstärkt worden ist und wir dieser besonderen Autorität Achtung entgegenbringen (z. B. George W. Bush oder Barack Obama).






Jane Elliott


Ein erstaunliches Sozialexperiment von 3rd-Grade Lehrerin Jane Elliott zeigt die Macht der menschlichen Neigung, einer bekannten Autoritätsperson Glauben zu schenken. Diese Veranlagung beeinflusst sogar unsere Identität, und zwar, indem sie auch die Neigung bedeutet, uns auf der Grundlage zu entwickeln, was uns diese Autorität über uns selbst erzählt. In der Folge der Ermordung von Martin Luther King Jr. wollte Elliott ihren völlig hellhäutigen Drittklässlern in einer kleinen Stadt in Iowa helfen zu verstehen, was Vorurteile sind. Eines Tages erzählte sie ihnen:


„Heute sind die mit blauen Augen unten und die mit braunen Augen sind oben. Was ich damit sagen will ist, dass die braunäugigen Leute besser sind als die blauäugigen. Sie sind sauberer als blauäugige Leute. Sie sind zivilisierter als blauäugige Leute. Sie sind klüger als die blauäugigen Leute.“


Den Braunäugigen wurde eine längere Pause gewährt, die Nutzung der grösseren Spielplatzgeräte, und sie durften als erste in der Reihe zum Mittagessen und für einen Nachschlag. Elliott wies die Blauäugigen an, dass sie mit den Braunäugigen nicht spielen dürften, wenn sie nicht gefragt würden, und sie sollten hinten im Klassenraum sitzen. Jedem braunäugigen Kind wurde ein Halsband gegeben, das es um den Hals eines blauäugigen Kindes legen sollte. Während des Tages bekräftigte der Lehrer, dass die braunäugigen Kinder besser und die blauäugigen minderwertiger waren.


Während des Mittagessens zeigte alleine das Verhalten der Kinder, ob sie braune oder blaue Augen hatten:

Die braunäugigen Kinder waren fröhlich, aufmerksam, und sie hatten die beste Zeit überhaupt. Und sie arbeiteten weitaus besser als jemals zuvor. Den blauäugigen Kindern ging es elend. Ihre Haltung, ihr Gesichtsausdruck, ihr ganzes Verhalten war das von Besiegten. Ihre Leistung im Klassenzimmer nahm von einem Tag auf den anderen drastisch ab. Innerhalb etwa einer Stunde schauten und verhielten sie sich so, als wären sie tatsächlich minderwertig. Es war schockierend.

Aber noch erschreckender war die Art, wie die braunäugigen Kinder sich gegen die wandten, die ihre Freunde vom Vortag waren … .[4]


Jane Elliott drehte das Experiment am nächsten Tag um, und etikettierte die blauäugigen Kinder als höherwertig, und das Gleiche geschah umgekehrt.

Am Ende des Tages sagte sie ihren Schüler/inn/n, dass dies nur ein Experiment gewesen sei und es keinen angeborenen Unterschied zwischen den blauäugigen und braunäugigen Leuten gebe. Die Kinder nahmen ihre Halsbänder ab und umarmten einander, und sahen sehr erleichtert aus, dass sie wieder gleich und Freunde waren. Ein interessanter Aspekt dieses Experiments ist der, wie dies das Lernen beeinflusste ... Als einmal die Kinder sich darüber im Klaren waren, dass ihre Kraft zum Lernen von ihrem Glauben an sich abhing, hielten sie an der Vorstellung fest, dass sie klug waren und liessen davon nicht mehr ab.[5]


Aber sicherlich wären Erwachsene gegen solch einen sozialen Druck und die Manipulation immun, nicht wahr? Wären Erwachsene nicht in der Lage, dem zu widerstehen, was Kinder überwältigt? Sicherlich wäre die Identität von uns Erwachsenen nicht solch einer Manipulation ausgeliefert, oder?


In einer Studie, die auffallend ähnlich zu der von Jane Elliott ist, hat das bekannte von dem Sozialpsychologen Philip Zimbardo durchgeführte Stanford-Prison-Experiment in den frühen 1970er Jahren bewiesen, dass diese verständliche Annahme weitestgehend falsch ist.

Zimbardo und seine Kollegen nahmen 24 männliche Collegestudenten als Versuchspersonen und teilten sie willkürlich in „Wärter“ und „Insassen“ innerhalb eines Scheingefängnisses ein. Zimbardo wies die „Wärter“ an, sich gegenüber den „Gefangenen“ unterdrückerisch zu verhalten.

Alle Studenten wussten, dass dies ein Experiment war, aber überraschenderweise internalisierten die Experiment-Teilnehmer trotzdem ihre Rolle als brutale, sadistische Wärter oder als emotional gebrochene Gefangene. Das „System Gefängnis“, das von den Experimentatoren aufgebaut worden war, und die daraus entstandenen Dynamiken,

 hatten eine derart schädliche Wirkung auf die Versuchspersonen, dass die Untersuchung am sechsten Tag abgebrochen wurde. Jedoch geschah dies erst, nachdem die graduierte Psychologiestudentin Christina Maslach - mit der Philip Zimbardo eine Beziehung hatte, was in der Folge zur Heirat führte - ihn auf die unethischen Bedingungen dieses Experiments aufmerksam machte.[6]





 Photos von Versuchspersonen des Stanford Prison Experiments



Dieses Experiment zeigt - wie die Versuche von Milgram und Elliott - die menschliche Neigung, Autoritäten zu glauben und zu folgen. Die Untersuchungen von Zimbardo und Elliott zeigen auf, dass unsere eigensten Identitäten betroffen sind durch das, was Autoritäten uns sagen und wie heftig der aus einer Gruppenzugehörigkeit erwachsene Druck diese menschlichen Neigungen verstärken kann. Als Folge begingen Milgrams Versuchspersonen, Elliotts Drittklässler und Zimbardos erwachsene Studenten Grausamkeiten, selbst wenn diese die geschätzten moralischen Werte verletzten.

Zimbardo wurde zum Sachverständigen für die Verteidigung als Zeuge  vor dem Militärgericht im Prozess gegen einen der Wärter der Nachtwache ausgerufen, gegen den Wärter Ivan „Chip“ Frederick, dem berüchtigten „Abu Ghraib Seven“. Aufgrund seiner Erfahrung mit dem Stanford-Prison-Experiment argumentierte Zimbardo, dass es die Situation gewesen sei, die die doch andererseits guten Menschen zu dem abweichenden Verhalten veranlasste. Während das Militär argumentierte, dass diese Wärter nur ein paar „schlechte Äpfel“ waren in dem ansonsten guten Fass der US Army, entgegnete Zimbardo, dass diese Wächter normal waren: Sie waren gute Äpfel in einer sehr, sehr schlechten Kiste.

Chip Frederick wurde schuldig gesprochen und erhielt das Strafmass von 8 Jahren Gefängnis, wobei Zimbardos Aussage einen kleinen Effekt auf sein Strafmass hatte. Die anderen Wärter, die als schuldig befunden wurden, erhielten Strafen, die von 0 bis 10 Jahren reichten; die Unterschiede bei den Strafen schienen keinen Sinn zu ergeben.

Was ist die Wahrheit? Waren diese Wärter der Nachtschicht nur wenige „schlechte Äpfel“ in einem guten Fass, oder war dies selbst verseucht? Die Armee gab selbst an, dass es seit dem Oktober 2001 mehr als 600 Anschuldigungen wegen Missbrauchs der Gefangenen gab. Viele weitere wurden nicht offiziell berichtet, einschliesslich des Missbrauchs der „Geistergefangenen“, unglückliche Seelen, die unter der Kontrolle der CIA niemals identifiziert wurden und die oft an Folterstaaten „übergeben“ wurden. Viele dieser Opfer waren dann eigentlich „verschwunden“. Infolgedessen gab es offensichtlich auch viele „Geistmissbrauchstäter“, die dafür nie zur Rechenschaft gezogen wurden.


Um seinen Vorwurf zu unterstützen, dass eher das Fass als die Äpfel vergiftet war, stellt Zimbardo in „The Lucifer Effect“ das System selbst auf die Probe. Er hält fest, dass die Befehle, die Erwartungen und der Druck zur Folter von ganz oben in der Befehlskette kamen, und seine Analysen erweisen die Schuld von Verteidigungsminister Donald Rumsfeld, von CIA Direktor George Tenet, Generalleutnant Ricardo Sanchez, Generalmajor Geoffrey Miller, Vizepräsident Dick Cheney und Präsident George W. Bush.

Zimbardos detaillierte Analyse folgert, dass „dieses Fass voller Äpfel von oben nach unten vergammelt ist“.

Dennoch lobt er die vielen Helden, angefangen von den Whistleblowern bis hin zu Spitzen der Militärhierarchie, lobt die Menschen, die ihr Leben und ihrer Karriere riskierten, um sich zu erheben und hartnäckig dem toxischen System zu widerstehen.[7]

Warum gehen einige Leute mit den Erwartungen des Systems konform während andere den Mut finden, ihren eigenen Prinzipien treu zu bleiben? Entwicklungs- und Tiefenpsychologie halten Antworten auf diese Fragen bereit, aber um dieses so überaus wichtige Thema im Detail zu behandeln, bräuchte es eine weitere Abhandlung. Zimbardo hingegen beginnt seine Untersuchung aus der Perspektive eines Sozialpsychologen, und erklärt, dass wir alle „Helden im Warten“ sind, und er bietet Vorschläge an, wie den unerwünschten sozialen Einflüssen zu widerstehen ist.[8]  


Es ist meine feste Überzeugung, dass die Skeptiker von 9/11 - und die wahren Skeptiker eines Paradigmen verändernden und mit Tabu belegten Themas - die öffentlich die Lügen und nackten Herrscher blossstellen, die Helden sind, die aus der Haltung des Abwartens herauskommen, nachdem wir bislang unter dem Hohn und der Rache jener Herrscher, ihrer Lakaien und den einfach nur Ängstlichen gelitten haben.

Diese drei Untersuchungen - das Milgram-Experiment über den Gehorsam gegenüber einer Autorität, Elliotts Versuch über blaue und braune Augen, und Zimbardos Stanford-Gefängnis-Experiment - zeigen unsere menschliche Neigung, Autoritäten zu vertrauen und zu gehorchen.


In diesem Zusammenhang stellt sich uns eine weitere Frage: Ist diese Geneigtheit genetisch angelegt? Hinweise scheinen diese Annahme zu stützen.

Um als Babys oder jüngere Kinder zu überleben, blicken wir automatisch zu unseren Eltern, um eine Bestätigung darüber zu erhalten, dass wir entweder in Sicherheit sind oder dass Gefahr droht. Schimpansen, mit denen unsere Genen zu mindesten 94% übereinstimmen,[9] haben gewöhnlich einen oder mehrere männliche Alphatiere, wobei diese oft durch die Weibchen der Herde ausgesucht werden.[10] Bonobos, die ein Genom besitzen, das dem der Schimpansen und somit auch dem der Menschen ähnlich ist, verfügen über ein matriarchales System mit einer weiblichen Leiterin.[11]

Und gewiss haben auch menschliche Gemeinschaften Leitungspersonen. So erscheint das Bedürfnis nach einer Leitung und nach Autoritätspersonen genetisch veranlagt zu sein. Wenn wir in einer autoritären Familie und einem autoritären Schulsystem erzogen wurden, dann hat die Neigung, sich für die Bestätigung der Realität auf autoritäre Gestalten zu verlassen, wahrscheinlich verstärkt. Andererseits wird unsere Neigung, uns auf Autoritäten zu verlassen, wahrscheinlich eher abgeschwächt werden, wenn wir in einer Familie, einem Schulsystem und einem kultureller Kontext aufgewachsen sind, die kritisches Denken belohnen und unsere Gefühle und Bedürfnisse respektieren.


In der U.S.-amerikanischen Gesellschaft belügen und missbrauchen gewohnheitsmässig viele der Amtsträger die Menschen. Aber trotzdem suchen viele Bürger/innen bei ihnen Wahrheit und Sicherheit - vor allem wenn Angst sich breit macht. Diese starke Tendenz, Autoritäten zu vertrauen und zu gehorchen, ist ein weiteres Hindernis, mit dem Skeptiker der offiziellen 9/11-Erzählung ringen müssen.


Indem wir unhinterfragt Autoritäten glauben und gehorchen, entwickeln wir gestörte Identitäten und mangelhafte Ansichten und verstärken diese, und als Krönung des Ganzen treffen wir sehr schlechte Entscheidungen, die andere oft negativ betreffen.

Autoritätsgläubigkeit kann gleichermassen folgende vier menschliche Tendenzen ausbilden, die Sozialpsychologen untersucht haben: Widersprüchliches Denken [Doppeldenk - George Orwell], kognitive Dissonanz, Konformität und Gruppendenken. Dies sind die folgenden vier Bereiche, die wir betrachten.


Fortsetzung Teil 4: mit George Orwells glänzender Beobachtung des "Doppeldenks"


------------------------------

Anmerkungen

[1] Stanley Milgram, Obedience to Authority: An Experimental View (Harper & Row Publishers, Inc., 1974).

[2] Stanley Milgram, The Perils of Obedience, Harpers Magazine (1974).

[3] Ibid.

[4] Dennis Linn, Sheila Fabricant Linn, and Mathew Linn, Healing the Future: Personal Recovery from Societal Wounding (Paulist Press, 2012) 56–60. William Peters, A Class Divided: Then and Now, expanded ed. (New Haven: Yale University Press, 1971); Dieses Buch enthält eine Erzählung über Jane Elliott, die ein ähnliches Experiment mit erwachsenen Angestellten der Gefängnisbehörde Iowa durchführte. Dokumentarfilme, die dieselbe Geschichte darstellen, sind The Eye of the Storm, ABC News, 1970, herausgegeben auf DVD von Admire Productions, 2004, http://www.admireentertainment.com, und A Class Divided, von Yale University Films, 1986, präsentiert auf Frontline und als DVD von PBS Home Video, www.pbs.org; beide Programme beinhalten Anleitungen zur Verwendung in Gruppen.

[5] Dennis, Sheila, and Matthew Linn, Healing the Future, 57–58.

[6] Philip Zimbardo, The Lucifer Effect: Understanding How Good People Turn Evil (Random House Trade Paperbacks, 2008). Also, see http://www.simplypsychology.org/zimbardo.html.

[7] Zimbardo, The Lucifer Effect, 324−443.

[8] Ibid, 444−488.

[9] http://www.scientificamerican.com/article.cfm?id=human-chimp-gene-gap-wide

[10] http://en.wikipedia.org/wiki/Chimpanzee

[11] http://en.wikipedia.org/wiki/Bonobo3