Docent Tanács János
1986 г. беше трудна година в живота на съвременните технологични общества. В началото на годината, проектът на американския шатъл, който яздеше на успехът на програмата „Аполо“, и кацането на Луната получи огромен шамар, когато „Чалънджър“ избухна при стартирането предавано на живо. В края на април пък се случи ядрената катастрофа в Чернобил, която оттогава е призната за една от двете най-значителни ядрени аварии в света, наред с инцидента във Фукушима.
"Как можем да бъдем толкова глупави?" - първоначално въпросът възниква не след катастрофата на Чалънджър или от катастрофата в Чернобил, ами след провала на инвазията в Bay of Pigs, в американския президент Джон Ф. Кенеди. Той се сблъсква с факта, че с помоща на съветниците му, се е насочил към такъв неуспех, какъвто изобщо не бил планиран.
От анализа на подобни мащабни неуспехи като на Bay of Pigs , американският социал психолог Ирвинг Янис през 1972 година изважда един отговор. Според него, специфичният механизъм на организационно поведение, Groupthink, се крие в основата на фиаското, което „заблуждава” даже умните и доброжелателни съветници и отговорни лица взимащи решения.
Групово мислене и неуспех на инвазията в кубинския Bay of Pigs
Важна опорна точка за Ирвинг Янис беше контраста, че президентът Джон Ф. Кенеди и неговият екип успяха да вземат две коренно различни решения само с разлика от година и половина. Това го вълнува, че всъщност същият екип взема решения и се проваля през април 1961 г. в опит да свали системата на Фидел Кастро в Куба, докато през октомври 1962 г. успява в кризата с кубински ракети.
Янис установява, че колкото по-типично е за членовете на една група солидарноста и на място вземане на решения, толкова по-голяма е опасността от заместване на независимото критично мислене с групово мислене, което води до ирационално поведение. Той очерта много фактори в поведението , наречен групово мислене в обобщен вид и разработи предложения за отсраняване на грешка. В процеса на вземане на решения за несполучливата кубинска инвазия, той намери, наред с други неща, че Кенеди, като председател, е водил преговорите с преразсъдаци. Собственото си мнение, той изказва преди решението и приемането на окончателното решение, с което потиска критичните забележки, в резултат на което някои съветници замълчават своите критични забележки. Дори и признаците на несполуливоста на плана, като например неспособността да се запази тайната на действието, бяха игнорирани.
Когато в центъра на вниманието стигна неуспехът на извънредното вечерно/ преди старта на Challenger/ заседание за вземане на решения, явлението Янис скоро се появи. И наистина, анализът на дискусията за разрешение на стартиране на совалката показа, че ако хората, които вземат решения, бяха се запитали "как можем да бъдем толкова глупави", отговорът би бил отново груповото мислене. От една страна, това е тъжно, защото всеки един от тези нови случаи е доказателство, че механизмът на груповото мислене не е победен, т.е. не сме се научили, хората, които вземат решения, не са взели поука от предишните провали. От друга страна, всеки неуспех от този вид, който се основава на добре разпознаваем, по принцип дори защитен механизъм, може да допринесе наистина да се учим от него.
Ситуацията е по-лоша, ако не поставим такъв въпрос, защото тогава няма да има прозрение, което наистина може да бъде урок, ориентиращ към бъдещето. С други думи, как можеше да бъдеш толкова глупав в Чернобил? Ами ние бяхме ли по-умни? Интересно е, че такива въпроси не са повдигнати във връзка с катастрофата в Чернобил. В резултат на това не е имало анализ на погрешното мислене, което води до бедствие, което има важни и валидни поуки за нас, и което не може да бъде отстрани от масата, с това, че ние не сме дизайнери на ядрени реактори.
След инцидента съветската бюрокрация, дълго време обвинява оператора на ядрения реактор: те са виновни за катастрофата, защото правят елементарни грешки в опита и не следват ясните инструкции за работа. Тази картина обаче беше коригирана от Международната агенция за атомна енергия (МААЕ) през 1992 г., във вторият доклад (INSAG-7), въз основа на преразгледаният от 1986 г. (INSAG-1), в много отношения коригира: някои от фаталните грешки изобщо не са били от пренебрегването на екслотационните правила. Разбира се, имаше и такива, но имаше и сериозни грешки при проектирането, мониторинга и експлоатацията. И какво още има в доклада: имаше и индивидуални грешки при вземането на решения, които не можеха да се разглеждат като елементарни, но в процеса, водещ до инцидента, все повече хора го правеха и според социалната психология може да се случи на всеки от нас! По-долу бих искал да покажа ролята на две такива грешки, неоснователния оптимизъм и грешките предубеждена обработката на произшествието.
Неоснователен оптимизъм или „Това е глиган?!Стига бе!Виж колко е кротко прасенце, ебаси!
Едно от явленията, които водят до инцидента, е положителният шрам ефект, който се дължи на проектна грешка в управляващите пръти, които бързо се допускат при аварийно спиране. Същността на грешката е, че прътовете, вместо да забавят, свалят процеса и всъщност го засилвът. Недостатакът на дизайна обаче е известен от ноември-декември 1983 г., от стартирането на Игналинската атомна електроцентрала, която работи по подобен начин като Чернобил, на главния проектант на електроцентралата Николай Долецал. Dollezsal предлага структурни промени и промени в оперативните процеси, но нищо не става. Според резюмето на Международната агенция за атомна енергия, тези корекции в крайна сметка не са направени, защото преобладаващото убеждение сред професионалистите е, че никога няма да има ситуация, в която този стимулиращ ефект може да бъде значителен. Конструкторите споделят мнението на най-високите нива, че "реакторите RBMK са изключително безопасни".
Тенденцията на мислене, която виждаме тук, се нарича социална психология като вина на неоснователния оптимизъм: негативните събития, свързани с нас или техните рискове, се оценяват лошо, а не реалистично. Няма никакви проблеми за нас, според статистиката, не е така. Тази мисловна грешка в реакторите на Чернобилския РБМК доведе до липса на задълбочен анализ: възможно ли е да има ситуация, в която процесът на възбуждане е възможен?
Струва си да се отбележи, че неоснователният оптимизъм е грешка, а освен неправилната преценка на рисковете, води и до информационна слепота: „блокира“ на процесите, които могат да ни накарат да получим информация дали нашият оптимизъм наистина е оправдан. Ние не посвещаваме много задълбочен анализ, койо бихме направили, ако е в наш интерес да докажем, че може да има ситуация, при която стимулиращият ефект на описаните по-горе контролни пръти може да бъде значителен.
Иначе грешката на неоснователния оптимизъм се признава и от груповото мислене на Янис, казва се илузията на неуязвимостта, и показва, че не само индивиди, но и цели групи могат да вземат ирационална оценка на риска и получената информационна слепота. Тези два различни вида на размисъл насочват вниманието към това за колко широко разпространено склоност се говори.
Неоправданият оптимизъм на съветската ядрена промишленост - или илюзията за неуязвимоста му - не разколебава даже и през 1979 г. в инцидент на Three Mile Islandben САЩ. Американският инцидент по принцип можеш да доведе до проверка и преглед на съветската програма за ядрена енергия (макар и съветските електроцентрали се основават на много по-различна концепция от тази на американските им колеги) - разбира се, само ако съветската ядрена индустрия не я постави в скоби „това с нас не може да се случи ”. Като се има предвид по-късния ретроспективен преглед на Владимир Асмолов, началник на отдел "Ядрена безопасност" към Отдела за ядрена безопасност към Академичния институт по атомна енергия "Курчатов", беше лесно да се отмени инцидентът с Три Майл Айлънд в СССР, според преобладаващото убеждение, че "единствената гаранция за безопастноста на съветската ядрена индустрия, че е ... безопасна ". Така инцидентът се дължеше на приоритетът или жаждата за профит на американската капиталистическа икономическа система – спрямо проблемът със сигурността.
Инерцията на нашата любима позиция
Ако считаме нарушението на спецификациите за твърда или елементарна грешка, тогава мислещите грешки като неоснователния оптимизъм или илюзията за неуязвимост първоначално са меки грешки. Тези грешки са меки, и са по-трудни уязвими, защото те не са нарушение на правило или преписание. В началото тежеста и значимостта на грешката са по-малко видими: последствията от грешката обикновено със закъснение ударят главата ни.
Първият доклад на International Nuclear Safety Advisory Group за Чернобил приема, че операторите вече са нарушили правилата за експлоатация, като експлоатират атомната електроцентрала с обхват от 200 мегавата за около 6% от 3200 мегавата. Така, според първия доклад, операторът е направил елементарна грешка. Във втория доклад това беше оттеглено, защото се оказа, че няма правило, което би забранило експлоатацията на електроцентралата в ниско енергийния диапазон. Според това, грешката е по-сложна и трудна за разбиране. Да видим какво се случи!
Един час преди инцидента, когато системата за управление на мощността на електроцентралата беше прекъсната, операторите загубиха контрол над процеса, като мощността падаше от 500 мегавата до 30 мегавата. Производството на такова състояние изобщо не е включено в експерименталния план. Въз основа на данните, с които разполагат операторите, нямаше обяснение за случилото се. За да се увеличи производителността, беше изтеглен още един прът, който забави процесите, но все още само 200 мегавата бяха в състояние да стабилизират електроцентралата и не успяха да повдигнат. Поради тази причина експериментът започна с 200 мегавата вместо първоначално планираните 700 мегавата. Този нисък диапазон на производителност обаче направи процесите по-малко опасни, но нестабилни и непредсказуеми. Оперите не са знаели за тази същност на дизайна и за свързаните с тях преживявания, защото не са били информирани за тях и следователно не могат да бъдат обвинени. Въпреки това може да се твърди, че две сериозни предупреждения са преминали. Едната е необяснимата, необяснима липса на мощност. Другият е, че след падането те не успяха да си възвърнат напълно контрола над оборудването, тъй като не можеха да достигнат оригиналните 700 мегавата експериментални резултати.
Грешката в мисленето, която виждаме тук, се отнася до тълкуването на потвърждаващата и подкопаваща информация и намираме мястото й в психологията на познанието в явлението на Confirmation bias. Същността на грешката е да търси, интерпретира и припомня информация от нашите спомени едностранно. Както можете да видите, нашата склонност да обхване три различни едностраненности при обработката на информация; Сега бих искал да подчертая грешката в предубеденото обработване на тълкуването на подкрепящата и подкопаваща информация. (В контекста на конспирационите теории съм разгледал по-подробно проблема с избирателното търсене на информация за потвърждение.)
Същността на предубедената обработка е, че ние обективно оценяваме подкрепящите или подкопаващи доказателства със същото тегло: приемаме, че поддръжниците са толкова силни, а поддръжниците - слаби. Говорещите до нас укрепват и онези, които говорят против нас, не ни засягат.
Чичо Ицо винаги е прав
Разбира се, все още е абсурдно, въз основа на моето въоръжено описание, че две от тези специфични гравитационни предупреждения са преминали през оператора на електроцентралата. Може би е по-добре да се приеме феномена на пристрастната асимилация в опит да се изследва ролята на първоначалната пристрастност в убийството на Кенеди. Някои от експерименталните хора първоначално вярваха в теорията на самотния извършител, т.е., че Осуалд е проектирал и екзекутирал само Кенеди. Останалите твърдяха версия на заговор за убийство: нарушителят, Освалд, действаше от името на група по интереси, вероятно с негова помощ.
В хода на експеримента и на двете групи беше даден текст, съдържащ същия брой и структура на про и насрещните доказателства: 9 аргумента за самотния нарушител и 9 за теорията на убиеца. Как е проучен този общ набор от неутрални доказателства от участниците: как оценяват силата на доказателствата, как променят позицията си според собствените си декларации и как се променят според измерванията?
Разследването доведе до заключението, че всеки видя, че собствената му начална теория е потвърдена: тези, които вярват в самотната теория на извършителите, че Осуалд работи сам, обаждащите се на конспирацията са поръчани. Очевидно беше, че доказателствата бяха тълкувани смело, оценявани и че всички смятат, че подгрупата, която доказа своята собствена теория, е по-силна. Още по-изненадващо е, че цялостният набор от неутрални доказателства укрепи тяхната позиция: тяхната теория се смяташе за много по-силна, по-силна, по-солидна от оригиналната.
Този експеримент показва колко добре любимите ни позиции събират информация, която е непривлекателна за тях, и ги укрепва. Така че може би е по-лесно да се разбере защо чернобилските оператори са поддържали убеждението си, че всичко е наред и че са преминали през знаците, че нещо не е сериозно.
Когнитивната психология казва, че всички ние сме малко чичо Ицо: ние сме прави, колкото пъти искаме. Подпомагането на поддръжката и подкопаването на информацията играе основна роля в това. Разбира се, никой не иска да бъде чичо Ицо. За да направите това, първата стъпка е да приемете сериозно и да сте наясно с представения проблем, защото дори и тогава, кучето ще бъде трудно да приложи знанието и да предотврати грешката.
Когнитивната психология също казва, че сме толкова зле, колкото и дизайнерите, операторите и операторите на атомната електроцентрала в Чернобил. Само по себе си няма гаранция, че ще се представим по-добре в подобни ситуации. Ако вземем Чернобил за ситуации на вземане на решения, средният човек не трябва да се справя с тях, тогава няма да научим урока от катастрофата, която може да ни помогне да направим собствените си важни решения по-умни - и поне да дадем усещане за дъх на безсмислената смърт на жертвите. Ако сме били разтърсени от минисерията на HBO, нашата работа е да обвържем нашите уроци, както и по-горе, със собствения си живот.
Превод, Скуби и гугли
A cikk megírásához köszönettel tartozom az inspirációért Gyarmathy Ákosnak, Margitay Tihamérnak és Pázmándi Kingának.
Források:
Esser, James K; Lindoerfer, Joanne S. (1989). “Groupthink and the space shuttle challenger accident: Toward a quantitative case analysis.” Journal of Behavioral Decision Making, 2(3), 167-177.
International Nuclear Safety Advisory Group (1992): The Chernobyl Accident: Updating Of INSAG-1: INSAG-7. A report by the International Nuclear Safety Advisory Group, Safety Series No. 75-INSAG-7, International Atomic Energy Agency: Vienna. https://www-pub.iaea.org/MTCD/publications/PDF/Pub913e_web.pdf
Janis, Lester I. ( 1971). "Groupthink", Psychology Today. 5 (6): 43–46, 74–76.
McHoskey, John W. (1995): “Case Closed? On the John F. Kennedy Assassination: Biased Assimilation of Evidence and Attitude Polarization”, Basic and Applied Social Psychology, 17:3, 395-409, DOI: 10.1207/s15324834basp1703_7
Moorhead, Gregory; Ference, Richard; Neck, Christopher P.: “Group Decision Fiascoes Continue: Space Shuttle Challenger and a Revised Groupthink Framework”, June 1991. Human Relations 44(6):539-550, DOI: 10.1177/001872679104400601
Potter, William C. (1990): Soviet Decision Making For Chernobyl: An Analysis of System Performance and Policy Change. National Council For Soviet and East European Research, https://www.ucis.pitt.edu/nceeer/1990-802-12-Potter.pdf
Képek forrása:
https://www.indiatoday.in/education-today/gk-current-affairs/story/chernobyl-6-worst-nuclear-explosions-history-319939-2016-04-26
https://www.flickr.com/photos/iaea_imagebank/5612540377/
https://www.flickr.com/photos/iaea_imagebank/5612554241/in/photostream/
https://www.flickr.com/photos/iaea_imagebank/5395362798/in/album-72157625797422621/
https://www.flickr.com/photos/iaea_imagebank/5612554949/
https://www.imdb.com/title/tt0131658/mediaviewer/rm3147827200
Vendégszerzőnk, Tanács János, a Neumann János Egyetem Menedzsment és Üzleti Kommunikáció Tanszékének tanszékvezető egyetemi docense. Tudományos érdeklődési területei közé tartozik a Bolyai-geometria megismeréstörténete, valamint a kríziskommunikáció és a sajtó-helyreigazítási perek érveléselméleti-retorikai vonatkozásai. Az utóbbi időszakban a Challenger-katasztrófa érveléstechnikai, tárgyalástechnikai és döntéselméleti tanulságait kutatja.