経験から学びすぎることの危険 ~ゆらぎある事象の原因分析について

経験から学びすぎることの危険 ~ゆらぎある事象の原因分析について
(2016-06-26)

1973年、第四次中東戦争が勃発した。イスラエルに対してアラブ国側が先制攻撃をしかけて始まったこの戦争は、緒戦段階でエジプト軍の地対空ミサイルが効果を上げ、イスラエル空軍機を多数撃墜した。戦争は結局、米国の後押しを得たイスラエル側が、ある程度まで押し返して、わずか2週間ほどで終わる。ただ、この時の余波で第一次石油ショックが起こり、油価の暴騰とエネルギー供給危機に、日本を含む西側諸国は大きな動揺を経験する。

イスラエルの側も、それまで過去の戦争ではアラブ側を圧倒していたのに、大きく面目をつぶした。とくに空軍の損失は甚大で、しかも損失の出方は偏っているようにみえた。たとえば、同じ基地から飛び立った二つの飛行中隊のうち、片方は4機を失ったが片方は無傷だった。このため、損害を被った飛行中隊のどこが悪かったのか見つけようと、調査が開始されていた。しかし一方の中隊がとくにすぐれていると考えるべき理由はなかった。作戦にも違いはなかった。かくして、調査はパイロット一人ひとりの生活や態度に向かっていった・・。

しかし、後にノーベル経済学賞を受賞することになるダニエル・カーネマンは、この調査をやめさせるようイスラエル空軍に進言した。カーネマンはもともと心理学者である。ただ、かれのアドバイスはもっと単純なものだった。「この違いの説明について、最もあり得る答えは『偶然』である。あるかどうかも分からない原因を求めて調査するのは意味がない上、パイロットたちには、自分や死んだ戦友に落ち度があったのではないかと感じさせ、さらによけいな重荷を背負わせることになるだろう」、と。

この話は、D・カーネマン著「ファスト&スロー ~あなたの意思はどのように決まるか?」に書かれているエピソードである(邦訳上巻・p.171)。ところで、彼のこのアドバイスの意味は、お分かりだろうか? わたしも、最初ちょっとよんだときには理解できなかった。だが、これは統計の大数の法則を思い出してみると、分かるようになる。たとえば、いま、サイコロを振って、出た目の数が5?6なら○、1?4の間なら×、だとしよう(○が出る確率は1/3だ)。では、次の二つのうち、どちらがより珍しい事象だろうか?

(1) サイコロを4回振って、全部○が出る

(2) サイコロを10回振って、全部○が出る

誰だって、(2)の方が起こりにくいことは知っている。サイコロをふって、1/3の確率が4回続くのと、10回続くのでは、当然ながら10回の方が珍しい。

これを逆に言うと、4回振って全部○になる(1)の方が、10回セットの(2)よりも起こりやすい訳だ。母数が少ない場合には、偏った結果の出る確率が高い。大数の法則とは、「試行の回数が多いほど結果は平均値に近づく」というものだが、「母数が少ない場合は、平均値よりもずっと偏った結果の出る確率が、相対的に高い」と表現することもできる。カーネマンは、だから、小数の飛行中隊のサンプルから、むりに差を見つけようとするのはやめた方がいい、と進言したのである。

カーネマンの著書には、さらにこんな例も紹介されている(p.160)。「全米にある3,141の郡部で、腎臓の重篤な病気の出現率を調べたところ、顕著なパターンが発見された。出現率が低い郡の大半は、中西部・南部・西部の農村部にあり、人口密度が低く、伝統的に共和党の地盤である」--これをよんだ人は、「いなかのきれいな環境のおかげで腎臓の病気が少ない」と、つい考えやすい。

では、その病気の出現率が高い郡はどこか。正反対の環境にあるところ、すなわち東海岸や西海岸の大都市・近郊で、人口密度が高く、民主党支持層の多いリベラルな地域だろう、と普通は考える。しかし、答えは正反対である。じつは、出現率が特に高い郡もまた、「中西部・南部・西部の農村部にあり、人口密度が低く、伝統的に共和党の地盤」にあるのだ。

これは一体どういうことなのか? 病気の出現率が特に高い地区も、特に低い地区も、似たようなところにあるとは。いなかの環境は健康にいいのか、悪いのか?

説明は簡単である。人口密度の低い郡は、つまり母数となる人口が少ない地区である。だから、平均値よりもかなり外れた統計値(高低いずれも)が現れる確率が高いのだ。もっと人口の多い郡では、ずっと平均値に近づく。ちょうどサイコロを4回振るのと10回投げるのでは、後者の方が平均的結果に近づくように。それ以外の因子、たとえばロケーションや農業や政治的スタンスは、あまり腎臓に強い関連性はないらしい。

わたし達の脳は、ちょっとした出来事にもパターンを見つけ出す能力を持っている。その一方で、確率というのは、直感的に分かりにくい概念である。その結果、わたし達はしばしば、偶然のゆらぎがもたらす確率的な現象を、何かの必然性がもたらした結果だと考えやすい。

病気に対する投薬の効果も、確率的なものである。「8割の方の症状が軽減しました」というような広告を、よく目にする。それはつまり、「効かないケースも2割くらいある」訳で、つまり人間に対する薬の効果は確定的ではないのだ。患者の身体には一人ずつ個性があるからだろう。だが、「医師たちにおいては不確実性よりも自信を示す方が好まれる」(同書p.50)。このため、患者が健康を回復したのはこの薬が効いたのだ、と素人は思い込みがちだ。

もう一つだけ例を挙げよう。男性は女性より背が高い、という命題を考えてみる。一般論としては、たしかにそうだ。ただ、男性も女性も背の高さの分布には幅がある。だから個別にはもちろん、奥さんより背の低い旦那さんだっていくらも存在する。任意の成人男女のペアを取り出した場合、男性の方が背がつねに高い訳ではなく、90何%かの確率で高い、としかいいようがない。このように、統計的分布の中から個体をとりだして比較する場合、状態を表す命題も確率で表現することになる。背の高さばかりではない、世によく言われる「男は女よりも○○だ」という命題も(性別でなく人種や出身地でも)、基本は確率的である。

さて、原因分析とは、

(1) AならばBである、という知識と、

(2) XはBであった、という事実から

(3) Xの原因はAだろう、と推論すること、

である。さらにそこから、

(4) ××の状況ではAすべき(あるいはAを避けるべき)と学ぶこと

が、いわゆる教訓(Lessons Learnt)であり、これが組織のPDCAサイクルを支えている。

ところで、(1)の「AならばBである」、の多くは、確率的なゆらぎを伴う事象である。したがって原因分析も確率的な推論になるべき、ということになる。

物知りな方は、ここで「ベイズ推計」という手法を思い出すだろう。ベイズの定理の説明などは省略するが、結果に対する情報から、その原因となる仮説の「確からしさ」を確率で計算する手法である。通常の確率は、サイコロを繰り返し投げるようなときに、特定の状態が将来起きる頻度を推定するものだ。つまり将来の予測である。どれくらいの頻度で起きるかを論じるので、頻度論ともよばれる。ところがベイズ推計の確率は、過去どういう状態だったのかを推定するもので、同じ確率といっても意味が違う。「Xの原因はAだ」という仮説の確からしさ=信頼度を、ゼロから1までの値で示している。これを『主観確率』という。

ちょっと分かりにくいので、簡単な例を挙げて占めそう。新製品ライン設置のプロジェクトは、設計・製造・据付の三つの工程をへて遂行される。ただし新規の仕事なので、各工程で20%の確率でミスが発生する危険性がある。前工程でミスが生じても、次工程の側では気づけない。さて、今この新製品ラインを試運転したところ、うまく動かないないことが分かった。このとき、不良発生の原因が製造工程のミスだった確率はいくらか?

直感的に考えると、三つの工程どこでも等しくミスが発生するのだから、その確率は1/3 = 33.3%じゃないかと思える。あるいはもう少し注意深い人なら、「最初の設計工程でミスが発生しない確率は4/5だ。次に製造工程で不良が発生する確率は1/5。だから第2工程が原因である確率は4/5
x 1/5 = 4/25 = 16%だ」と計算するかもしれない。

だが、どちらも間違いである。「上流から不良が送られてきたら、次工程は不良の根本原因にはならない」のだから、三つの工程は平等はでないはずだ。二番目の推論は、「この新製品ラインが正しく動かない」という結果情報をすでに得ていることを無視している。

正しくは、こうなる:ラインが正しく動く確率は、4/5 x 4/5 x 4/5 = 64/125だ。逆に言うと正しく動かない確率は
1 – 64/125 = 61/125 である。他方、製造工程で最初にミスが発生する確率は4/25である。したがって、「トラブルが発生した際に、製造が不良の根本原因だった」(=最初に不良が発生したのは製造工程だった)
確率は、4/25 ÷ 61/125 = 20/61 = 32.8%で、1/3よりは少し小さい。

過去の事象は、すでに確定している。このプロジェクトの失敗が製造工程で生じたのか、真実はYesかNoか、ゼロか1かの、いずれかだ。だがその真実は、わたし達には知り得ない。わかるのは、「ミスは製造工程で生じた」という関する仮説の確からしさ(主観確率)で、それがこの場合、32.8%なのである。

主観確率とは奇妙な概念だが、それでも数学的には確率の公理論を満たせるので、確率とよばれる。頻度論とちがい、一度限りの事象に関する仮説の確からしさを、周辺の観測事実を援用しながら計算し更新していくので、主観確率の概念はプロジェクト・リスク分析などにも用いられる。プロジェクトは個別でユニークな仕事であり、そこで起きる事象はつねに一度限りだからだ。プロジェクトの事後に行われる原因分析も、だから本当は確率的な推論なのである。

しかし、わたし達の思考習慣は、そういう風になっていないことが多い。たとえば、一般に法律論は確定的な因果律を求めたがる。「AはXの原因と断定できるか」が、法律家の問いだ。そして断定できなければ無罪放免とする。「疑わしきは罰せず」の原則である。これは法制度の安全弁となっている訳だが、その代わり、昔の公害と疾病発生のように、因果関係が立証できないと、免責されがちになる(放射線量と健康被害の議論などもその同類で、確定的な因果関係があるとも、ないとも、断定するのは困難だろう)。法的責任がからむと、そもそも客観的事実を共通認識する事自体が難しくなる。

だから、という訳ではないが、これが組織ではしばしば逆転して「疑わしきは原因を探せ」「疑わしきは担当者を責めろ」の原則(?)が生まれる。原因分析の推論は「責任追及」に支配されがちとなるため、「疑わしき」リスクは排除する方向に、皆が動く。さもないと自分が責任を問われ、組織から排除されかねないからである。こうした習慣は、わたしが「安全第一主義」と名付けた組織文化をもつところでは普通に行われている。「前例」を求める役人、「完璧」を求める購買担当者、「大手」にしか発注しないIT部門、皆このたぐいだ。トラブルが発生したら、疑わしき部門や担当者を必死に探し出し、皆が自分以外の誰かの責任だといいたてる。こんな組織では人々が防御的・責任回避的になるだけで、失敗の経験から本当に学ぶことは難しい。

そこまでひどくない場合でも、トラブル事象が起きると、性急にその「原因説明」をしたがる人は多い。新製品ラインがトラブった。詳しく調べると製造工程の人の判断ミスだった。やっぱり! 前にも似たトラブルはあったなあ。子会社化されて以来、工場のやる気が落ちているんじゃないのか? そこで担当者を含む部署に訓示が出され、チェックを徹底するよう指示が出された・・

これで安心するのは早計である。人はミスをする存在だからだ。そしてミスは上流工程ほど影響が大きい。先ほどの計算の続きをしめすと、失敗が生じたとき、根本原因が設計工程にある確率は41.0%、製造工程起因が32.8%、据付工程起因が26.2%だ。たまたま今回は製造で問題が生じたが、つぎに問題が起きたら、設計から疑ってみるべきである。わずか1、2回の経験で原因を決めつけるのは性急に過ぎるのだ。



教訓は単純である。それは、確率的なゆらぎが絡む問題については、学びは長期的・統計的でなければならない、ということだ。個別の結果に対して、すぐ原因を特定して性急に学ぼうとしてはいけない。それは初動で戦友を失った空軍のパイロットをさらに詮索するようなものだ。野球では強打者でさえ、打率は3割程度である。だとしたら、イチローが個別の打席で凡打だった原因を毎回議論して役に立つか、ということだ。少なくとも数試合、傾向を見なければ調子は論じられない。

ゆらぎのある事象の原因分析においては、大きな傾向・パターンを見るべきである。人は確率的存在だ。そして一定確率でミスをする。それを防ぐにはシステムが必要で、システムを考えるには時間をかけた観察が大切だ。経験から性急に学びすぎない態度が肝心なのである。

(追記)

上記の3工程の問題は、その昔、早稲田の入試に出たという問題を下敷きにしたものだ。元の問題は「5回に1回の割合で帽子を忘れるくせのある人が、正月にA、B、Cの3軒を順に年始回りをして家に帰ったとき、帽子を忘れていることに気がついた。2番目の家Bに忘れてきた確率を求めよ」

だった。計算すると、

- Aの家に忘れてきた確率=41.0%、

- Bの家に忘れてきた確率=32.8%、

- Cの家に忘れてきた確率=26.2%

になる。だから、帽子を忘れてないかを最初にたずねるべきは、Aの家だということになる。三つの家は同じ条件のなのに、確率が違うのは直感的に奇妙に思えるだろう。だが、いったん前の家で帽子を忘れたら、次の家ではもう忘れようがないのだ。わたし達の直感は、かくのごとく確率的事象に惑わされやすいのである。





Follow me!