Both Macro and Micro are Bad Economics

またしてもやわらかいエントリ。

Economist誌のU.S. Economics EditorであるGreg Ipが、Free Exchangeにおいてミクロ経済学の方がマクロ経済学より科学的なんてことはない、と議論している。そもそもの発端は、金融危機を予期あるいは予防できなかったマクロ経済学は経済学の恥さらしであり、それに比べて、コントロールされた環境で実験を行うことで理論が確認、あるいは改善されていく(最近の、かな)ミクロ経済学は、より科学的だという議論に対して異議を唱えたのである。大まかに言って、彼は以下の3点を論じている。
  1. 科学的だというミクロ経済学だって、最低賃金が雇用に与える影響という重大な問題に対して、ぜんぜん合意が形成されていない。少なくともマクロ経済学者は(純粋RBC論者でない限り)名目金利が引き上げられたら短期的にはGDPに負の影響を与えることについて同意している。
  2. マクロにしてもミクロにしても、データに照らし合わせながらモデルを改善してゆくという方法論は同じである。
  3. マクロであろうがミクロであろうが、政策について語るときには、政治的意図に強く影響された(という意味で科学的でない)議論がされがちである。
この記事について考えたことをいくつか。
  1. 知り合いが、労働経済学というのは、労働の賃金に対する弾力性を、様々な手法を用いて永久に違う値を算出し続ける学問だと(自嘲気味に)述べていたことを思い出した。最低賃金が雇用に与える影響だけではなく、失業保険の給付期間や給付額が平均失業期間や失業率に与える影響だって意見は一致していない。労働の弾力性についての合意がないから所得税の累進性がどのように労働のインセンティブを削ぐかについても意見はばらばらに見える。
  2. 「ミクロ」もあまり「マクロ」に比べて意見の合意が見られないように見える大きな理由の一つは、「ミクロ」とはいえ「マクロ」の影響から逃れられないからだと思う。最低賃金や失業保険が失業に与える影響を考えるには「ミクロ」だけを考えていてはだめなのだ。特に政策が国単位で実施される場合、マクロ的な影響を考えずして「ミクロ」の質問に対する答えは得られないと思う。
  3. Hagedorn, Karahan, Manovskii, Mitmanによる最近のNBERペーパーは("Unemployment Benefits and Unemployment in the Great Recession: The Role of Macro Effects")まさにその点を主張している。 失業保険の給付期間延長が失業に与える影響を図るには、労働者側の行動の変化(「ミクロ的」効果)だけ見ていては不十分で、企業がどのくらい求人を減らすかと「マクロ的」効果を見ることが重要だと彼らは主張している。
  4. 逆に言うと、研究の対象をかなり小さく絞れば、実験とかを基にして「ミクロ」の質問に対して科学的なアプローチで取り組めるかもしれない。一企業やある特定の労働者についての分析は、労働市場全体の分析やある産業全体の分析よりはずっと簡単ではないかと思う。でも、その場合、マクロ的な要素を無視して、そんな小さい問題に注力して何の意味があるんだという質問に答えられなければならないと思う。
  5. そういう意味で、もちろんある複雑なモデルに依存しないデータ分析の重要性もまだまだあると思うが、労働経済学がマクロ的なモデルに基づくようになってきたのは自然な成り行きだと思う。
  6. マクロ経済学の最も重要な課題の一つは、景気後退(とそれに伴う失業の増加)を予防あるいは和らげることであるとすると、Great Recessionを予期あるいは予防できなかったことはマクロ経済学の大きな失点であることに間違いはないと思う。では、今後同じ過ちを起こさないならば、景気循環をマイルドにすることができるのか、あるいはまた違ったタイプの景気後退が訪れるだけなのか、というのは今後見守ってゆきたい課題である。

Engodenous Risk Aversion?

Economistで、リスク回避度(どのくらいリスクを嫌うかの指標)が人によって異なるだけでなく、どのような環境に直面してきたかによっても変わりうるという記事を載せていた。不景気を経験したり、株で大損したあとなどは、リスクを以前よりも回避しがちになるという話である。まぁ、いわゆる、Behavioralな話である。リスク回避度が人によって異なる場合にマクロ経済にどのような影響を与えるかという研究は時々見るけれども、リスク回避度自体が時につれて変化するというマクロの研究は見たことがない。

平均的に高成長を達成するためには、大きめの景気循環を受け入れなければならないというのは、ありうる話である。経済が成長し続けるためには、様々な新しい技術にトライしなければならず、時によってはそのようなトライがうまく行き、別の時にはうまく行かないというのはありうる話である。その場合、もし、人々が非常にリスク回避的であれば、景気循環は小さいものの、経済成長のスピードも遅いという状況が望ましいということもありうる。日本をこのような状況として考えることもできるのではないか。低成長が続いた結果、人々が非常にリスクを嫌うようになり、結果として平均的には低成長になってしまうというストーリーである。社会保険制度や累進的な税への支持が高まっているのも、このような視点と整合的である。もしそうであれば、低成長は最適な状況であり、特に気にしなくてもよいということになる。無理してリスクを取るインセンティブを高めたりしてもしょうがない。

あと一つ二つ雑感を。 もちろん研究においてはうまく識別できるように注意が払われているんだろうけれども、例えば、株で大損したあとにリスク回避度が高まるのか、将来の株のリターンの分布についての主観的な期待が悪いほうにシフトするのかの違いには興味がある。日本のバブルが崩壊したあとで、portfolioがとてもconservativeになった人を見てきたが、どちらの説とも整合的だ。

この記事に載っていた、 ホラー映画を見た後はリスク回避度が高まることを実験で証明したという研究を紹介しているが、個人的にはこのような実験結果が、より大きな問題を考える際にも適用されるという考え方はとてもナイーブだと思う。

もう少しちゃんとした論文についてのエントリを書きたいのだけれども、忙しい。

How to Learn Modern Macro?

タイトルは仰々しいが、勉強法についての役に立つ話をするのではなくて、同僚と話して考えた雑感を述べるだけである。きっかけは、日本で(Dynareで解けるという意味での狭義の)DSGEモデルを推定するというのが流行っているようだと感じたからである。

なるべく早くにDynareで解けるようなDSGEモデルを使うと何がよいか? 早いうちからRBCあるいはDSGEモデルのロジックに慣れると、その後の理解が早くなるかもしれない。最初にIS-LMのような古いモデルから入ると、そこからDynamicなモデルに移行したときにギャップが大きすぎて、2つの別のフレームワークを別々に学んでいる感じになってしまい、一般均衡理論の応用として成り立っている現在のマクロ経済学の大枠をつかむのが難しくなるかもしれない。

それに、自分でモデルを走らせて、結果が見られるのはうれしいものである。僕も学部の授業を教えていたときに、ソローモデルに基づく経済成長のpathをExcelで計算させて、パラメーターを変えると様々な国の経済成長のpathが再現できることを学生に体験させたが、彼らがモデルに親しむのに役に立った気がする。

では、何がまずいか。Dynareで解ける狭義のDSGEモデルは、一般均衡モデルの中の、dynamicなモデルの、そのまた一部分だけである。最初からかなり小さい部分に特化してしまうと、何を考えるにしてもそのフレームワームにとらわれてしまい、発想が小さくなるかもしれない。あるいは、何を考えるにしてもきちんとしたベースとなるモデルがあるのは逆にいいことなのかもしれない。「see the data (or the world) through the lens of a model」 という能力は、しばしば優れた研究者を表すために使われるが、応用範囲は狭いかもしれないが使いやすいモデルに特化してそのモデルで何でも考える癖を身につけるのは、その訓練になるのかもしれない。

それに、個人的には、あまりモデルの推定にエネルギーを注ぎすぎるのはどうかなぁという気がする。誰が言ったか忘れてしまったが、「推定で大切なのは1にidentification、2にidentification、3にidentification」である。パラメーターの推定なんてのは、identification strategyがしっかりしていれば、モデルをcalibrateしてもそんなにおかしなことにはならないことが多い。このことはRios-Rull et al.による2012年のJMEペーパー"Methods versus Substance: Measuring the Effects of Technology Shocks"でより丁寧に示された点である。彼らは、identification strategyが同じであれば、calibrateしようがestimatesしようがパラメータの値は同じようなものとなり、その結果、モデルから得られる結果もあまり変わらないことを示した。identificationがよくわかんなければ結局「garbage-in, garbage-out」になるだけである。もちろん、identifyしづらい2つの効果があって、その効果の相対的な重要度を計算したいといった場合には高度な推定の技術が役に立つんだろうけれど、最初のうちは、パラメーターの推定に時間を割くよりは、面白いチャンネルを備えたモデルの開発し、重要なパラメータはどうやってidentifyできるか考えながらcalibrateする方が個人的には力になると思う。

それに、何も考えずに均衡の条件をDynareに突っ込むよりは、 いろいろな方法を用いて自分でコードを書いたほうが(少なくとも最初のうちは)勉強になるとも思う。

取りとめがなくいなってしまったのでこの辺でやめておく。

Wolf on Two Mistakes

Martin WolfがBen Bernankeは2つのミスを犯したと述べている。一つ目は、Great Moderation(1980年代半ばから2008年の間の、緩やかな景気循環が達成された時期)を賞賛し、よりよい金融政策が経済の安定の達成において重要な貢献をしたかもしれないと述べたことである。二つ目は、サブプライムローン危機が経済に与える影響を過小評価したことである。

二つ目については、多くの経済学者と同じく、たぶんミスと呼んでもいいだろう。このミスの反省の上に、マクロ経済学では金融セクターとマクロ経済の関係がずっとhot issueになり続けている。では、一つ目はどうだろうか?Great Moderationがどのくらいが優れた金融政策のよるもので、どのくらいが幸運によるものかについて皆が合意する結果は出ていないと思うが、2008年以降に何が起ころうと、2008年までの経済の安定を悪く言う理由はない気がする。

もちろん、Taylor Ruleのようなルールに従った金融政策運営が、危機を引き起こすきっかけを作るというのであれば問題があるだろうが、そのような理論は聞いたことがない。2008年以降のサブプライムローンの焦げ付きに始まる金融危機が、いわゆる古典的なBank Run(サブプライムローンを多く保有していた金融機関の信用性の低下に基づく取り付け騒ぎ)だといえるのであれば、経済が再び安定的な状況に戻れば、2008年以前のような世界に戻ることは十分考えられる。今後は、金融機関がバランスシートの外でおかしなことをしていたらすぐに感知できる体制を整え、資産価格(住宅価格も含む)が「上がりすぎている」と皆が合意できるときには、景気が悪影響を受けるとしても、金融を引き締め方向に持っていく、事をするだけである。

金融危機から5年たった今も、金融セクターが経済全体に与える影響を研究することが盛んに行われているが、2008年の5年前に、金融セクターがここまで重要なものとなるとは予想がつかなかったように、次のhot issueはぜんぜん違うものではないかと思う。