On Sustainability of Large Public Debt

というわけで(エントリ数を稼ぐために)いつもと違うタイプのエントリを。

ギリシャのsovereign debt crisisやアメリカの政府債務の急速な増加を受けて、政府の債務のsustainabilityに関する議論が活発に行われている。先日もTime MagazineでJeff Sachsがわかりやすい解説をおこなっていた(近々カバーするかもしれない)し、今日は、FTのLEXコラムで、日本の政府債務に関するコラムが書かれていたようだ。

但し、どの債務のレベルがunsustainableかという質問に答えるのはとても難しい。とりあえず考え付くのは以下の3つである。

(1)おそらく、unsustainableになった際には、急速にcrisisに落ち込むと思う。じわじわ予兆が出てきて、ああまずいぞ、何かやらなくては、と考える時間はないと思う。気づいたときにはもう遅い類の問題だと思う。

(2)では、経済学の理論を使って、どの債務のレベルまでがsustainableかについて信頼できる議論ができるか?難しい。なぜなら、現在のような発達した金融システムの中で日本のようなハードカレンシーを持つ先進国がデフォルトした例はない(か、とても少ない、誰か教えてほしい)からである。モデルを作ることはできるが、どの政府債務のレベルがunsustainableかを導くためには何かモデルをカリブレートするためのアンカーとなる例が必要なのだけれどもその例がない(あるいは少ない)。近い例では、最初にあげたギリシャか1997年の韓国、ロシア、あたりであろうが、これらの国で起こったデフォルトを元に日本やアメリカの政府債務のunsustainabilityを議論できるか、僕には自信がない。逆に言えば、モデルを微調整することでどのようなunsustainableな債務のレベルも生み出せると思う。

(3)(1)とも関連するが、デフォルトが起こるとしたら、self-fulfillingな要素がある可能性がある。そうだとすると、Unsustainableな政府債務のレベルがわかっていたとしても、そのレベルに到達する前にrunが起こる可能性がある。

唯一言えることがあるとすれば、現在の日本のように債務を増やし続けていたら、いつかは破綻するということ位であろう。そして、債務の問題が深刻化する「兆し」が見えたら対策を考えようというマインドセットでは多分、実際に問題が起こったときには手遅れとなるで可能性が少なからずあると思う。現在の日本の状況は、目をつぶって、崖に向かって歩いているようなものである。しかも、困ったことに、多くの国民や政治家さえもが、崖があることすら認識していないように見える。

Inventory Cycle and Business Cycle

いつも同じ調子で始まるのだけれどなかなか書く時間が取れない。ブログを始めるときに書いたとおり、こういうのはとにかくペースを守って続けるのが大事なので、次回からは簡単かつ短めのものでも書こうかと思う。

景気変動(中期的なGDPの上下)には在庫投資の動きが大きく関わっている。例えば、現時点ではアメリカの2009年第4四半期の実質GDPは5.7%増えたことになっているが、支出面から見ると、在庫の変動(在庫投資)によって生み出されている部分が非常に大きい。2010年第1四半期は、在庫調整による上乗せ分が小さくなるので、他の支出部門の成長が活発にならない限り、GDPの成長率は鈍るのではないかということが、しばしばいわれている。一般的に、経済が不況に突入するときは在庫調整によってGDPの落ち込みがさらに拡大され、経済が不況から脱出するときには在庫調整によって逆にGDPの回復がさらに拡大されるといわれている。

数字を挙げると、St Louis FedのPigerが2005年に行った計算では、戦後1950年代から1980年代に至る景気循環の平均を取ると、不況(recession)のときのGDPの落ち込み具合の平均は2%、そのうち在庫調整によるものが1.4%、残りの項目の落ち込みによる部分が0.6%とのことである。Blinderは、「景気循環の大部分は在庫循環だ」といった。

但し、支出項目の変化からGDPの変化を捉えるのは、予測や現状の把握の役には立つが、スタンダードなマクロ経済学のアプローチではない。マクロ経済学にとって重要な問いは、(1)在庫調整の動きをうまく再現できるようにスタンダードなRBCを拡張できるか、というのがまず一つである。

さらに、The Great Moderationの時期には、次の2つの質問が注目を浴びていた。
(2)在庫調整のサイクルの振れ幅を小さくすることで、景気循環自体の振れ幅を小さくできるか?
(3)The Great Moderationの背後にあるのは、在庫管理がより効率的になって、在庫調整のサイクルが小さくなったからではないか?

実際、Pigerの計算によると、1991年と2001年の不況の際には、以前の不況時と違い、在庫調整はGDPの落ち込みを和らげる役割を果たしたように見えるのである。

今回カバーするKhan and Thomas (AER2007)は、RBCモデルを拡張して在庫調整のサイクルを再現することに成功したのがその主要な貢献である。つまり彼らは上の質問(1)に対して、「yes」と回答を出した。その上で、彼らは(2)と(3)にも回答を出した。

まずは、RBCの流儀にならって、在庫調整に関するStylized factsを彼らのペーパーから取り出して列記してみよう。
(a)在庫のうち2/3は中間財の在庫である。残りの1/3が最終財の在庫である。
(b)在庫投資の変動幅はとても大きい。在庫投資はマイナスの値をとりうるので簡単にlogをとって単位をなくすことができないが、coefficient of variationで考えると、GDPの変動幅の60倍である。
(c)HPフィルターを掛けた四半期のデータで見ると、GDPとの相関は正で0.67ととても高い。
(d)売り上げ(=GDP-在庫投資)との相関も正で高い(0.41)。

これらを生み出すのがそんなに簡単でないことを示すために、彼らのモデルとは違う、在庫投資に関するモデルを簡単に見てみよう。生産の調整にコストがかかるので生産量は大きく変えたくないとする。一方、最終財の需要(売り上げ)は景気とともに変動することとする。この場合、売り上げの変動幅は生産の変動幅より大きくなり、在庫は売り上げと生産の間を生めるために存在することとなる。但し、この場合、景気がよくなって、売り上げが増えると、生産は増えていかないので、在庫は減少していくこととなる。つまり、在庫は売り上げと負の相関を持ってしまう((d)と反する)のである。

ではモデルを簡単に見てみよう。彼らのモデルは次の3つの主体から構成される。
(i)消費者:最終財を消費あるいは貯蓄し、労働を供給する。
(ii)中間財企業:労働と資本を使って中間財を生産する。TFPショック(このモデルの景気循環を生み出す唯一のショック)は中間財の生産性に影響を与える。
(iii)最終財企業:労働と中間財を使って最終財を生産する。
このモデルのキーとなる仮定は、最終財企業は中間財の在庫を増やすときに、ある固定コストがかかるというものである。もし固定コストがかからなければ、最終財企業は毎期毎期、使うだけの中間財を購入して、生産すればよい。つまり、在庫は常にゼロになる。一方、在庫調整に固定コストがかかるとすると、最終財企業は在庫を増やす回数を減らす(ことによって固定コストを払う回数を減らす)のが最適な行動パターンとなる。特に、このモデルにおいては、在庫がある一定レベルsを下回ると在庫を積み増すという最適行動パターンが導き出される。一般的に、ある変数xがある下限値sと上限値Sの間に収まっているときは何もアクションをとらずに、その変数xがsを下回るかSを上回った時に何かアクションがとられる行動パターンを(S,s) policyと呼ぶ。この行動パターンはあるアクションをとる際に固定コストがかかる際にしばしば見られる。他の例としては、人を雇う時に固定コストがかかる時の企業の従業員数調整が上げられる。業績がある一定の範囲内に収まっているときには従業員数は調整されないが、業績(見通し)が大幅に改善あるいは悪化したときに初めて従業員数が調整されるという例である。

では、景気の改善(正のTFPショック)が起こったとしよう。モデルの中で何が起こるだろう?景気の改善を反映して消費者は消費を増やす。かつ消費が増えるということは最終財の売れ行きが上がるということなので、最終財の生産も増加する。中間財企業の生産性があがったことで中間財が安くなったことも最終財生産増加を後押しする。最終財の生産が増えると、中間財もより多く使われることとなるので、何もしなければ中間財在庫がどんどん減少してしまうので在庫を積み増す頻度が上がる。その上、TFPショックが長く続くとすると、将来にわたって好景気が続くことを見越して、最終財企業は在庫を積み増すときにその積み増し幅を大きくする。中間財が安いことも在庫の大幅な積み増しを促進する。そうすることによって将来すぐに在庫を積み増す際にかかるコストを削減できるからである。つまり、景気が改善すると(正のTFPショックが起こると)、在庫は大幅に増加し、最終財セールスも増加する、というわけである。

彼らはカリブレートしたモデルをシミュレートすることで、彼らのモデルが上で上げたstylized facts(a)-(d)をうまく再現できることを示した。特に、彼らのモデルは実際に観察される在庫投資の変動幅の2/3を再現できることを示した(なぜいつも2/3なんだろう)。

次に彼らは最初にあげた質問の(2)と(3)に答えを出した。まずは(2)である。彼らは、在庫積み増しの固定費用がゼロのモデル(在庫投資のないモデル)と在庫投資のあるモデルを比較して、GDPの変動幅がほとんど同じであることを示した。この結果は直感に反する。馬鹿らしい例ではあるが、部分均衡的なモデルで考えると、在庫部門の変動がなくなり、最終セールスの変動が影響を受けなければ、在庫部門の変動幅の分だけGDPの変動幅も小さくなるはずである。なぜこのことが起こらないか?在庫の変動がなくなれば、在庫を積み増したり減らしたりするときに一緒に大きく増減していた最終財部門の生産要素が今度は中間財の生産に使われることとなるので、その分中間財生産の変動幅が大きくなるからである。言い換えると、生産に使われる要素(労働、資本)の総量は変わらないので、最終財生産の変動が小さくなれば、その分中間財生産の変動が大きくなるだけなのである。一般均衡モデルを考えることが重要な質問に対する答えに重要な影響を与える好例である。

(3)に対する答えは、(2)に対する答えが出た時点で出たも同然なのであるが、彼らのモデルによると、在庫を微調整する技術が発達して(あるいは、コストが下がって)、在庫の変動幅が小さくなったところで、GDPの変動幅は変わらない。つまり、在庫管理技術の発達はThe Great Moderationの要因とはなりえない、のである。

今ひとつ直感的でない説明になってしまってちょっとな情けない。本当は在庫投資理論に関する一般論から入りたかったのだけれども、さらに長くなって、うまくまとめる自信がないので、別のエントリとして近いうちに書くことにしよう。

Output gap? We talking about output gap?

2月もなかなかいい頻度で更新できていない。後半にかけてペースをあげていかないと。とはいえ、比較的長いエントリをあまり考えずに書くので、あとで大幅に修正することになると思う。

今回はGDPギャップ(あるいはoutput gapとも呼ぶ)について書く。論文としてはJustiniano and Primiceri (WP2008)に触れながら話をする。このペーパーはまだワーキングペーパーで、かつ、先行する他のペーパーに比べて多大な貢献をしたとは考えにくいのだけれども、さまざまな主要な学会で発表する機会を得ているので、もしかしたらトップジャーナルに行くのかもしれない。

「GDPギャップ」とは何か。簡単に言うと「実際のGDP(actual GDP)」ー「潜在的GDP(potential GDP)」として計算できる。実際のGDPはデータとしてあるけれども、「潜在的GDP」というのはよくわからない概念である。一つの定義の仕方としては、経済が完全雇用を維持しているときに達成されるGDPといえる。完全雇用というのもあいまいな概念なのであいまいな概念を他のあいまいな概念で置き換えただけともいえる。他の定義の仕方としては、インフレ率を上げずに達成できる最大限のGDPともいえる。

どのように定義したところで、「潜在的GDP」なるものを、どのように定義、計測するかしだいでGDPギャップというものも決まってくることが容易にわかるだろう。いっておきたいのは、GDPギャップというものは非常にあいまいな概念だということである。

では、なぜこのようなものが重要なのか。古いケインジアンの議論によると、GDPギャップが正(つまり、実際のGDPが潜在的GDPを上回る)時には、経済が過熱気味なので、緊縮的な財政政策(増税、政府支出削減)あるいは金融政策(政策金利引き上げ)によって経済の熱を冷まし、GDPギャップが負のときは逆に拡張的な財政政策(減税、政府支出増加)あるいは金融政策(政策金利の引き下げ)によってGDPを潜在的レベルの近くに引き上げるべし、とされている。よって、GDPギャップがどの程度かというのは採用すべき財政政策、金融政策に大きな影響を与えるのである。

では、どうやって潜在的GDP(GDPギャップ)を測るか。以下の3つの方法がある。以下はMishkinによる2007年の学会におけるオープニングスピーチ(Estimating potential output)から借用している。

(1)実際のGDPを「スムーズ」にして、それを「潜在的GDP」と呼ぶアプローチ。簡単に言うと、実際のGDPのグラフで「平均的な線」を真ん中にひいてみればよい。もう少しsophisticatedなやり方をするなら、実際のGDPをHPフィルターなどのフィルターにかけ、トレンド部分だけ残すか、GDP成長率を前後10年のmoving averageとしてGDPを計算するなどすればよい。

(2)生産関数を使うアプローチ。例えば、1セクターモデルで、Cobb-Douglas生産関数を仮定して、平均的なTFPのトレンド、完全雇用レベルの推定値、平均的な総資本のトレンドを放り込むことで「潜在的GDP」を作り出す。アメリカでGDPギャップの話をする際には主にCBOが計算したGDPギャップが使われるが、CBOのアプローチは基本的にこれである。以下にCBOが計算した潜在的GDPとGDPギャップ(IMF等が計算したGDPギャップと比較されている)のグラフを転載する。




(3)DSGEモデルを使うアプローチ。

Justiniano and PrimiceriはスタンダードなDSGEモデルからGDPギャップを計算して、伝統的な(背後にモデルのない)GDPギャップと比較した論文である。なぜこの比較が重要か?DSGEモデルから導き出されたギャップと伝統的なギャップが大きく異なっているならば、例えば、伝統的な金融政策は間違っていたことになる。逆に、DSGEから導き出されたギャップが伝統的なギャップに近いのであれば、伝統的な金融政策はおおむね正しいといえる。しかも、モデルを使うことで、伝統的な金融政策はどのくらい「最適な」金融政策と異なっているか、どのように改善できるかなどを学ぶことができる。

Justiniano and Primiceriは実際何をやったか?まずは、標準的なDSGEモデルをアメリカのデータを使って推定し、モデルから導き出される(1)潜在的GDPと(2)自然GDPを計算し、これらを伝統的な手法で計算された潜在的GDP(例えばCBOの潜在的GDP)と比較した。主要な結論は以下の2つである。
1.モデルから導き出された潜在的GDPは非常にスムーズで、伝統的な手法で計算された潜在的GDPと非常に近い。
2.モデルから導き出された自然GDPは伝統的な手法で計算された潜在的GDPとぜんぜん違う。特に、自然GDPは実際のGDPより激しく振幅する。

まず説明しなければならないのは、「潜在的GDP」と「自然GDP」である。彼らの定義は以下の通りである。
1.潜在的GDPは、価格が伸縮的で、すべての市場が競争的な場合のGDP
2.自然GDPは、価格が伸縮的だけれども、市場は競争的でない場合のGDP
である。潜在的GDPというのは、効率的GDPと言い換えてもよい。Welfare Theoremが成り立つ状態のGDPである。それに対して、自然GDPは、価格の硬直性だけが改善された場合のGDPである。

なぜ、潜在的GDPはスムーズになるのか?簡単に言うと、潜在的GDPというのは、効率的なショックのみが働いている状態である。単純に言えば、TFPショックのみが働いているRBCモデルにおけるGDPを考えればよい。彼らは4種類のショックを入れており(TFP、価格マークアップ、賃金マークアップ、割引率)、彼らの推定によると、実際のGDPの変動のうちTFPショックによって生み出されている部分は大きくない。このような状況で、TFPショック以外のショックを取り除いてしまえば、GDPの変動は大きくないのは当たり前である。

では、なぜ、自然GDPの方は変動が大きいのか?ショックがすべて働いているけれども、価格と賃金が伸縮的な場合、何が起こるか?TFPショック以外で大きな効果を持っているのは賃金マークアップショックなので、これに注目してみよう。賃金が伸縮的な場合は労働時間の反応が大きくなる。賃金の硬直性がCalvo型で入っているので、それを取り除けば、すべての労働者が一斉にショックの影響を受けるので労働時間の賃金マークアップショックへの反応は大きくなる。加えて、推定された賃金マークアップショックの変動幅がとても大きいことが挙げられているが、僕には直感としてよくわからない。

彼らの主要なセールスポイントは、1、つまり、モデルから導き出された潜在的GDPが伝統的な方法で計算された潜在的GDPと近いことである。伝統的なギャップが好きな人に受けるという意味で売り込みやすい結果であるが、この結論には大きな問題点がある。DSGEモデルを使って潜在的GDPを計算することでより「客観的」な潜在的GDPが計算できることが期待されていたのだけれども、結局は、モデルの仮定に大きく依存してしまうことが明らかになったからである。まずは極端な例を考えてみよう。同じexerciseをスタンダードなRBCモデルを使って行うとどうなるか。スタンダードなRBCモデルでは潜在的GDPは実際のGDPに常に等しいので、GDPギャップは常にゼロとなる。ここまで極端な例を挙げなくても、他のペーパー(例えばLevin et al (NBER MA 2005))では、潜在的GDPは実際のGDPにとても近い、つまりギャップは非常に小さいという結果が出ている。Justiniano and Primiceriのモデルでは、efficient shockは基本的にはTFPショックしかないので、それ以外のショックを取り除いて潜在的GDPを計算するととてもスムーズなものができるが、もしTFPショック以外にefficient shock、つまり、潜在的GDPに影響を与えるショックがいろいろあるとすると、潜在的GDPがどのようなものになるかは、実際のGDPの変動のうちどの部分がeffieicnt shockによって生み出されているかに依存することになる。伝統的なGDPギャップ計算方法に内在する「主観性」を取り除くことが期待されたDSGEモデルベースのGDPギャップも結局主観性を取り除くことが難しいことがわかってきたというのが現在の状況だと思う。

最後に、最近の日本の状況についてだけれども、しばしば負のGDPギャップが大きいことが暗黙に仮定されているように見受けられる。適当に「平均的な」線を引いて潜在的GDPを導出すれば(あるいは、伝統的な方法でGDPギャップを計算すれば)もちろん負のGDPギャップはとても大きいのであるが、長期にわたって大きな負のGDPギャップを維持できるのか、よくわからない。モデルベースのGDPギャップを計算したら小さい値が出たとしても僕は驚かない。

Micro Pricing Facts and Sticky Information

前回の続きで、今回もKlenow and Willis (JME2007)について書く。

マイクロレベルの価格設定行動データの分析から得られた結果として、モノの価格は平均して6ヶ月に一度改定されていると前回書いた。カルボ価格設定を仮定した四半期が1期間のモデルで考えると、それぞれのモノの価格を決める企業はx=0.5の確率で価格改定をすることができることとなる。しかし、x=0.5ではモノの価格は頻繁に改定されすぎるので、モデルでは金融政策が弱い効果しか持たないことになることも前回書いた。

では、どうすればよいか。簡単な解決策は、企業が価格を改定するときには企業は必ずしも最近の情報に基づいて価格を改定しないと仮定すればよい。このような企業の価格改定行動を「合理的」(に見えるよう)にするために考案されたのが、Sticky information(SI)と、Rational Inattention(RI)である。SIはMankiw-Reisが開発した。モノの価格を決めるそれぞれの企業はカルボの妖精に頭を小突かれたときだけ最新の情報を収集する、という単純な仮定である。xに加えて、yという確率でWSJを読むと考えればよい。通常のカルボの妖精があらわれて価格改定することができたとしても、持っている情報は最新ではない場合、改定した価格は必ずしも最新の情報に基づいていないので、yが小さければ小さいほど金融政策の効果は大きくなるのである。もちろん、このアプローチは、アドホックな仮定を別のアドホックな仮定(しかも直接観察されないので前のものよりカリブレーションの際の自由度が高い)で置き換えただけなので、当然の発展として、yを内生化する(例えば、WSJを読むのにはコストがかかるので毎期毎期WSJを読んだりしない。いわゆるメニューコストの焼き直しである)方向に進んでいる。

RIはSimsが推し進めている。RIによると、人々は、いろいろな情報すべてに目を通しきれないので(Information Capacity Constraintと呼ばれる)どの情報により注意を払うか選択する。WSJは読むけど、限られた時間しかかないのでどこを読むか決めるのだ。重要な仮定は、より注意を払うほどその情報の精度が増す(情報のノイズが減少する)という点にある。そうすると、マクロの景気循環はマイクロレベルのショックの大きさに比べて小さい場合、各企業はマクロレベルの情報より自分の業界の情報により注意を払うこととなる。つまり、モノの価格を決める企業は「合理的に」マクロのデータの変化に注意を払わないこととなる。

どちらのアプローチも、エージェントがなぜ最新の情報を持たずに行動をするのかというのをモデル化しているという意味で、同じカテゴリーに含まれる。個人的には最初はどちらもRIと呼ばれていたような気がする(Mankiw-ReisのRIとSimsのRI)が間違っているかもしれない。今はSIとRIという呼び名が確立されている。SIはRIの簡略版と考えられていると思う。

ではKlenow-Willisに戻ろう。彼らのモデルは、SIとメニューコストを組み合わせたものである。各企業の持つ情報はyの確率でアップデートされる。各企業はいつでも価格改定ができるが、価格改定にはコストがかかるので(メニューコスト)、頻繁には価格改定はしない。更に、彼らは、各企業はそれぞれ固有の大きなショックにも直面しているので価格改定するときの幅はデータで見られるようにとても大きい。彼らのモデルは、(1)価格改定は比較的頻繁、(2)価格改定の幅は大きい、(3)価格改定の際には潜在的に利用可能なすべての情報が用いられているわけではない、というデータの特徴をモデルで再現することに成功した。

特に、彼らは、6000企業からなるモデルのシミュレーションとアメリカのデータを比較して、どちらにおいても、企業が価格を改定する際には、前回の価格改定以降に新たに利用可能になった情報だけでなく、前回の価格改定より前の情報も使われることを示した。

Micro Price Facts

今回はKlenow and Willis (JME2007)をベースに書く。とはいえ、ぜんぜん専門外なので(間違いも多々あるかもしれない)、この論文をだしに、最近注目を浴びている、マイクロデータを使った価格設定行動の分析という分野を概観する方に重点を置く。

経済学というと「お金」についての学問と取られることが多いが、「お金」は経済学においてとても厄介な存在である。まず、なぜ「お金」が保有されるのかについて、経済学者の間で意見が分かれる。金利もつかない(インフレによって事実上マイナスの金利がつくこともしばしば)あるいはより金利の高い貯蓄方法があるのになぜ多くの資産が「お金」という形態で保有されるのか、完全に答えが出ていない。

百歩譲って、実際「お金」は大量に保有されているのだから、理由は何であれ「お金」を保有することは認めるとしよう。すると、自然と、金融政策について考えたくなるのだが、その時に、次の難題に直面することになる。なぜマネーサプライの調整(名目金利の調整と解釈してもいい)が、実体経済に影響を与えるのかについて、経済学者の間で合意ができていないからだ(マネーサプライの変化が実体経済に影響を与える「標準的なモデル」が存在していないと言い換えてもよい)。簡単で雑な例で言うと、マネーサプライが突然10倍になったとしても、経済の中の全エージェントがいっせいに価格を10倍にすることができれば、マネーサプライの変化に伴う影響を抹殺できるからだ。言い方を変えれば、金融政策を考えるには、何らかの「摩擦」によって価格が柔軟に変更されない状況を設定する必要があるのだ(non-neutralityを作る他の方法もあるがここでは割愛する)。

では、どのような「摩擦」がよく使われているか?一番ポピュラーなのは、カルボ価格設定(Calvo pricing)と呼ばれるものである。Calvoが1983年の論文で最初に提案したのでこう呼ばれる。たくさんのスーパーがあるとしよう。各スーパーの店長は、毎四半期、ある一定の確率(xと呼んでおこう)でカルボの妖精(Calvo fairy)に頭をつつかれる(馬鹿らしい説明のしかたに聞こえるかもしれないが「カルボの妖精」というのは経済学者の間で普通に使われる。カルボの顔を考えると妖精という言葉をつかうのは気がひけるけれども慣例だからしょうがない)。頭をつつかれると、価格を改定するのである。カルボの妖精に頭をつつかれなければ価格は改定されないのである。これは非常に使いやすいのでポピュラーになった。たくさんのスーパーがあれば、全スーパーの中のある一定の割合xだけが毎月価格を改定するという形になるからである。他の言い方をするなら、さいころを振って1が出た人だけ価格が改定できると考えてもよい。

カルボ価格設定は使いやすいから幅広く使われている一方、問題の多い仮定である。特に重要な批判は、次の2つである。
(1)当然だけれども、ルーカス批判を逃れることができない。簡単な例で言うと、ハイパーインフレの国を考えてみればよい。ハイパーインフレが起こっても、価格を一定の周期でしか変更しないのは事実と反している。実際、インフレ率が上がると、価格改定の周期は短くなることが知られているが、カルボ価格設定はこういう事実を生み出せない。潜在的には問題があるかも知れないがインフレ率が低く安定している先進国の分析の際には、そんなに悪い仮定でもないという風に議論してカルボ価格設定を守ることももちろんできるが、このようにとても基本的なエージェントの行動を再現できない仮定を使いつつ金融政策の効果を測ったところで、結果がどれだけ信頼できるのかという批判が常にある。そもそも、xはパラメーターとして扱ってよい類のものではない。
(2)金融政策が実質経済に与える効果はとても持続的(息が長い)と考えられている。いろいろある中で一つ数字を挙げると、マネーサプライの変更がGDPに与える影響は約2年後に最大となるという結果もある。このような特性を持つモデルを作るには、価格が改定される頻度が低くなければならない。皆すぐに価格を改定すればマネーサプライ変更の効果はすぐに消えてしまうからだ。具体的な例で言うと、xの値が例えば20%位でないと現実に観察されるようなマネーサプライの持続的な影響は生み出せないようだ。x=0.2というのは、平均的に、各商品が1年3ヶ月(5四半期)に一回価格変更されるというものである。その一方、マイクロデータに基づく研究によると、ものの価格は、これもまたいろいろな数字があるが、平均して3-6ヶ月に一回は変更されると知られている。6ヶ月という数字を使うと、x=0.5である。つまり、マクロ的に都合のよいx(=0.2)とマイクロデータから得られるx(=0.5)は大きく値が違うのである。逆に、マイクロデータから得られたx=0.2を使うと、モデルの挙動はマネーの入っていないRBCのようになる。金融政策の効果はほとんどないというモデルとなるのである。

特に、マイクロデータを使って各商品レベルでの価格決定行動を分析するというのは、近年の流行の一つである。マイクロデータを使うというのはマクロのどの分野でも流行であるが、それに加えて、この研究分野が持つ金融政策に対するインプリケーションの大きさを考えあわせれば、当然のことであろう。Klenowはこの分野の草分けの一人である。

既に書きすぎてしまったので、Klenow and Willis (2007)の詳細は次回に回すとして、マイクロデータを使った価格設定行動の分析の結果を幾つか挙げておこう。
(1)価格変更の周期はものによってかなりの違いがあるが平均的には3-6ヶ月である。つまり、xは(マクロモデルで「現実的」とされるレベルより)大きい。
(2)価格変更される際の変更の幅はとても大きい。Klenow and Willisによると平均(mean)的な価格調整の大きさは12%である。インフレの分しか調整しないのであれば、毎回1-2%の調整しかされないはずであるから、インフレにあわせた調整以上のことが起こっている。マイクロレベルの動きがマクロレベルの動きより幅がずっと大きい(から、マクロレベルの数字だけ見ると重要なものを見落としている危険性がある)というのはいろいろなところで見られる。たとえば、マクロレベルの収入(GDP)の変動の大きさは個人レベルの収入の変動の大きさに比べればとても小さい。
(3)価格調整のやり方にはいろいろある。一般的な小さな価格調整のほかに、セールによる一時的な大幅下落とセール後の大幅回復、商品が刷新される際の価格変更、在庫一掃セールなどさまざまな形態がある。もしセール等に伴う価格調整がインフレと関係ないのであれば、セールに伴う価格調整は無視してもよいのだが、Klenow and Willisによると、セールに伴う価格調整の際にもインフレに対する調整も合わせて行われているようだ。
(4)価格改定の頻度、タイミングは経済状況によって異なる。インフレが激しいときに価格改定の頻度が上がるというのはその一例である。

Klenow and Willisは、上のようなfactsと整合的なモデルを作ったというのが貢献の一つである。重要なポイントは、価格は頻繁に改定されるのだけれども、インフレにあわせた調整は迅速にはされないという点にある。このために、いわゆるSticky informationというものを使うのであるが、その話はまた今度。