Less Reviewing and More Progress

Yaleのビジネススクール(SOM)の教授で、Journal of Financial MarketsやReview of Financial Studies(RFS)のエディターを計13年勤めたMatthew Spiegelが、自らの経験とデータをもとに、ジャーナルが論文を審査するプロセスをどのようにすべきかについて述べたノート(原文はここ)についてメモする。まずは1980年と2010年でJournal of Finance(ファイナンスのトップジャーナル)に掲載される論文がどのように変わったかというデータを見てみよう(著者はRFSのデータも載せているが、基本的な傾向は同じなのでJFだけについて述べる)
  1. 引用論文数の平均が1980年の15.7本から2010年には48.1本に増えた(中央値は13から46に増えた)。
  2. イントロの長さの平均値が1980年の481単語から2010年には1673単語に増えた(中央値は408単語から1665単語に増えた)。
  3. 全体のページ数の平均値が1980年の11.4ページから2010年には34.3ページに増えた(中央値は11ページから34ページに増えた)。
  4. 著者数の平均が1.6人から2.3人に増えた(中央値は2で変わらず)。
では、論文の審査プロセスがどのようにおかしくなって、どのようにすべきか、について彼が述べていることを箇条書きにしていく。
  1.  どこかに掲載された論文を他の論文に送ってみたら掲載されるだろうか?他の雑誌に掲載されたバージョンがそのまま掲載される確率はゼロだろう。そもそもリジェクトされる可能性も高いだろう。我々は、論文を「good enough(掲載する水準には達している)」と判断する能力を失い、すべての論文について達成しようのない完璧さを求めすぎている。
  2. 何回もリバイズのプロセスを経たところで、論文の致命的な欠点が発見されることはまれだし、論文で使われたコードやデータを加工したプロセスを再現するなんてレフリーには不可能だ。そもそも、著者にはそれを隠すインセンティブもある。延々と続くリバイズのプロセスが論文をよくしているとは思えない。
  3. 論文の電子化が進んで引用数を簡単に計算することができるようになったせいで、皆がどの(誰の)論文が引用されているかについて非常に注意を払うようになった。しかも、引用しすぎることのペナルティはないから、その結果、なんでも引用しようという風潮になった。平均の引用数は30年で3倍になった。
  4. しかも、レフェリーは引用されるだけでなく、自分の論文がほめられるのを喜ぶ。その結果、イントロで多くの論文について述べることが多くなり、イントロの長さは30年前に比べて3倍以上になった。更に最近は、イントロのほかに、関連論文レビューというセクションも設けられることが多くなった!ジャーナルは関連論文のレビューにページ数を割くことに反対すべきである。
  5. レフェリーが細かい頑健性チェックなどを延々と求めることで、論文の長さも3倍以上になった。しかし、このことが、最近の論文をより影響力があるものにしたり深いものにしているとは思えない。
  6. 論文の掲載までにかかる時間が長くなる一方、テニュア審査の際には、論文が何人で書かれようとその論文のカウント数が割られることはなぜかないため、一つの論文の著者数も増加した。中央値は30年間2人で変わっていないが、平均は1.6から2.3に、50%増加した。
  7. これらのトレンドによって、ファイナンスが以前より速いスピードで成長するようになったか?そうではないと思う。どちらかといえば、これらの変化によって、学問の進化のスピードが遅くなったと思う。現在のレビュープロセスによって論文が間違っているリスクを軽減しているという利点もあるかもしれないが、そもそも大多数の論文はすぐに忘れ去られるものであり、「正しさ」についてそれほど注意しなくてもよい。影響力のある論文であれば、レフェリーが何もしなくても、コードはチェックされ、結果は再現され、論文の結果が別の面からテストされたりしてゆく。
  8. 自分は何をしてきたか? 自分は基本的には、レフェリーの意見をもとに改定された論文がレフェリーの要求を満たしていると考えれば、レフェリーには再び送らないようにしてきた。また、年に1本はサブミットされた論文をそのまま掲載するように努力してきた。
  9. あなたが将来エディターになったら、レフェリーの提案のうちこれは無視していいと言ってあげるべきだ。そして、レフェリーが書きたい内容ではなく、著者が書きたい内容を書いた論文を掲載すべきだ。自分の経験によると、そういう姿勢で臨めば、自然とよい論文が送られてくるようになる。そしていいと思った論文は大胆に採用すべきだ。最終的には、ジャーナルの目的は数は少なくても影響力のある論文を掲載するのが目的なのだから。
 個人的にもAppendixを入れて100ページとかある論文はうんざりする。自分が比較的よく知っているマクロでいえば、JMEはいろいろ批判されているが、ここに挙げたような路線に一番近づいていると思う。実際、JMEの論文はコンパクトに書かれているので、内容が同じであれば、他のジャーナルより眺める気になる。

Technological Innovations and Debt Hangovers

もう何度も同じことを言っているけれども、もう少し短い(そして簡単にかける)ポストを増やすことで、更新を維持しようと思う。

今回は、Cao and L'Huillierの新しいペーパー(Technological Revolutions and Debt Hangovers: Is There a Link?)について簡単に触れる。このペーパーのモチベーションになっているのは、アメリカのGreat Depression(大恐慌)期、最近のGreat Recession期、そして日本の1990年代の不況期に共通しているのは、景気が後退する前に技術革新が活発な時期があり、民間の債務が増加したということである。このような動きをDSGEモデルで再現できるかやってみたというのがこのペーパーである。

具体的には、以下のようなメカニズムが想定されている。経済は技術革新が活発になることによって長期的な経済成長率が上がることもあるが、成長率が一時的に上昇することもあり、経済主体(主に消費者の話なので以下では消費者と呼ぶ)は、経済成長が起こっているときに、これは長期的な経済成長率が上がったからなのか、短期的に経済が好調なだけなのかを識別できない。よって、消費者は、高い経済成長が続けば、経済成長率が長期的に高まったという確信をだんだん深めていくことになる(専門的な説明のしかたをすればカルマンフィルターを使って長期的な経済成長率に関する確信の度合いをアップデートしていく)。消費者は経済成長率についてゆっくりと学んでいくので、経済成長率の変化に対する消費者の反応はゆっくりとしたものになる。

このようなモデルにおいて、まずは大規模な技術革新が起きて長期的な経済成長率が高まったとしよう。消費者はそのことについてゆっくりと学んでいき、だんだん消費を増やし、債務を増やしていく(長期的な成長率が高いとわかっていれば将来の所得を前倒しして消費するのが最適だからだ)。日本で言えばこれが1980年代前半までである。1980年代の後半に経済成長が鈍化しても、消費者はそのことに気づくのに時間がかかるので、消費は簡単には減らず、債務はしばらく蓄積され続ける。その後、消費者が経済成長の鈍化に気づくと、消費はだんだんと下がっていく。債務残高は経済成長の鈍化に気づいた時点でずいぶん積み上がっており、債務の削減には時間がかかる。

ちなみに、著者らは、Debt Hangover(債務の過剰蓄積)が 景気後退を引き起こす可能性について言及しているが、このモデルでは、債務から景気循環へのフォードバックは全然(あるいはほとんど)ないように見える。

ペーパーでは主にGreat Recession近辺のアメリカの例が挙げられているので、その結果をちょっと見てみよう。
上のグラフが、Great Recessionあたりのアメリカの例を使って推定されたモデルの挙動を示している。(黒の)点線は実際の長期的な経済成長率である。Great Recessionの始まるずいぶん前から経済成長のスピードは落ちていることが見て取れる。それに対して(青の)実線は、消費者が考えている長期的な経済成長率を示している。まずは、実践は点線とずいぶん違う動きをしている(実践の方がずいぶんスムーズ)ことがわかるであろう。消費者は実際の長期的な経済成長率の動きをすぐには認識できないからである。下のグラフは、経済予測の専門家による6-10年先のGDP成長率の予測を示している。形状は青の実線と近いことがわかるであろう。つまり、モデルにおける消費者が考える長期的な経済成長率と実際に予測されている長期的な経済成長率の動きが似ているということで、著者らは彼らのモデルを支持する証拠として取り上げている。
このようなモデルでは、消費の動きは経済成長率の動きに比べて非常にスムーズなものになる。上は、日本の経済生産性を民間消費で割ったものである。1990年ごろまでは生産性が消費に比べてずいぶん高いものの、1995年以降は、消費の方が生産性に比べて高くなっている。2000年を過ぎたあたりから、経済成長のスピードは回復しつつあると見ることもできる(もちろんこの後で震災などがあるのだが)。

著者らは、Great Recession期の金融政策などを分析するためにこのフレームワークにゼロ金利を加えるようなことも言及しているが、学習も入ったモデルが比較的簡単に解ける(その上ショックの推定も行っている)のはモデルを線形化して解いているからなので、非線形モデルで同じような分析を行うのはとても難しいだろう。

Checklist before Criticizing Economists

これで通算100個目のポストだ。始めたときには、毎週1-2つポストできればといっていたが、毎週1つポストしたとしても2011年10月には100個目に到達していなかればならないので、ずいぶん遅いということになる。まぁ、やめていないだけでも、上出来としておこう。

記念すべき100個めなので、冗談半分に、twitterとかでマクロ経済学(者)を批判する前に考えてほしいリストを作ることにする。とりあえず思いつくものを書くけれども、後で追加する(あるいは引っ込める)可能性もある。

以下、ありがちな、マクロ経済学(者) への批判と、それに対する答えを順に書いていく。

1.「現代のマクロ経済学は難しい数学を使いすぎている。」
僕らが使っている数学なんて大したものではない。この批判は、足し算しか知らない人が、掛け算のような難しい数学を使ってけしからんといっているようなものだ。現代のマクロ経済学で使われている数学なんて1年くらい勉強すれば誰でも「使える」レベルには到達できるくらいのものである。

2.「マクロ経済学は、代表的個人のような非現実的なモデルに基づいている。」
他の学問と同じように、マクロ経済学も比較的分析のしやすい状況のもとにおける分析が基本となっている。物の動きを分析するときに摩擦のない状況の分析から始めるのと同じことだ。IS-LMだって基本的には代表的個人のモデルだ。但し、このことは、代表的個人しか考えていないことを意味しているのではない。さまざまなケースにおいて、さまざまな異なる家計や企業が存在するモデルでもマクロ全体で見れば代表的個人が想定されているモデルを同じ、あるいはかなり近い挙動を示すことがわかっている。更に、さまざまな異なる家計や企業が存在するモデルは最先端のマクロ経済学において活発に行われている。もし誰かがマクロ経済学は代表的個人しか存在しないようなことを言っているのであれば、(1)その人は最先端のマクロを理解していない、(2)代表的個人を仮定しなくてもおそらくは通用する結果について述べている、(3)話している相手、あるいは読者のレベルを勘案して難しい話題を避けている、のいずれかだと思う。

3.「マクロ経済学は、完備市場のような非現実的なモデルに基づいている」
基本的なレスポンスは2と同じだ。最先端の話なので、話している人がわかっていないか、難しい話を避けているからこういう批判を受けてしまうのであろう。1930年代以降Great Depressionに近いレベルの景気後退が先進国では起こらなかったことから、先進国ではこのような大きな景気後退は起こらないだろうと考えてしまったのは経済学者の間違いだったと思う。但し、2008年以降は、金融市場の摩擦を考えたモデルが更に発展している。また、金融市場でrun(取り付け騒ぎ)が起こった場合には、中央銀行が積極的に介入することでrunを封じ込めるのが効果的だということは経験からわかっていたので、Great RecessionはGreat Depression並みの景気後退にならなかったともいえる。

4.「マクロ経済学者がテレビでわけのわからないことを言っている」
「マクロ経済学者」でもいろいろいるので、テレビに出るような人の発言を取り上げてマクロ経済学の批判をされても困る。Dr. Philの発言をもとに医者を批判するようなものだ。

5.「マクロ経済学のモデルではすべての情報を持ち”合理的”に判断を下すという非現実的な経済主体が仮定されている」
この批判に対する答えも基本的には2と同じだ。完全な情報を持っていて、スタンダードな効用関数を最大化する経済主体が一番分析しやすいからそれが基本モデルとなっている。但し、意思決定者がすべての情報を持っていなかったり、情報にノイズがあるので情報をきちんと認識できなかったり、スタンダードな効用関数を最大化するわけではない経済主体が存在するモデルはだんだん開発されてきている。

6.「マクロ経済学では労働市場がクリアされるので失業が存在しない」
これに対するレスポンスも2と同じだ。 失業の分析がメインではない基本モデルでは捨象されるのでそう思われるのかもしれない。さまざまな種類の摩擦によって失業が生み出されるモデルはいくつも存在している。

7.「マクロ経済学では経済主体が将来について完全にわかっているという非現実的なモデルを使っている」
将来の政策や経済環境の変化が現在の行動にどのような影響を及ぼすかをモデルを使って分析するためには、モデルの中の経済主体が将来の政策や経済環境についてどのような予測を持っているかについての仮定が決定的に重要になる。ではような仮定が「よい」のか?仮定を変えると結果はいくらでも変わってしまうので、結果が受け入れられるためには、何等かのディシプリンが必要になる。完全予見(経済主体は将来の政策や均衡における経済環境をすべて予見している)という仮定は一番恣意性が少ないのでシミュレーションを行う際のベースとなる仮定として使われている。但し、完全予見でない場合の分析もしばしば代替的シナリオとして分析される。

8.「ここ数ヶ月で新たに実施されたマクロ経済政策の大成功を予測できなかったマクロ経済学者は役立たずだ」
日本経済に関して明るいニュースが多いのはうれしいことだが、まだデータポイントが少ないので大成功と呼ぶまでもうちょっと待ってみよう。年率換算の実質GDP成長率が3.5%を越えたことは過去20年に何度もあったわけだし、Nikkei 225が最近のように上昇しては落ちることだってよくある話だ。政策を実施する前に、どのようなチャンネルを想定していて、そのチャンネルの効果はどのように測ることができるかをモデルを使って示してくれれば、データをモデルを通して見ることができて、もう少し客観的な評価がしやすくなるのだが、日本はそういうことをするカルチャーではないようだ。


9.「現代のマクロ経済学でつかわれるダイナミクスは役に立たない」
株価のような資産価格は将来予測されるリターンに大きく影響される。また、将来の政策金利にコミットするForward Guidanceのような政策も、経済主体が将来の金利動向を予測して現在の行動を決めるからこそ効果がある。また、消費税が増税される際の駆け込み需要もダイナミックなモデルだからこそ分析できるものである。日本の消費が低迷しているのは、現在の財政状況に鑑みて、消費者が将来の増税を予測していることも十分考えられる。もちろんダイナミクスが大きな役割を果たしていないチャンネルもいろいろあるが、基本モデルとしては、上で挙げたような効果をきちんと分析できるモデルが望ましいので、基本モデルはダイナミックなのである。

5/20 失礼かもしれないのでちょっと修正。