Geldpolitik in einem sich wandelnden Umfeld Rede anlässlich der gemeinsamen Konferenz der Banque de France und der Deutschen Bundesbank „Monetary Policy Challenges“

21.06.2018 | Paris | Jens Weidmann EN

1 Einleitung

Meine sehr verehrten Damen und Herren,

ich freue mich sehr, heute auf dieser gemeinsam von der Banque de France und der Deutschen Bundesbank organisierten Konferenz zum Thema geldpolitische Herausforderungen sprechen zu dürfen. Diese gemeinsame Konferenz hat inzwischen Tradition. Sie wird alle zwei bis drei Jahre im Wechsel von Frankreich und Deutschland ausgerichtet.

Zunächst möchte ich sowohl dem Programmkomittee – bestehend aus Herrn Emmanuel Farhi von der Universität Harvard, Herrn Emanuel Mönch von der Deutschen Bundesbank und Herrn Benoît Mojon von der Banque de France – für die hervorragende Auswahl der Beiträge danken. Mein besonderer Dank gilt auch unserem Gastgeber, Gouverneur Villeroy de Galhau, für die Bereitstellung der wundervollen Räumlichkeiten, den herzlichen Empfang und die ausgezeichnete Organisation durch die Banque de France.

Bemerkenswert ist auch die Uneigennützigkeit, die die Banque de France bei Terminierung der heutigen Veranstaltung auf den 21. Juni bewiesen hat – schließlich wäre es durchaus verständlich, wenn viele unserer französischen Kollegen lieber das WM-Spiel Frankreich gegen Peru verfolgen würden als unsere nachmittägliche Podiumsdiskussion.

Doch der 21. Juni ist auch für die Deutschen und die Bundesbank ein besonderer Tag. Vor genau 70 Jahren wurde die Deutsche Mark in der damaligen Trizone eingeführt, also in den drei nach dem Zweiten Weltkrieg von Frankreich, dem Vereinigten Königreich und den Vereinigten Staaten besetzten Zonen, aus denen ein Jahr später Westdeutschland hervorging.

Seit jener Zeit, in der ein Großteil Europas noch vom Krieg verwüstet war, sind wir in der Tat weit gekommen.

Die deutsch-französische Aussöhnung, die sich in den folgenden Jahrzehnten vollzog und schließlich in einer engen Freundschaft mündete, gilt zu Recht als eine der großen Errungenschaften der europäischen Geschichte und als Katalysator für die europäische Integration.

Ereignisse wie das heutige zeugen von diesem Prozess – sowie von der Überzeugung, dass wir, wenn wir im Geiste der Offenheit zusammenarbeiten, eine weitaus bessere Chance haben, die Herausforderungen zu bewältigen, denen wir gemeinsam gegenüberstehen.

Dies gilt zweifelsohne auch für die Geldpolitik nach der Finanz- und Wirtschaftskrise – und zwar sowohl was ihre Rolle als auch was ihre Durchführung betrifft.

Vor etwa 2.500 Jahren fasste der griechische Philosoph Heraklit von Ephesus ein Grundkonzept des Lebens und der Welt, in der wir leben, prägnant in nur zwei Worten zusammen: πάντα ῥεῖ (panta rhei) – alles fließt.

Und Benjamin Franklin tat im Jahr 1789 eher augenzwinkernd kund: „Nichts in dieser Welt ist sicher, außer der Tod und die Steuern.“

Heute wird es jedoch weder um den Tod noch um Steuern gehen. Stattdessen möchte ich auf einige Aspekte des Wandels zu sprechen kommen und erörtern, wie Ökonomen und Geldpolitiker mit Veränderungen umgehen. Wie Sie sehen werden, zieht sich das Thema Wandel wie ein roter Faden durch diese Konferenz.

Die fortgeschrittenen Volkswirtschaften durchlebten ab den 1980er-Jahren eine Phase bemerkenswerter wirtschaftlicher Stabilität. Die Volatilität der Inflation und des Produktionswachstums verringerte sich dermaßen, dass diese Zeit sogar als Ära der „großen Mäßigung“ bekannt wurde.[1]

Um diese Zeit verbreitete sich auch das Konzept der Inflationssteuerung in der Geldpolitik. Zentralbanken verpflichteten sich zur Eindämmung der Inflation – häufig auf einen Wert von etwa 2 % – und schafften es dadurch in vielen Fällen, die Inflationserwartungen der Bevölkerung zu verankern und kurzfristige Wirtschaftsschwankungen erfolgreich zu meistern. Neukeynesianische Modelle legten die Vermutung nahe, dass zwischen Inflation und Produktion eine Art „himmlische Koinzidenz“[2] bestand – dass sich also durch eine Stabilisierung der Inflation auch Produktionsschwankungen minimieren ließen.

Das war wahrlich eine gesegnete Ära, und man hegte die Hoffnung, dass sie lediglich den Ausgangspunkt für viele weitere Jahre der Stabilität markieren würde. Einige Ökonomen wagten gar zu postulieren, dass sich der Konjunkturzyklus womöglich überlebt habe.[3]

Rückblickend scheint es durchaus verständlich, dass man damals annahm, in der Geldpolitik sei damit vielleicht das „Ende der Geschichte“ erreicht. Doch auch in der Volkswirtschaft sind große Hoffnungen scheinbar häufig ein Indiz dafür, dass sich das Blatt sehr bald überraschend zum Schlechten wenden wird.

Wie wir alle wissen, endete diese wirtschaftlich ruhige Phase mit dem, was wir heute als „große Rezession“ bezeichnen. Seither werden einige der Überzeugungen, die dem geldpolitischen Handlungsrahmen der Vorkrisenära zugrunde lagen, unweigerlich in Frage gestellt.

So war man sich vor der Krise einig, dass die Geldpolitik zur Stabilisierung der Verbraucherpreisinflation ausschließlich auf die kurzfristigen Zinssätze abstellen sollte. Man war der Auffassung, dass die Identifizierung von Finanzmarktblasen teuer und ineffizient sei und sich der Beitrag der Geldpolitik zur Finanzstabilität auf die Schadensbehebung nach dem Platzen der Blase beschränken sollte.

Heute wird indes diskutiert, ob es nicht besser wäre, gegenzusteuern statt hinterher aufzuräumen. Sollten Zentralbanken die Geldpolitik auch aktiv einsetzen, um das Entstehen von Vermögenspreisblasen zu verhindern? Sollten sie proaktiv gegensteuern, selbst wenn im Hinblick auf das Inflationsziel an sich kein Handeln erforderlich wäre? Oder sollten sie sich weiterhin darauf beschränken, im Nachhinein etwaige Schäden zu beseitigen?

Eine weitere Frage betrifft die Phillips-Kurve. Mithilfe der äußerst akkommodierenden Geldpolitik haben sich die Produktion und die Beschäftigung von dem gravierenden Konjunktureinbruch erholt. Doch der Inflationsdruck ist nun schon lange Zeit moderat, obwohl sich an den Arbeitsmärkten inzwischen eine Verknappung abzeichnet. Bedeutet dies, dass der strukturelle Zusammenhang zwischen Produktion und Inflation, den wir als gegeben erachteten, inzwischen keinen Bestand mehr hat? Mit diesem Thema befasste sich die Konferenz in Sintra ausführlicher, die gestern zu Ende ging.

Auf der heutigen Konferenz, vor allem im ersten und dritten Vortragsblock, wird es um andere Fragen gehen, die im Zuge der Krise in den Blickpunkt gerückt sind: Um Veränderungen der Realwirtschaft, etwa der Marktstrukturen, die auch Folgen für die Allokationseffizienz und die Geldpolitik haben können, sowie um eine Neueinschätzung in Bezug auf die optimale Inflationsrate.

Im weiteren Verlauf meiner Rede werde ich auf einige dieser Themen sowie auf die Entscheidung des EZB-Rats in der vergangenen Woche eingehen.

2 Unternehmensmargen und makroökonomische Anpassung

Im heutigen ersten Vortragsblock geht es um einen längerfristigen Trend, den Ökonomen wie auch Geldpolitiker in den vergangenen Jahren womöglich übersehen haben – nämlich den Anstieg der Kursaufschläge von US-Unternehmen in den vergangenen Jahrzehnten.

David Dorn hat bereits darauf hingewiesen, dass die steigenden Unternehmensmargen zumindest teilweise mit dem zunehmenden Anteil von Superstar-Firmen in den USA zusammenhängen könnten.[4] Da die Globalisierung und der technische Fortschritt in erster Linie den produktivsten Unternehmen jeder Branche zugutekommen, nehmen die Konzentration an den Produktmärkten, die Marktmacht und damit auch die Unternehmensmargen tendenziell zu.

Das Wochenmagazin The Economist hat in einem kürzlich erschienen Artikel argumentiert, dass US-amerikanische Technologie-Giganten eine „Todeszone“ um sich herum geschaffen hätten. Dort ist zu lesen: „Sobald ein junges Unternehmen den Markt betritt, kann es sehr schwierig sein, zu überleben. Technologie-Giganten versuchen, Startups zu vernichten, indem sie sie kopieren oder frühzeitig aufkaufen, um die Bedrohung auszuschalten.“[5]

Solch ein aggressives Verhalten kann zu monopolbedingten Wettbewerbsverzerrungen führen, die die Allokation der Ressourcen innerhalb der Volkswirtschaft beeinträchtigen. Wie wichtig es ist, die Allokationseffizienz zu steigern, wurde heute bereits von David Baqaee erörtert.[6] In seinem gemeinsam mit Emmanuel Farhi verfassten Beitrag kommt er zu dem Schluss, dass sich die totale Faktorproduktivität um bis zu 20 % steigern ließe, wenn es gelänge, Kursaufschläge durch monopolbedingte Verzerrungen auszuschalten. Dies verdeutlicht, dass Stellhebel wie die Wettbewerbspolitik für die wirtschaftlichen Ergebnisse eine wichtige Rolle spielen.

Thomas Philippon wird Ihnen darlegen, dass die EU-Märkte inzwischen wettbewerbsintensiver sind als die US-Märkte.[7] Ausgehend von Daten der OECD kommt er zusammen mit seinem Co-Autor Germán Gutiérrez zu dem Ergebnis, dass sich die europäischen Märkte heute aufgrund einer verbesserten Kartellpolitik und Produktmarktregulierung durch eine geringere Konzentration und niedrigere Markteintrittsbarrieren auszeichnen als ihre Pendants in den Vereinigten Staaten.

Es gibt noch weitere Hinweise darauf, dass sich Europa und die USA in Bezug auf die Unternehmensmargen unterscheiden. In einer Analyse der Bundesbank, die im Monatsbericht vom Dezember 2017 veröffentlicht wurde, wurden sektorale Daten für ausgewählte europäische Länder – darunter Deutschland, Frankreich und Italien – genauer unter die Lupe genommen.[8] Dabei wurden keine Belege für einen langfristigen Anstieg der Kursaufschläge gefunden. Einige Schätzungen deuteten sogar auf einen Rückgang hin.

Während sich also viele Studien – aus unterschiedlichen Gründen, darunter die Verfügbarkeit geeigneter, qualitativ hochwertiger Daten – vor allem auf die USA konzentrieren, treffen nicht zwangsläufig alle Schlussfolgerungen auch auf andere Volkswirtschaften zu. Daher ist es unerlässlich und auch erhellend, ähnliche Analysen für andere Länder durchzuführen und die Daten bereitzustellen, die dazu benötigt werden.

Können wir also angesichts der oben erwähnten Ergebnisse behaupten, dass in der EU alles im Lot ist, was den Wettbewerb und den effizienten Ressourceneinsatz betrifft?

Erstens sind die Zugangsbeschränkungen zwar an den meisten Gütermärkten sehr niedrig, doch an den Dienstleistungsmärkten ist dies nicht unbedingt der Fall.

Zweitens hat sich die Lage zwar in Bezug auf die Kartellpolitik und den Marktzugang verbessert, doch dafür scheint es in der EU gegenwärtig eine andere Quelle potenzieller Fehlallokationen zu geben, die mit dem Bankensystem zusammenhängt.

Bei Banken ohne tragfähiges Geschäftsmodell, die zudem größere Bestände an notleidenden Krediten in ihren Büchern führen, besteht ein höheres Risiko, dass sie ihre Mittel nicht optimal einsetzen.

Solche Banken führen notleidende Kredite von Bestandskunden in der Regel fort, um potenzielle finanzielle Verluste zu umgehen. Häufig vergeben sie dadurch aber im weiteren Verlauf weniger neue Kredite an andere Kunden. Somit verbleiben die Finanzierungsmittel bei weniger produktiven Firmen, statt in Richtung innovativerer Unternehmen gelenkt zu werden.

Demnach begünstigen schwache Banken tendenziell schwache Unternehmen. Das hat eine ineffiziente Verteilung von Finanzierungsmitteln zur Folge, was die Innovationsfähigkeit und Dynamik einer Volkswirtschaft dämpfen kann.

Diesen Zusammenhang hat Ricardo Caballero mit weiteren Autoren im Rahmen einer Untersuchung zu den Erfahrungen Japans ab den 1990er-Jahren hervorgehoben.[9] In Europa stellt sich die Lage indes nicht ganz so eindeutig dar. Untersuchungen der EZB allerdings liefern Belege dafür, dass der Zusammenhang in den Peripherieländern des Euroraums Bestand hat.[10]

Studien der OECD bestätigen, dass in einigen EU-Staaten ein nicht zu vernachlässigender Anteil der Unternehmen als „Zombie-Unternehmen“ klassifiziert werden kann.[11] So wurden im Jahr 2013 in Griechenland 28 %, in Italien 19 % und in Spanien 16 % der Kapitalressourcen in Unternehmen gesteckt, die nicht in der Lage waren, ihre Kapitalkosten zu decken.

Die Ökonomen Fabiano Schivardi, Enrico Sette and Guido Tabellini haben gezeigt, wie der Zustand des Bankensystems die Kapitalallokation beeinflusst.[12] Sie schätzen, dass die Fehlallokation von Krediten das jährliche BIP-Wachstum in Italien im Zeitraum von 2008 bis 2013 um 0,2 bis 0,35 Prozentpunkte verringerte.

Wodurch lässt sich die Kapitalallokation verbessern? Forschungsergebnisse legen die Vermutung nahe, dass effektive Sanierungs- und Abwicklungsregimes eine umsichtige Kreditvergabe der Banken begünstigen und somit das Wirtschaftswachstum fördern.[13]

Zwar wurden bereits Fortschritte bei der Rückführung der Bestände an notleidenden Krediten in den Bilanzen der Banken des Euroraums erzielt, aber es sind weitere Bemühungen vonnöten, um dieses Problem schnellstmöglich in den Griff zu bekommen.

In den Ländern, die nur einen geringen Bestand an notleidenden Krediten aufweisen, wäre es außerdem hilfreich, den Bedenken hinsichtlich der Risiken entgegenzuwirken, die gegebenenfalls bei der Einführung eines europäischen Einlagensicherungssystems geschultert werden müssten.

Die wichtigste Erkenntnis aus dem heutigen ersten Vortragsblock dürfte sein, dass wir an Stellhebeln wie der Wettbewerbspolitik ansetzen müssen, um die Allokationseffizienz zu steigern. Dies steht mit dem im Einklang, was der EZB-Rat seit Jahren immer wieder betont, nämlich dass strukturelle Maßnahmen unerlässlich sind, um die Wirtschaft wieder auf einen höheren Wachstumspfad zu bringen.

Die jüngsten Ergebnisse zu den Unternehmensmargen können auch wichtige Implikationen für die Inflation haben. Hier kann es jedoch sinnvoll sein, zwischen längerfristigen und zyklischen Aspekten zu unterscheiden.

Wenn sich die Kursaufschläge auf US-Unternehmen tatsächlich bereits über einen langen Zeitraum erhöht haben, dann müssten sie ceteris paribus einen Aufwärtsdruck auf die Preise ausgeübt haben. So wird uns Jan Eeckhout nachher möglicherweise erörtern, dass sich die Inflationsrate in den USA im Zeitraum von 1980 bis 2014 vor dem Hintergrund eines Anstiegs der durchschnittlichen Unternehmensmargen um etwa 1 Prozentpunkt pro Jahr erhöhte.[14]

Ohne diesen Effekt wäre die Inflation in den vergangenen Jahren sogar noch merklich niedriger ausgefallen. Allerdings ließe sich dann noch schwerer erklären, weshalb die Inflation trotz der Verknappung am US-Arbeitsmarkt moderat bleibt.

Indessen liefert die bereits erwähnte Bundesbankstudie Belege für eine prozyklische Entwicklung der Kursaufschläge in den Ländern Europas. Vor allem in den Krisenjahren scheint die schwache gesamtwirtschaftliche Nachfrage die Gewinnspannen gedämpft zu haben.

Im Umkehrschluss könnten die Unternehmensmargen wieder steigen, wenn sich der Konjunkturaufschwung fortsetzt. Eine solche Normalisierung könnte den Preisauftrieb in den europäischen Ländern zeitweise verstärken.

Insgesamt ist festzuhalten, dass eine genauere Betrachtung der Marktstrukturen Aufschluss über die strukturellen Bestimmungsgrößen der Inflation geben kann. Doch zumindest nach den heutigen Vorträgen zu urteilen, liefern sie keine Antwort darauf, warum der Preisauftrieb über einen so langen Zeitraum so verhalten geblieben ist.

3 Die neue Normalität in der Geldpolitik

In den vergangenen Jahren war das gesamtwirtschaftliche Umfeld durch eine moderate Teuerung und niedrige Zinsen gekennzeichnet. In den Vereinigten Staaten blieben die Zinssätze sieben Jahre lang in der Nähe der Nullzinsgrenze. Derzeit beläuft sich der Zielkorridor des Zinssatzes für Tagesgeld in den USA auf 1,75 % bis 2 %. Im Euroraum liegt der Zinssatz für die Einlagefazilität seit Mitte 2012 bei 0 % oder sogar darunter, und es wird einige Zeit dauern, bis wir dieses Niveau wieder überschreiten.

Verantwortlich für die lang anhaltende Phase extrem niedriger Zinsen war zum großen Teil die Stärke der Rezession während der Krise. Einige Beobachter fürchten jedoch, dass die Wirtschaft zu einer neuen Normalität gefunden hat, die auf einen langfristigen Zinsrückgang hindeutet.

Sollte dies der Fall sein, könnte das die Aufgabe der Zentralbank, für Preisstabilität zu sorgen, erschweren, denn damit erhöht sich die Wahrscheinlichkeit, dass die Geldpolitik an die effektive Zinsuntergrenze stößt.

Zur Eindämmung dieses Risikos bietet die Wirtschaftstheorie verschiedene Ansätze: Bei einer Preisniveausteuerung oder einer Steuerung des nominalen BIP wäre eine tiefergreifende konzeptionelle Änderung der geldpolitischen Strategie durch Einführung eines Elements der Autokorrektur erforderlich. Die Inflationserwartungen würden nach einer Phase außergewöhnlich niedriger Teuerungsraten automatisch für einige Zeit ansteigen.

Eine konventionellere Lösung bestünde in der dauerhaften Anhebung des Inflationsziels, um den verlorenen Handlungsspielraum wieder wettzumachen. Im heutigen dritten Vortragsblock wird sich Jordi Galí mit der Wechselwirkung zwischen der optimalen Inflationsrate und dem natürlichen Zinssatz befassen.

Er und seine Co-Autoren haben versucht, Kosten und Nutzen eines höheren Inflationsziels zu beziffern, wenn die Gefahr besteht, dass die Geldpolitik die Zinsuntergrenze erreicht.[15] Offenkundig gibt es einen Zielkonflikt zwischen den Wohlfahrtskosten der Inflation und den Kosten einer Zielverfehlung an der Zinsuntergrenze.

Im Zusammenhang mit diesem geldpolitischen Zielkonflikt gibt es allerdings ein unterschwelliges Problem, das ich gerne ansprechen möchte, weil es in der politischen Debatte häufig vernachlässigt wird: Je höher das Inflationsziel festgelegt wird, desto vorausschauender reagieren die Unternehmen. Im Falle einer höheren Trendinflation wird ein Unternehmen bei Preisanpassungen einen höheren Preis festsetzen, weil es damit rechnet, dass der relative Preis durch die Trendinflation geschmälert wird.

Infolgedessen verlieren die aktuellen Grenzkosten und somit auch die Produktionslücke im Verhältnis an Bedeutung. Wenn also eine Zentralbank ihr Inflationsziel erhöht, dann flacht sich die (kurzfristige) neukeynesianische Phillips-Kurve ab, und die Inflation reagiert weniger sensibel auf Veränderungen der laufenden Produktion. Oder anders ausgedrückt: Bei einer bestimmten Veränderung der Inflationsrate muss die Zentralbank ihren Leitzins entsprechend stärker anpassen und verliert damit einen Teil des zusätzlichen Handlungsspielraums, den sie durch das höhere Inflationsziel gewonnen hat. Die Relevanz dieses Zielkonflikts hängt von den Annahmen ab, die in Bezug auf das Preissetzungsverhalten zugrunde gelegt werden.

Das optimale Inflationsziel für den Euroraum liegt laut Jordi Galís Modell bei 1,5 %. Bei Berücksichtigung von Parameterunsicherheiten erhöht sich dieser Wert auf 2,2 %. Und jeder Rückgang des natürlichen Zinssatzes um einen Prozentpunkt sollte zu einem Anstieg des Inflationsziels um 0,9 Prozentpunkte führen.

Beiträge wie der von Jordi Galí sind meiner Ansicht nach deshalb besonders hilfreich, weil sie einen praktikablen Rahmen liefern, um die unterschiedlichen Zielkonflikte des geldpolitischen Entscheidungsprozesses gegeneinander abzuwägen. Wie bei allen Modellen wird auch bei Galí von gewissen Aspekten abstrahiert, um sich auf die Wechselwirkung einiger bestimmter Variablen konzentrieren zu können. Ich bin allerdings der Meinung, dass einige der nicht im Modell berücksichtigten Aspekte die Gesamtbewertung des Nutzens und der Kosten eines höheren Inflationsziels erheblich verschieben könnten.

Das Risiko einer Entankerung der Inflationserwartungen scheint mir in diesem Zusammenhang besonders wichtig zu sein. Ben Bernanke hat es einmal so formuliert: „Wenn wir auf 4 % hoch gehen und das auch entsprechend kommunizieren würden, verlören wir einen Großteil […] unserer hart erarbeiteten Glaubwürdigkeit, denn die Menschen würden denken: Wenn sie auf 4 % gehen, warum sollten sie dann nicht auch weiter auf 6 % gehen? Es wäre sehr schwierig, die Erwartungen bei 4 % zu deckeln.“[16]

Wie Sie in unserem aktuellen Monatsbericht nachlesen können, der Anfang dieser Woche erschienen ist, lässt sich Bernankes Behauptung im Rahmen eines prototypischen neukeynesianischen Modells mit adaptivem Lern-Ansatz und einer Zentralbank, deren Reaktion einer einfachen Taylor-Regel folgt, untermauern. Hier zeigen die Ergebnisse, dass ein höheres Inflationsziel die Erreichung eines stabilen Gleichgewichts erschwert.

Eine Untersuchung von Klaus Adam und Henning Weber kommt außerdem zu dem Schluss, dass die optimale Inflationsrate auf Unternehmensebene in den Vereinigten Staaten im Laufe der Zeit gesunken ist; dies wird Ihnen Klaus Adam morgen näher erläutern.[17] Andere Studien, etwa von Coibion und Gorodnichenko,[18] belegen, dass der Rückgang der US-Trendinflation in den 1980er-Jahren für die anschließende Stabilisierung der Inflation und der Inflationserwartungen in der Ära der großen Mäßigung von entscheidender Bedeutung war.

Die Festlegung eines höheren Inflationsziels könnte solche Stabilisierungserfolge gefährden. Aus diesen und ähnlichen Gründen bin ich der Überzeugung, dass unser Inflationsziel für das Eurogebiet von unter, aber nahe 2 % auch weiterhin angemessen ist.

4 Aktuelle Herausforderungen für die Geldpolitik

Wie ich bereits zu Beginn meiner Rede dargelegt habe, ist es seit einiger Zeit schwierig, diese Zielmarke zu erreichen. Aber ich bin überzeugt davon, dass wir es letztlich schaffen werden.

Zum einen ist der Aufschwung im Euroraum nach wie vor breit angelegt und dürfte sich erwartungsgemäß fortsetzen, wenngleich etwas höhere Abwärtsrisiken bestehen. Zum anderen wird der Preisdruck den aktuellen Projektionen des Eurosystems zufolge aufgrund einer weiter steigenden Gesamtkapazitätsauslastung wieder anziehen. Die Binneninflation dürfte stetig steigen – beispielsweise rechnet man damit, dass sich die Jahreswachstumsrate des HVPI ohne Energie und Nahrungsmittel von 1,1 % im laufenden Jahr auf 1,9 % im Jahr 2020 erhöhen wird. Unter der Annahme eines buckelförmigen Profils der Energiepreise dürfte die Gesamtinflation einen flachen Verlauf aufweisen und von 2018 bis 2020 bei 1,7 % liegen. Aber auch dieser Wert wäre im Groben mit unserer Definition von mittelfristiger Preisstabilität vereinbar.

Im Übrigen stimmt auch die Berücksichtigung von Wohnraum im HVPI zuversichtlich, dass sich die Inflation auf einem nachhaltigen Anpassungspfad in Richtung ihrer Zielvorgabe befindet: Im HVPI werden nämlich – im Gegensatz etwa zum VPI in den USA – nur Mieten berücksichtigt, nicht aber die Kosten von selbst genutztem Wohneigentum.

Langfristig unterscheiden sich Verbraucherpreisindizes mit und ohne Berücksichtigung von selbst genutztem Wohneigentum zwar kaum, doch zeitweise sind erhebliche Unterschiede zu beobachten. Im Euro-Währungsgebiet liegen die Inflationsmaße, die die Kosten von selbst genutztem Wohneigentum enthalten, seit einigen Jahren etwas über der offiziellen HVPI-Teuerungsrate. Daniel Gros hat dieses Gefälle vor kurzem in einer Analyse im Auftrag des Europäischen Parlaments hervorgehoben und damit im Grunde frühere Berechnungen von EZB-Experten bestätigt.[19]

Lassen Sie mich eines klarstellen: Natürlich ist das kein Aufruf zum Rosinenpicken bei der Wahl der Inflationsmaße. Das wäre ein todsicherer Weg, die Glaubwürdigkeit der Zentralbank zu gefährden.

Aber das Gefälle zwischen den verschiedenen Inflationsmaßen ist ein weiterer Aspekt, der uns noch zuversichtlicher stimmen sollte, dass wir auf dem richtigen Weg sind. Es stützt die Einschätzung des EZB-Rats, dass der Anstieg der Inflation nun solide genug ist, um eine Beendigung des Nettoerwerbs von Vermögenswerten zum Jahresende 2018 anzuzeigen. Und es ist ein weiteres Beispiel für die Unterschiede, die zwischen den Vereinigten Staaten und dem Euroraum existieren und von den Ökonomen bedacht werden müssen.

Auch wenn keine Nettoankäufe mehr durchgeführt werden, wird der geldpolitische Kurs angesichts des beträchtlichen Bestands an Wertpapieren in der Bilanz des Eurosystems, der weiter stattfindenden Neuanlage von Erlösen aus fällig werdenden Papieren und dem Signal des EZB-Rats, die Leitzinsen mindestens bis zum Sommer 2019 auf ihrem aktuellen Niveau zu halten, sehr akkommodierend bleiben.

Die Nettokäufe zu beenden, ist voraussichtlich nur der erste Schritt auf einem mehrjährigen Weg einer graduellen geldpolitischen Normalisierung. Und genau deshalb war es so wichtig, den Stein nun tatsächlich ins Rollen zu bringen.

5 Fazit

Meine sehr verehrten Damen und Herren,

um auf Benjamin Franklin zurückzukommen: Ich bin der festen Überzeugung, dass es im Leben neben dem Tod und den Steuern noch andere Dinge gibt, die sicher sind. Dazu zählt auch die Fähigkeit der Geldpolitik, Preisstabilität zu gewährleisten.

Und was Heraklit betrifft, so sagte dieser einst auch: „Man kann nicht zweimal in denselben Fluss steigen, denn andere Wasser strömen nach.“ Das ist jedoch nicht nihilistisch zu verstehen, denn trotz der Veränderung bleibt der Fluss immer noch ein Fluss.

In Bezug auf die Geldpolitik und die Herausforderungen, denen sie sich stellen muss, bedeutet dies, dass sich die Welt zwar in einem permanenten Wandel befindet, zugleich aber eine gewisse Kontinuität gegeben ist.

Ich freue mich nun auf inspirierende Denkanstöße, die sowohl diesen Wandel als auch die Kontinuität einfangen, und wünsche uns allen eine spannende Konferenz.

In diesem Sinne freue ich mich nun auf die Lösungsvorschläge unserer hochgeschätzten Konferenzteilnehmer.

Fußnoten:

  1. B. S. Bernanke (2004), The Great Moderation.
  2. Blanchard, O. und J. Galí (2005), Real wage rigidities and the New Keynesian Model, NBER Working Paper, Nr. 11806.
  3. Weber, S. (1997), The End of the Business Cycle?, in: Foreign Affairs, Bd. 76, S. 65-82.
  4. Autor, D., D. Dorn, L. F. Katz, C. Patterson und J. Van Reenen (2017), The Fall of the Labor Share and the Rise of Superstar Firms, NBER Working Paper, Nr. 23396.
  5. The Economist, American tech giants are making life tough for startups, 2. Juni 2018.
  6. Baqaee, D. R. und E. Farhi (2017), Productivity and Misallocation in General Equilibrium, NBER Working Paper, Nr. 24007.
  7. Gutiérrez, G. und T. Philippon (2018), How EU Markets Became More Competitive Than US Markets: A Study of Institutional Drift, NBER Working Paper, Nr. 24700.
  8. Deutsche Bundesbank (2017), Unternehmensmargen in ausgewählten europäischen Ländern, Monatsbericht, Dezember 2017, S. 53-68.
  9. Caballero, R. J., T. Hoshi und A. K. Kashyap (2008), Zombie Lending and Depressed Restructuring in Japan, in: American Economic Review, Bd. 98 (5), S. 1943-77.
  10. Storz, M., M. Koetter, R. Setzer und A. Westphal (2017), Do We Want These Two to Tango? On zombie firms and stressed banks in Europe, ECB Working Paper, Nr. 2104.
  11. McGowan, M. A., D. Andrews und V. Millot (2017), The Walking Dead? Zombie firms and productivity performance in OECD countries, OECD Working Paper, Nr. 1372.
  12. Schivardi, F., E. Sette und G. Tabellini (2017), Credit Misallocation During the European Financial Crisis, CEPR Discussion Paper, Nr. 11901.
  13. Korte, J., Catharsis - The Real Effects of Bank Insolvency and Resolution, Deutsche Bundesbank Discussion Paper, Nr. 21/2013.
  14. De Loecker, J. und J. Eeckhout (2017), The Rise of Market Power and the Macroeconomic Implications, NBER Working Paper, Nr. 23687.
  15. Andrade, P., J. Galí, H. Le Bihan und J. Matheron (2018), The Optimal Inflation Target and the Natural Rate of Interest, NBER Working Paper, Nr. 24328.
  16. B. S. Bernanke in einer Anhörung vor dem Gemeinsamen Wirtschaftsausschuss des US-amerikanischen Kongresses am 14. April 2010.
  17. Adam, K. und H. Weber, Optimal Trend Inflation, Deutsche Bundesbank Discussion Paper, Nr. 25/2017.
  18. Coibion, O. und Y. Gorodnichenko, Monetary Policy, Trend Inflation, and the Great Moderation: An Alternative Interpretation, in: American Economic Review, Bd. 101 (1), 2011, S. 341-370.
  19. Gros, D. (2018), Persistent low inflation in the euro area: Mismeasurement rather than a cause for concern?, In-depth analysis for the ECON committee, sowie EZB, Bewertung des Einflusses von Wohnungskosten auf die HVPI-Inflation, Kasten 4, Wirtschaftsbericht 8/2016.