3rd Frankfurt Conference on Financial Market Policy: "Digitizing Finance"

6 November 2015, Goethe University Frankfurt

Programm
Foto-Gallerie

Am 6. November fand die dritte Frankfurt Conference on Financial Market Policy zum Thema “Digitizing Finance” an der Goethe-Universität Frankfurt statt. Führende Vertreter aus Aufsicht, Wissenschaft und Industrie diskutierten, wie die Digitalisierung des Bankengeschäfts und „Big Data“ den Finanzsektor verändern werden. Die jährliche Frankfurt Conference wird von Hans-Helmut Kotz, einem der Programmdirektoren des SAFE Policy Centers, organisiert.

Raimond Maurer, Dekan des Fachbereichs Wirtschaftswissenschaften der Goethe-Universität, und Jan Pieter Krahnen, Direktor des Forschungszentrums SAFE, eröffneten die Konferenz und hießen die Redner und Zuhörer willkommen. Peter Praet (Foto), Mitglied des Vorstands der Europäischen Zentralbank (EZB), hielt die anschließende Keynote Address. Praet erklärte, dass sich Zentralbanker, insbesondere in der Eurozone, derzeit einem hohen Maß an Unsicherheit gegenüber sehen, wenn sie geldpolitische Entscheidungen treffen. Es bestehe Unsicherheit hinsichtlich der aktuellen wirtschaftlichen Lage, der Wirtschaftsstruktur und in Bezug auf die Transmissionsmechanismen von geldpolitischen Instrumenten. Außerdem wüssten Zentralbanker nicht genau, wie die Wirtschaftsteilnehmer ihre Erwartungen über die zukünftigen wirtschaftlichen Entwicklungen und wirtschaftspolitischen Maßnahmen bildeten. Die EZB werte daher Daten aus, die Aufschluss über die mittel- bis langfristigen Effekte und Entwicklungen geben, um eine Orientierung für ihre Entscheidungen zu haben. Praet argumentierte, dass bessere institutionelle Rahmenbedingungen oder verbesserte Mechanismen in der Eurozone helfen könnten, mit möglichen Fehlentscheidungen der Zentralbank umzugehen.

High volume, highly unstructured data

Auf dem ersten der drei anschließenden Panels wurde das Thema “High volume, highly unstructured data – finance’s new background conditions” diskutiert. Das Panel wurde von Hans-Helmut Kotz moderiert. Loriana Pelizzon, SAFE Professor für Law and Finance an der Goethe-Universität, erläuterte, dass derzeit riesige Datenmengen produziert würden – zum Beispiel im Zusammenhang mit dem Hochfrequenzhandel –, die jedoch nur schwer gespeichert, bereinigt und analysiert werden könnten. Pelizzon wies außerdem darauf hin, dass klassische ökonometrische Ansätze nicht geeignet seien, um diese Datenmengen auszuwerten. Stefan Mittnik von der LMU München stimmte Pelizzon zu, dass man neue empirische Methoden brauche, um „Big Data“ zu analysieren. „Big Data“ biete große Möglichkeiten, wenn die Daten gezielt und richtig eingesetzt würden. Er warnte allerdings auch, dass koordinierte regulatorische Maßnahmen, die auf denselben Datenmengen basieren, dazu führen könnten, dass Wirtschaftsteilnehmer ihr Handeln angleichen. Dies könne die Finanzstabilität gefährden, da sich Risiken dann nicht länger gleichmäßig auf verschiedene Volkswirtschaften verteilten.

Von links: S. Mittnik, P. Robinson, H.-H. Kotz, A. Schubert, L. Pelizzon

Paul Robinson, Leiter der Abteilung „Advanced Analytics“ bei der Bank of England (BoE), erklärte, wie sich die Strategie der BoE und deren methodischer Ansatz zur Verwendung von Daten verändert hat seit Mark Carney im Jahr 2013 neuer Gouverneur der Notenbank wurde. Die BoE habe die Abteilung „Advanced Analytics“ als zentrale Informationseinheit der Bank aufgebaut. Die Einheit verwende mikroökonometrische Querschnittsanalysen, Netzwerktheorie und Agent-Based Modeling, um die verfügbaren Datenmengen, die unter anderem auch aus Social-Media-Kanälen gewonnen würden, auszuwerten. So habe die BoE zum Beispiel die Entwicklungen im Vorfeld des Referendums über die Unabhängigkeit Schottlands im Jahr 2014 beobachten müssen, da ein Votum für die Unabhängigkeit eine Gefahr für die Finanzstabilität hätte darstellen können. Um die Wahrscheinlichkeiten eines bestimmten Wahlausgangs einschätzen zu können, habe die BoE Daten von Social-Media-Kanälen ausgewertet. Die Herausforderung bei der Auswertung von „Big Data“ ist laut Robinson, dass es bei „Big Data“ erst einmal nur um Datengewinnung gehe. Gute strukturelle Erklärungen für empirische Ergebnisse würden sich nicht selbstverständlich aus der Analyse ergeben. Vielmehr müsse die Auswertung um strukturelle Interpretationen ergänzt werden, die sich mit einem guten Verständnis für politische Prozesse herleiten ließen.

Aurel Schubert, Generaldirektor der Abteilung Statistik bei der EZB, betonte, dass Daten und gute statistische Auswertungen die Grundlage für geldpolitische Entscheidungen bildeten und dazu dienten, die Auswirkungen dieser Entscheidungen zu beurteilen. Dadurch würde das Vertrauen in die Entscheidungen der Zentralbank untermauert. Vor der Finanzkrise habe sich die EZB mehr auf die Analyse von aggregierten Daten aus der Eurozone konzentriert, so Schubert. Allerdings habe sich gezeigt, dass die Euro-Länder sehr heterogen seien, sodass die EZB heute verstärkt Einzel- statt aggregierter Daten verwende. Schubert forderte zudem, dass die in der Eurozone gesammelten Daten stärker standardisiert werden sollten, um die Auswertung zu vereinfachen.

FinTechs – Disrupting and performance enhancing?

Das zweite Panel “FinTechs— Disrupting and performance enhancing?”, das von Jürgen Schaaf von der EZB moderiert wurde, drehte sich um die Frage, ob FinTechs eine Ergänzung zu Banken darstellen oder eher als Wettbewerber anzusehen sind. Andreas Hackethal, Professor für Finanzen an der Goethe-Universität und am Forschungszentrum SAFE, wies darauf hin, dass FinTechs in der Regel keine neuen Finanzdienstleitungen anbieten würden, sondern vielmehr die gleichen Produkte auf eine völlig neue Art und Weise und in einem anderen institutionellen Rahmen zur Verfügung stellten. Ihm zufolge seien FinTechs kleine, technologieorientierte, explorative und stark fokussierte Unternehmen. Sie stünden in Konkurrenz zu Banken, da sie neue und günstigere Wege anböten, Geld anzulegen und Risiken zu managen.

Von links: A. Wieandt, J. Schmalzl, J. Schaaf, A. Isakov,  A. Hackethal

Joachim Schmalzl von der Sparkasse KölnBonn und designiertes Mitglied des Vorstands des Deutschen Sparkassen- und Giroverbands (DSGV) sagte, dass die Sparkassen es in der Vergangenheit versäumt hätten, eine Innovationskultur aufzubauen.Um mit den neuen technologischen Entwicklungen Schritt zu halten, würden sie deshalb eher die Strategie verfolgen, die technischen Lösungen von FinTechs zu kopieren. Er bezeichnete FinTechs als „externe Innovations-Labs“ für Sparkassen. Schmalzl ist der Ansicht, dass nicht FinTechs eine Gefahr für etablierte Banken darstellten, sondern die Bankenregulierung, wenn sie keine gleichen Bedingungen für Banken und FinTechs schaffe und FinTechs so einen Wettbewerbsvorteil gewähre. Axel Wieandt, Honorarprofessor an der WHU, erwartet eine Restrukturierung der Finanzmärkte. Er glaubt, dass die überlebenden FinTechs und die überlebenden Banken in einem System von Kooperationen und Partnerschaften koexistieren werden. Das Überleben der Institute hänge davon ab, wie sie mit den Herausforderungen, die sich durch die FinTechs ergeben, umgingen. Alexander Isakov von Pallantius unterstrich, dass es für Unternehmen in Zukunft nicht nur entscheidend sein werde, Zugang zu Daten zu erhalten, sondern auch zu verstehen, wie diese Daten sinnvoll verwendet werden können, um Produkte für Verbraucher, Regierungen und Unternehmen zu verbessern.

Banking on big data – different policy issues?

Das dritte Panel “Banking on big data – different policy issues?” wurde von Günter Beck, Professor für Europäische Makroökonomie an der Universität Siegen und Forschungsprofessor am SAFE Policy Center, moderiert. In der Diskussionsrunde sagte Andreas Dombret von der Deutschen Bundesbank, dass FinTechs Banken nicht überflüssig machen, sich die Zusammensetzung des Bankensektors jedoch in Zukunft verändern werde. Dombret geht davon aus, dass Banken in Bezug auf ihre Profite und Sichtbarkeit unter Druck geraten werden. Gleichzeitig sieht er aber auch viele Kooperationsmöglichkeiten für Banken und FinTechs. Andreas Wolf von McKinsey stimmte Dombret zu, dass Banken und FinTechs in Zukunft mehr und mehr kooperieren und voneinander lernen werden. Allerdings seien sie auch Konkurrenten, zum Beispiel wenn es um die Einstellung neuer Mitarbeiter gehe, die in der Lage sind, die neuen Technologien anzuwenden.

Von links: T. Weimar, S. Rüping, G. Beck, A. Wolf, A. Dombret

Theodor Weimer von der HypoVereinsbank – UniCredit Bank AG ergänzte, dass Banken sich derzeit großen Herausforderungen gegenüber sähen – vermutlich den größten seit Jahrzehnten. Diese Herausforderungen würden sich nicht nur aus der zunehmenden Digitalisierung ergeben, sondern auch aus immer höheren Regulierungsanforderungen, den niedrigen Zinsen und dem Verlust an Vertrauen in das Bankgeschäft. Ein klarer Vorteil von etablierten Banken gegenüber Start-ups sei ihr umfangreiches Wissen über das anspruchsvolle Bankgeschäft. FinTechs beunruhigten ihn daher nicht. Eine Gefahr stellt ihm zufolge eher die Digitalisierung dar, die großen Unternehmen wie Google oder Amazon die Möglichkeit eröffnet, Finanzdienstleistungen anzubieten. Stefan Rüping vom Fraunhofer-Institut IAIS sagte, dass sich die Finanz- und Versicherungsindustrie Beobachtungen seines Instituts zufolge immer mehr für „Big Data“ interessiere. Allerdings warnte er vor den Schwierigkeiten, personenbezogene Daten in diesen hoch regulierten Märkten zu verwenden aufgrund der strengen Datenschutzregeln.