eBooks

Mikroökonomie, Wettbewerb und strategisches Verhalten

0329
2021
978-3-8385-5537-9
978-3-8252-5537-4
UTB 
Markus Thomas Münter

Wie konkurrieren Unternehmen, wie entscheiden Manager? Dieses Buch zeigt es Ihnen! Mikroökonomie ist spannend. Markus Thomas Münter erklärt strategische Entscheidungen mit anwendungsorientierter mikroökonomischer Theorie. Empirische Daten, viele Praxisbeispiele und verhaltensökonomische Erkenntnisse helfen, Strategieentwicklung und digitale Geschäftsmodelle besser zu verstehen - damit beim Start ins Berufsleben direkt die richtigen Entscheidungen getroffen werden.

<?page no="0"?> Markus Thomas Münter Mikroökonomie, Wettbewerb und strategisches Verhalten 2. Auflage <?page no="1"?> utb 4910 Eine Arbeitsgemeinschaft der Verlage Böhlau Verlag · Wien · Köln · Weimar Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Wilhelm Fink · Paderborn Narr Francke Attempto Verlag / expert verlag · Tübingen Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Ernst Reinhardt Verlag · München Ferdinand Schöningh · Paderborn transcript Verlag · Bielefeld Eugen Ulmer Verlag · Stuttgart UVK Verlag · München Vandenhoeck & Ruprecht · Göttingen Waxmann · Münster · New York wbv Publikation · Bielefeld Wochenschau Verlag · Frankfurt am Main <?page no="2"?> Dr. Markus Thomas Münter ist Professor für Volkswirtschaftslehre, insbesondere Mikroökonomie, an der htw saar. <?page no="3"?> Markus Thomas Münter Mikroökonomie, Wettbewerb und strategisches Verhalten 2., überarbeitete und erweiterte Auflage UVK Verlag · München <?page no="4"?> Umschlagabbildung: © alexbaumann · iStock Autorenfoto (S. 2): © privat Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. 2. Auflage 2021 1. Auflage 2018 © UVK Verlag 2021 - ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Internet: www.narr.de eMail: info@narr.de Einbandgestaltung: Atelier Reichert, Stuttgart CPI books GmbH, Leck utb-Nr. 4910 ISBN 978-3-8252-5537-4 (Print) ISBN 978-3-8385-5537-9 (ePDF) ISBN 978-3-8463-5537-4 (ePub) <?page no="5"?> Vorwort zur zweiten Auflage Erfreulicherweise wurde die erste Auflage von ‚Mikroökonomie, Wettbewerb und strategisches Verhalten‘ sehr gut im Markt aufgenommen. In der hier vorliegenden zweiten Auflage wurden einige Tippfehler sowie unklare Formulierungen behoben und kleinere Ergänzungen zur besseren Verständlichkeit eingefügt - Danke meinen Studierenden für hilfreiche Hinweise. Größere Anpassungen und Erweiterungen betreffen folgende Themen, die insbesondere aktuelle Fragen adressieren oder die Anwendung von mikroökonomischen Methoden in Management und Unternehmensberatung betreffen: In Kapitel 1 wurden die Vorteile von Märkten stärker herausgearbeitet und ein Blick auf Rationalität hinzugefügt, in Kapitel 2 wird in einer Case Study die Entwicklung der deutschen Musikindustrie entlang von Produktlebenszyklen gezeigt, in Kapitel 4 gibt es jetzt einen eigenen Abschnitt zu Unternehmensorganisation und Principal-Agent-Problemen sowie zu Unternehmensgründung, in Kapitel 7 ist das Unterkapitel zu Wettbewerbspolitik deutlich ausgeweitet und um Regulierung bei Marktversagen ergänzt, Kapitel 8 wurde um Auktionen sowie Dynamic und Personal Pricing erweitert, und in Kapitel 9 gibt es jetzt Beispiele zu gemischten Strategien. Ziel ist weiter, dass die mikroökonomischen Grundüberlegungen weiterhelfen, Dynamik in Märkten zu verstehen und da und dort vielleicht den Anstoß geben, einen tieferen und analytischeren Blick auf Unternehmensstrategie, Wettbewerb und Kundenverhalten zu entwickeln. Mein besonderer Dank gilt Franziska Müller von der Verbraucherzentrale Brandenburg für die Daten zu Dynamic Pricing, Georg Sobbe vom Bundesverband Musikindustrie für die Daten zu Umsätzen in der deutschen Musikindustrie, Carolin Freude für das Stichwortverzeichnis sowie Rainer Berger für wiederum tolle verlegerische Unterstützung und Betreuung. Meine Frau Cecile hat (womöglich aufgrund schwer beschreibbarer Fähigkeiten auf Basis ihres Studiums der Verlagsherstellung) nicht nur alle Tipp- und Formatierungsfehler entdeckt, sondern auch darauf hingewiesen, dass das Prisoners‘ Dilemma zwar erwähnt, aber nicht erklärt ist. Dafür, für alles andere, und für das geduldige Lächeln über diverse Kollateralentwicklungen meines Lebens mein unendlicher Dank. Hamburg, Karlsruhe und Saarbrücken, im Frühjahr 2021 Markus Thomas Münter <?page no="6"?> Vorwort 6 Vorwort zur ersten Auflage Klagen über realitätsferne Lehre, fehlende Anwendbarkeit der Methoden und das vermeintlich offensichtliche Versagen der Volkswirte und der Volkswirtschaftslehre im Zusammenhang mit der Finanz- und Schuldenkrise des vergangenen Jahrzehnts gehören fast zum guten Ton. Viele Studierende beklagen zudem einen hohen Abstraktionsgrad von Modellen, unrealistische Annahmen betreffend der Rationalität von Entscheidern und den übermäßigen Einsatz von Mathematik - oftmals wird dann gefordert, Lehrstühle oder Professuren für Volkswirtschaftslehre umzuwidmen in stärker anwendungsbezogene Themenbereiche. Anwendungsorientierte Mikroökonomie, wie sie an internationalen Business Schools gelehrt wird, hat allerdings heute kaum noch etwas mit der manchmal auf angewandte Mathematik reduzierte Mikroökonomie der 1980er- oder 1990er-Jahre zu tun. Im Wesentlichen lassen sich die Veränderungen in drei Stoßrichtungen für erfolgreiche Lehre fassen:  Ein fundierter Abgleich von Empirie und Theorie,  Berücksichtigung von verhaltenswissenschaftlichen Erkenntnissen und  anwendungsorientierte Methoden zur Strategieentwicklung für Unternehmen. Dabei gleicht der immer schon überstrapazierte und entsprechend gescholtene Homo oeconomicus mittlerweile Schrödingers Katze: Kiste nicht öffnen, sonst könnte es sein, dass sie tot ist. Wir haben mittlerweile, auch durch Nobelpreise an Herbert Simon, Reinhard Selten, Daniel Kahneman oder Richard H. Thaler belohnt, einige robuste Erkenntnisse darüber, in welchen Situationen Menschen nahezu rational entscheiden, und wann und insbesondere warum sie davon abweichen. An vielen Hochschulen wird bereits heute eine anwendungsorientierte Mikroökonomie gelehrt, die in industrie- oder unternehmensspezifischen Fallstudien vor dem Hintergrund von Digitalisierung und globalem Wettbewerb zentrale empirische Beobachtungen gut erklären kann. Zudem liefert sie Handlungsanweisungen für Unternehmensstrategie und die Entwicklung neuer Geschäftsmodelle. So betitelt der Economist diese Entwicklung schon 2012 mit „A Golden Age of Micro“ und zeigt, dass Amazon, Google, Facebook und eBay in ihren Strategieabteilungen führende akademische Mikroökonomen beschäftigen. In diesem Kontext ist Mikroökonomie, Wettbewerb und strategisches Verhalten im Rahmen meiner Vorlesungen in Saarbrücken entstanden. Studierende haben keine Berührungsängste mit modellhafter Abstraktion, wenn die Herleitung aus ihrer wahrgenommenen Realität erfolgt, nachvollziehbar und direkt ist. Empirie, Verwendung tatsächlicher Unternehmensdaten und Fallstudien orientiert an aktuellen Entwicklungen schaffen hierfür eine tragfähige Grundlage - um diesen Punkt klar zu machen: Zweiseitige Märkte in digitalen Geschäftsmodellen sind wichtiger als ein vermeintliches Giffen-Gut irgendwann im 18. Jahrhundert irgendwo in Schottland, wenn Mikroökonomie bei Studierenden ein Fundament für spätere Entscheidungen in Unternehmen legen soll. Zur Daseinsberechtigung der Mikroökonomie in der Ausbildung von Betriebswirten an anwendungsorientierten Hochschulen reicht es nicht, eine abstrahierende Sicht auf ökonomische Zusammenhänge zu vermitteln oder lediglich die Grundlagen für betriebswirtschaftliche Fächer wie Marketing oder Controlling zu schaffen. Vielmehr muss in der Lehre auch aufgezeigt werden, welche mikroökonomischen Methoden in der Unternehmenspraxis wirklich angewendet werden. Versteht man diese Konzepte als allgemein <?page no="7"?> Vorwort 7 anwendbare „Werkzeuge“, dann wird aus der oft gefürchteten und mutmaßlich realitätsfernen Mikroökonomie ein Schweizer Taschenmesser, welches Studierende - gerade beim Einstieg in Strategieabteilungen oder Managementberatungen - unmittelbar einsetzen können. Dinge, die in diesem Buch stehen - und Dinge, die nicht in diesem Buch stehen Zielgruppe dieses Buches sind Studierende in den ersten Semestern betriebswirtschaftlicher Bachelorstudiengänge, deren mögliche Entwicklungslinien das Management von Unternehmen oder ein Einstieg in die Managementberatung sind. Der Schwerpunkt dieses Lehrbuchs zielt auf die aus Managementperspektive relevanten mikroökonomischen Konzepte, die regelmäßig in der täglichen Praxis vorkommen und für strategische Entscheidungen genutzt werden - unter anderem Preisdiskriminierung, Economies of Scale, Spieltheorie, Umgang mit Unsicherheit, Eintrittsbarrieren oder Sunk Costs - oder zum Verständnis von Marktstrukturen, Innovationen und Wettbewerbsverhalten notwendig sind. Der Fokus liegt auf Konzepten, die starke Querverbindungen zu betriebswirtschaftlichen Fächern haben und in Masterstudiengängen weiterführend in den Bereichen Industrieökonomie, Managerial Economics oder Wettbewerbspolitik vertieft werden. Zudem kommt natürlich Mathematik zum Einsatz - eine der zentralen Fragen ‚im richtigen Leben‘ ist ja fast immer: Rechnet sich das? Im Umkehrschluss bleiben viele Bereiche der Mikroökonomie außer Betracht, die mir in über 15 Jahren Unternehmensberatung und Management nie begegnet sind oder keinen engen Bezug zur Betriebswirtschaftslehre und Managemententscheidungen haben. Zudem werden wesentliche Themen - Marktversagen, öffentliche Güter, natürliche Ressourcen oder Arbeitsmarkt - ausgeklammert: In den meisten Curricula werden diese Inhalte in der Wirtschaftspolitik abgedeckt. Zudem werden Themen ausgespart, die ich vielleicht spannend finde, die aber bei Licht betrachtet in Breite und Tiefe nur für Studierende der Volkwirtschaftslehre auf dem Weg in eine wissenschaftliche Laufbahn wesentlich sind - im Anhang zu ► Kapitel 1 sind ausgezeichnete weiterführende Lehrbücher angeführt. Danke Ich danke meinen Studierenden - durch Diskussionen in den Vorlesungen, aber insbesondere im Rahmen von Abschlussarbeiten habe auch ich hoffentlich ein bisschen mehr Klarheit gewinnen können. Fabiane Mihut-Albeck gebührt mein allergrößter Dank für ihre Unterstützung im Vorfeld und beim akribischen Korrekturlesen, Philipp Klenner für hilfreiche Hinweise zu Kapitel 4, Steffen Häfele vom Bundeskartellamt für hilfreiche Tipps zu Kapitel 7 und Rainer Berger für die hervorragende und umsichtige verlegerische Betreuung. Dieses Buch ist zu weiten Teilen an der LaTrobe University in Melbourne geschrieben - Alex Maritz & Anahita Amirsardari: Thanks mates, for making life and work so easy down under. Danke meinen Kolleginnen und Kollegen an der htw saar für die Möglichkeit, Wissenschaft zu betreiben. Meiner Frau Cecile dafür, dass dieses Leben möglich ist. Melbourne, Hamburg und Saarbrücken, im Juli 2018 Markus Thomas Münter <?page no="9"?> Inhalt Vorwort............................................................................................................................................................................5 Abkürzungsverzeichnis........................................................................................................................................... 12 Verzeichnis mathematischer und ökonomischer Variablen .................................................................... 13 1 Mikroökonomie, Wettbewerb und strategisches Verhalten ....................................... 17 1.1 Mikroökonomie zwischen Empirie, Theorie und Experimenten ........................................ 18 1.2 Märkte, Angebot und Nachfrage................................................................................................... 26 1.3 Preiselastizität und Grenzerlöse ..................................................................................................... 42 1.4 Zusammenfassung .............................................................................................................................. 52  Literaturtipps ......................................................................................................................................................... 53  Kontrollfragen ....................................................................................................................................................... 53  Literatur ................................................................................................................................................................... 54 2 Kundenverhalten, Marktabgrenzung und Netzwerkeffekte........................................57 2.1 Kundenverhalten und Nachfrageentscheidungen .................................................................. 58 2.2 Marktabgrenzung und Produktkategorien................................................................................ 71 2.3 Netzwerkeffekte und mehrseitige Märkte ................................................................................. 90 2.4 Zusammenfassung ............................................................................................................................102  Literaturtipps .......................................................................................................................................................103  Kontrollfragen .....................................................................................................................................................103  Literatur .................................................................................................................................................................104 3 Entscheidungen bei Risiko und Behavioral Economics............................................... 109 3.1 Entscheidungen bei Risiko und Unsicherheit .........................................................................110 3.2 Begrenzte Rationalität und Behavioral Economics ...............................................................125 3.3 Zusammenfassung ............................................................................................................................142  Literaturtipps .......................................................................................................................................................143  Kontrollfragen .....................................................................................................................................................143  Literatur .................................................................................................................................................................144 4 Unternehmen, Wettbewerb und Innovationen ............................................................ 149 4.1 Unternehmen, Unternehmensziele und Strategien..............................................................150 4.2 Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten ...163 <?page no="10"?> Inhalt 10 4.3 Wettbewerb und Innovationen .................................................................................................... 179 4.4 Zusammenfassung ............................................................................................................................ 195  Literaturtipps ....................................................................................................................................................... 196  Kontrollfragen ..................................................................................................................................................... 196  Literatur ................................................................................................................................................................. 197 5 Unternehmensgröße, Technologie und Produktionsentscheidungen ................... 203 5.1 Produktionsfunktion und Technologie ..................................................................................... 205 5.2 Kurzfristige Entscheidungen: Abnehmendes Grenzprodukt und Produktivität ........ 212 5.3 Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge .................. 219 5.4 Zusammenfassung ............................................................................................................................ 231  Literaturtipps ....................................................................................................................................................... 232  Kontrollfragen ..................................................................................................................................................... 232  Literatur ................................................................................................................................................................. 233 6 Kosten, Restrukturierung und M&A................................................................................ 235 6.1 Kostenfunktion, Entscheidungen und Wettbewerbsfähigkeit ......................................... 236 6.2 Kurzfristige Entscheidungen: Fixkosten und Grenzkosten ................................................ 241 6.3 Langfristige Entscheidungen: Anpassung der Kostenstruktur ......................................... 247 6.4 Kostenseitige Wettbewerbsvorteile und M&A ...................................................................... 257 6.5 Zusammenfassung ............................................................................................................................ 269  Literaturtipps ....................................................................................................................................................... 269  Kontrollfragen ..................................................................................................................................................... 270  Literatur ................................................................................................................................................................. 270 7 Vollständige Konkurrenz, Monopol und Wettbewerbspolitik ................................. 273 7.1 Entscheidungen eines Unternehmens bei vollständiger Konkurrenz ........................... 274 7.2 Produzenten- und Konsumentenrente als Maßstab für ökonomische Wohlfahrt... 283 7.3 Monopol und marktbeherrschende Unternehmen.............................................................. 289 7.4 Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden .. 297 7.5 Zusammenfassung ............................................................................................................................ 314  Literaturtipps ....................................................................................................................................................... 315  Kontrollfragen ..................................................................................................................................................... 315  Literatur ................................................................................................................................................................. 316 <?page no="11"?> Inhalt 11 8 Preisstrategien und Preisdiskriminierung ...................................................................... 321 8.1 Formen und Voraussetzungen von Preisdiskriminierung ..................................................322 8.2 Direkte Preisdiskriminierung und Marktsegmentierung ....................................................324 8.3 Indirekte Preisdiskriminierung und zweiteilige Tarife .........................................................331 8.4 Bundling.................................................................................................................................................340 8.5 Auktionen..............................................................................................................................................347 8.6 Zusammenfassung ............................................................................................................................352  Literaturtipps .......................................................................................................................................................353  Kontrollfragen .....................................................................................................................................................353  Literatur .................................................................................................................................................................354 9 Strategische Entscheidungen mit Spieltheorie ............................................................ 359 9.1 Nash-Gleichgewichte in simultanen Spielen...........................................................................362 9.2 Risikoaversion und gemischte Strategien ................................................................................375 9.3 Sequentielle Entscheidungen und Commitment...................................................................383 9.4 Zusammenfassung ............................................................................................................................389  Literaturtipps .......................................................................................................................................................390  Kontrollfragen .....................................................................................................................................................390  Literatur .................................................................................................................................................................392 10 Strategischer Wettbewerb im Oligopol ......................................................................... 395 10.1 Kapazitätsentscheidungen und Strategien beim Cournot-Wettbewerb .....................398 10.2 Sequentielle Entscheidungen und Strategien bei Stackelberg-Wettbewerb .............410 10.3 Preisentscheidungen und Strategien bei Bertrand-Wettbewerb....................................415 10.4 Strategischer Wettbewerb bei Produktdifferenzierung......................................................424 10.5 Relevanz für Unternehmensstrategien ......................................................................................433 10.6 Zusammenfassung ............................................................................................................................438  Literaturtipps .......................................................................................................................................................439  Kontrollfragen .....................................................................................................................................................439  Literatur .................................................................................................................................................................440 Stichwortverzeichnis..............................................................................................................................................443 <?page no="12"?> Abkürzungsverzeichnis B2B Business to Business B2C Business to Consumer BPO Business Process Outsourcing bspw. beispielsweise CAGR Compound Annual Growth Rate (durchschnittliche jährliche Wachstumsrate) d.h. das heißt EBIT Earnings before Interest and Tax (operativer Gewinn vor Zinsen und Steuern) F&E Forschung und Entwicklung FTE Full Time Equivalents (Vollzeitarbeitskräfteäquivalent) ggfs. gegebenenfalls GuV Gewinn- und Verlustrechnung GWB Gesetz gegen Wettbewerbsbeschränkung M&A Mergers and Acquisitions (Unternehmenszusammenschlüsse und -übernahmen) p.a. per annum (pro Jahr) PEST politisch-rechtliche, ökonomische, soziale und technologische Unternehmensumwelt RoE Return on Equity (Eigenkapitalrentabilität) ROIC Return on Invested Capital (Rentabilität des investierten Kapitals) SCP Structure-Conduct-Performance SIEC Significant Impediment to Effective Competition SSNIP Small but Significant Non-Transitory Increase in Price SWOT Strength-Weaknesses and Opportunities-Threats Analysis (Stärken-Schwächen- und Chancen-Risiken-Analyse) TEUR Tausend Euro TK Transaktionskosten z.B. zum Beispiel 12 <?page no="13"?> Verzeichnis mathematischer und ökonomischer Variablen 𝟏𝟏𝟏𝟏/ 𝒃𝒃𝒃𝒃 Indikator für die Größe des Marktes 𝒂𝒂𝒂𝒂 maximale Zahlungsbereitschaft 𝑨𝑨𝑨𝑨 technologische Effizienz 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Produktivität 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 totale Durchschnittskosten 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 variable Durchschnittskosten 𝒃𝒃𝒃𝒃 Steigung der Nachfragefunktion 𝑨𝑨𝑨𝑨𝑪𝑪𝑪𝑪 Konsumentenrente 𝒅𝒅𝒅𝒅 totales Differential 𝑫𝑫𝑫𝑫 Nachfrage 𝑫𝑫𝑫𝑫𝑫𝑫𝑫𝑫𝑫𝑫𝑫𝑫 Deadweight Loss (Wohlfahrtsverlust) 𝒆𝒆𝒆𝒆 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Gesamtkostenelastizität 𝑬𝑬𝑬𝑬 Preiselastizität einer Marktseite bei Netzwerkeffekten 𝑬𝑬𝑬𝑬𝑬𝑬𝑬𝑬 Eigenkapital 𝑬𝑬𝑬𝑬𝑬𝑬𝑬𝑬 erwarteter Nutzen 𝑬𝑬𝑬𝑬𝑨𝑨𝑨𝑨 Erwartungswert eines Ereignisses 𝑭𝑭𝑭𝑭𝑨𝑨𝑨𝑨 Fixkosten 𝑭𝑭𝑭𝑭𝑬𝑬𝑬𝑬 Fremdkapital 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑪𝑪𝑪𝑪 Grenzrate der Substitution 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑨𝑨𝑨𝑨 Grenzrate der technischen Substitution 𝑰𝑰𝑰𝑰 Einkommen 𝑬𝑬𝑬𝑬 (Gesamt-)Kapital, Kapitaleinsatz 𝑫𝑫𝑫𝑫 Arbeit, Anzahl der Mitarbeiter 𝑫𝑫𝑫𝑫 𝒊𝒊𝒊𝒊 Lerner-Index 𝑴𝑴𝑴𝑴𝑨𝑨𝑨𝑨 Grenzkosten 𝑴𝑴𝑴𝑴𝑬𝑬𝑬𝑬𝑪𝑪𝑪𝑪 Minimimum Efficient Size (Mindestbetriebsgröße) 𝑴𝑴𝑴𝑴𝑨𝑨𝑨𝑨 Grenzprodukt 𝑴𝑴𝑴𝑴𝑮𝑮𝑮𝑮 Grenzerlös 133 <?page no="14"?> Verzeichnis mathematischer und ökonomischer Variablen 14 𝒏𝒏𝒏𝒏 Zahl der Unternehmen 𝒑𝒑𝒑𝒑 Preis 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Preis-Kosten-Marge (Deckungsbeitrag) 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑 Wahrscheinlichkeit eines Ereignisses 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Produzentenrente 𝒒𝒒𝒒𝒒 Produktionsmenge oder Kapazität eines Unternehmens 𝒒𝒒𝒒𝒒 𝑫𝑫𝑫𝑫 nachgefragte Menge 𝒒𝒒𝒒𝒒 𝑨𝑨𝑨𝑨 angebotene Menge 𝑸𝑸𝑸𝑸 Produktionsmenge oder Kapazität aller Unternehmen 𝒑𝒑𝒑𝒑 Kapitalmarktzins, Diskontierungszinssatz 𝒑𝒑𝒑𝒑 𝑫𝑫𝑫𝑫 Fremdkapitalzins 𝒑𝒑𝒑𝒑 𝑨𝑨𝑨𝑨𝑺𝑺𝑺𝑺 Eigenkapitalrenditeerwartung 𝑮𝑮𝑮𝑮 Erlöse (Umsatz) 𝑮𝑮𝑮𝑮 𝟐𝟐𝟐𝟐 Bestimmtheitsmaß 𝒔𝒔𝒔𝒔 𝒊𝒊𝒊𝒊 Marktanteil von Unternehmen i 𝑨𝑨𝑨𝑨 Angebot 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Sunk Costs 𝒕𝒕𝒕𝒕 Zeit 𝑨𝑨𝑨𝑨 Technologie, technologischer Pfad 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Gesamtkosten 𝒖𝒖𝒖𝒖 Nutzen 𝒗𝒗𝒗𝒗 Wert in der Wertfunktion 𝑨𝑨𝑨𝑨 Unternehmenswert 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 variable Kosten 𝒘𝒘𝒘𝒘 Lohnsatz (Stundenlohn, Monats- oder Jahresgehalt) −𝒘𝒘𝒘𝒘/ 𝒑𝒑𝒑𝒑 Lohn-Zins-Verhältnis 𝑫𝑫𝑫𝑫 Vermögen 𝑫𝑫𝑫𝑫 𝑮𝑮𝑮𝑮 risikobehafteter Erwartungswert des Vermögens 𝑫𝑫𝑫𝑫 𝑨𝑨𝑨𝑨 sicherheitsäquivalentes Vermögen 𝑫𝑫𝑫𝑫𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 Weighted Average Cost of Capital (gewichtete Eigen- und Fremdkapitalkosten) <?page no="15"?> Verzeichnis mathematischer und ökonomischer Variablen 15 𝒛𝒛𝒛𝒛 𝒊𝒊𝒊𝒊 Zahlungsbereitschaft (Reservationspreise) 𝒁𝒁𝒁𝒁 Lagrange-Funktion Griechische Variablen 𝜶𝜶𝜶𝜶 partielle Produktionselastizität des Kapitals 𝜷𝜷𝜷𝜷 partielle Produktionselastizität der Arbeit 𝜸𝜸𝜸𝜸 industriespezifischer Grad horizontaler Produktdifferenzierung 𝝏𝝏𝝏𝝏 partielle Ableitung ∆ absolute Differenz 𝜺𝜺𝜺𝜺 𝑰𝑰𝑰𝑰 Einkommenselastizität der Nachfrage 𝜺𝜺𝜺𝜺 𝑿𝑿𝑿𝑿𝑿𝑿𝑿𝑿 Kreuzpreiselastizität der Nachfrage 𝜺𝜺𝜺𝜺 𝒑𝒑𝒑𝒑 Preiselastizität der Nachfrage 𝜽𝜽𝜽𝜽 Stärke des indirekten Netzwerkeffektes 𝝀𝝀𝝀𝝀 Lagrange-Multiplikator 𝝁𝝁𝝁𝝁 Grad der Verlustaversion 𝝅𝝅𝝅𝝅 Gewinn 𝝈𝝈𝝈𝝈 𝟐𝟐𝟐𝟐 Varianz einer Verteilung 𝝎𝝎𝝎𝝎 Grad der Risikoaversion <?page no="17"?> 1 Mikroökonomie, Wettbewerb und strategisches Verhalten Unternehmerische Entscheidungen zu treffen, ist ein bisschen wie Kochen - es funktioniert irgendwie, auch wenn man es nicht kann, aber meist nicht sonderlich gut. Beim Kochen schaut man zunächst anderen zu, ab und an blickt man in ein Kochbuch, auf die Packung einer Tütensuppe oder in eine App - aber meistens nutzt man schlicht die Zutaten, die gerade in der Küche zu finden sind. Kochbücher sind keine wissenschaftlichen Lehrbücher. Kochanleitungen beschreiben, je nach Anspruchsniveau, das schrittweise Vorgehen, um eine vorgekochte Tomatensuppe zu erwärmen, oder vielleicht sogar etwas aufwendigere Speisen zuzubereiten (Kolmar 2017 und Barham 2001). Folgt man den Anweisungen auf der Rückseite der Tütensuppe oder im Kochbuch, hat man danach meist ein vernünftiges Essen auf dem Tisch - allerdings versteht man selten, weshalb. Und genauso, wie man irgendwie kochen muss, auch wenn man es nicht richtig kann, müssen Manager Entscheidungen treffen. Natürlich kann man sich auch Essen kommen lassen - Lieferheld, Deliveroo oder Delivery Hero sei dank - und Manager in Unternehmen können McKinsey & Company, Bain & Company oder BCG kommen lassen, aber auf Dauer ist das ein teurer Spaß. In diesem Sinne ist Mikroökonomie kein Kochbuch: Mikroökonomie versucht keine schrittweisen Anleitungen für unternehmerisches Handeln oder Entscheidungen zu liefern. Im Mittelpunkt steht, Ursachen für das beobachtbare Verhalten und die Entscheidungen von Menschen in ökonomischen Situationen zu erklären, um herauszuarbeiten, welche Auswirkungen sich für Märkte, Unternehmen und Wettbewerb ergeben. Dennoch liefern die Beobachtungen natürlich Orientierungspunkte für künftige Entscheidungen und die Einordnung von Wettbewerbssituationen insbesondere aus Managementperspektive. Die mikroökonomische Perspektive ist mindestens dreigeteilt:  Entscheidungen von Kunden in unterschiedlichen Situationen und Rahmenbedingungen - bspw. beim Kauf eines Smartphones - beschreiben und erklären können.  Strategische Entscheidungen von Managern in Unternehmen - bspw. die Festlegung von Produktionskapazitäten oder Preisen für die nächste Smartphone-Generation - herleiten und begründen können.  Das Zusammenspiel der Entscheidungen, die Interaktion von Unternehmen und Kunden in Märkten und die Auswirkungen auf Preise, Mengen, Marktstrukturen oder Gewinne der Unternehmen - den Niedergang von Nokia und Research in Motion sowie den gleichzeitigen Erfolg von Samsung und Apple - nachvollziehen und quantifizieren können. Mikroökonomie analysiert die Entscheidungen von Kunden und Unternehmen, deren Zusammenspiel und die Funktionsweise von Märkten. Die Notwendigkeit für Entscheidungen basiert immer auf Knappheit: Menschen müssen zwischen Alternativen wählen, weil nicht unbegrenzt Ressourcen, Geld oder Zeit verfügbar sind. Mikroökonomie kann für mindestens zwei Zielgruppen wichtige Unterstützung bieten: Einerseits für Unternehmen, die Strategien für unterschiedliche Wettbewerbssituationen entwickeln wollen, andererseits für staatliche Institutionen wie bspw. Wettbewerbsbehörden, deren Ziel ist, die Funktionsfähigkeit von <?page no="18"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 18 Märkten zu verbessern. Makroökonomie dagegen betrachtet die gesamte Volkswirtschaft und versucht, Erklärungen für Arbeitslosigkeit, Inflation, Konjunkturzyklen und Wachstum zu geben.  Lernziele Dieses Kapitel beschäftigt sich mit  den Zielsetzungen von Mikroökonomie aus Managementperspektive,  dem Zusammenspiel von Theorie und Empirie zur Ableitung von ‚Stadtplänen für Märkte und Wettbewerb‘,  den grundlegenden Zusammenhängen von Angebot und Nachfrage sowie der Bestimmung eines Marktgleichgewichtes und  der Preiselastizität der Nachfrage und Grenzerlöse als Messgrößen der Effekte von Preisänderungen auf die nachgefragte Menge und Umsätze. 1.1 Mikroökonomie zwischen Empirie, Theorie und Experimenten Weshalb befinden sich in vielen Städten der Welt die Filialen von Burger King und McDonald’s in unmittelbarer Nähe zueinander? Weshalb verkauft Microsoft die Produkte Word, Excel und PowerPoint einzeln, aber auch in einem Office Paket - und zu welchem Preis? Wie viele Mitarbeiter muss Osram entlassen, weil die EU Kommission die Produktion konventioneller Glühbirnen untersagt hat? Wieso bietet die Deutsche Bahn eine Bahncard 50 an - und wie legt sie deren Preis optimal fest? Kann BMW durch strategisches Verhalten dem neuen Konkurrenten Tesla den Marktzutritt sperren? Was ist der Wert des 50: 50-Jokers bei Wer wird Millionär? Mikroökonomie versucht, derartige Fragestellungen zu beantworten. In den folgenden Kapiteln werden die notwendigen Konzepte und Frameworks dazu entwickelt und angewendet. Abbildung 1.1: Wasserflaschenpark. 4,50 2,00 0,50 3,00 5,00 4,00 1,50 2,50 3,50 1,00 1,50 2,50 3,50 4,50 0,50 2,00 3,00 4,00 5,00 1,00 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 <?page no="19"?> Mikroökonomie zwischen Empirie, Theorie und Experimenten 19 Mikroökonomie analysiert Märkte und das Verhalten von Käufern und Verkäufern - man kann sich einige der grundlegenden Fragestellungen an folgendem Beispiel klar machen. An einem sehr heißen Feiertag, an dem alle Geschäfte geschlossen sind, befinden sich 20 Menschen in einem weitläufigen Park - die eine Hälfte besitzt je eine geschlossene 1Liter Wasserflasche (ohne Kohlensäure und absolut identischer Qualität und Temperatur) und ist in keiner Weise durstig, die andere Hälfte ist sehr durstig, besitzt aber keine Wasserflaschen. Die Situation lässt sich in etwa wie in ► Abbildung 1.1 beschreiben: Die zehn Besitzer der Wasserflaschen (dunkelgraue Figuren) wären im Prinzip bereit, ihre Wasserflaschen zu verkaufen, die zehn potenziellen Kunden (hellgraue Figuren) wären grundsätzlich bereit, dafür zu bezahlen. Allerdings unterscheiden sich die Preisvorstellungen der Verkäufer und die Zahlungsbereitschaft der Durstigen, zudem kennen weder Verkäufer noch Käufer die Preisvorstellungen und Zahlungsbereitschaft der jeweils anderen Marktseite. Was wird nun passieren? Wie viele Flaschen werden verkauft, zu welchen Preisen? Wie finden sich potenzielle Verkäufer und Käufer? Wie kann ein Verkäufer den höchsten Preis erzielen, wie kann ein Käufer den niedrigsten Preis erzielen? Mögliche Antworten auf diese Frage in ► Kapitel 1.2. Modelle, Stadtpläne und Mikroökonomie Realität ist in ihrer Komplexität nicht beschreibbar, daher basiert Wissenschaft auf Abstraktion. Wissenschaft versucht, Regelmäßigkeiten der Realität zu identifizieren, zu erklären und - wo angebracht - nutzbar zu machen. Um diese Regelmäßigkeiten in ihrer komplexitätsreduzierten Form greifbar zu machen, werden Modelle verwendet. Modelle können, neben einer vereinfachenden Abbildung der Wirklichkeit, der wahrgenommenen Realität insbesondere Entscheidbarkeit hinzufügen - das ist offensichtlich für jeden Stadtplan bis hin zu Google Maps. In diesem Sinne versorgt Mikroökonomie Manager mit Stadtplänen für Wettbewerb und Märkte: Mit empirisch belastbaren, wenngleich abstrahierend modellhaften Abbildungen wird Entscheidbarkeit hinzugefügt - und diese ist schließlich zentral, wenn Mikroökonomie als erklärend für Entscheidungen, die Manager in Unternehmen treffen, verstanden wird. In Analogie zu den Stadtplänen gilt aber auch: Kein Modell kann alle Aspekte der Realität gleichzeitig abdecken - so hat Google Maps unterschiedliche Sichten für Autofahrer (mit Verkehrs- und Stauinformationen), für Nutzer des öffentlichen Nahverkehrs (mit Abfahrtszeiten und Umsteigeverbindungen) oder für Touristen (mit Hinweisen auf Sehenswürdigkeiten) - weil sonst der Blick für wesentliche Informationen verstellt wird. Modelle vereinfachen und abstrahieren immer, um die Realität handhabbar zu machen. Zudem werden Zusammenhänge und Elemente herausgestellt, die für Entscheidungen wesentlich erscheinen: So sind in Stadtplänen Hauptverkehrstraßen in grün oder orange markiert, obwohl dies nicht der Realität entspricht, und in deutlich vergrößertem Maßstab eingezeichnet (Meyer 1996). In ähnlicher Weise stellen mikroökonomische Modelle unterschiedliche Aspekte - bspw. in ► Kapitel 3 Entscheidungen bei begrenzter Rationalität, in ► Kapitel 8 Preisstrategien oder in ► Kapitel 10 strategischen Wettbewerb - aus Perspektive der jeweiligen Entscheidungssituation besonders heraus. Mikroökonomische Analysen basieren auf Regelmäßigkeiten in Entscheidungen und typischen Entwicklungen in Märkten. Um Regelmäßigkeiten wissenschaftlich zu identifizieren, <?page no="20"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 20 werden zwei sich ergänzende wissenschaftstheoretische Perspektiven, wie in ► Abbildung 1.2 dargestellt, eingenommen: Deduktion und Induktion. Deduktion bedeutet, dass aus einer Menge plausibler Annahmen durch logisches Schließen und Ableiten eine Theorie entwickelt wird. Diese kann durch Falsifikation - den Nachweis falscher Schlussfolgerung oder Verletzung logischer Regeln - widerlegt werden. Aus gegebenen Rahmenbedingungen und Überlegungen (einem Modell) können dann Hypothesen formuliert werden, d.h. aus allgemeinen theoretischen Überlegungen wird auf einen besonderen Fall geschlossen, der in der Realität erwartet wird. So hat Einstein 1918 theoretisch Gravitationswellen vorhergesagt, der Nachweis in der Realität ist erst 98 Jahre später gelungen (Einstein 1918 und Abbott et al. 2016). Induktion geht genau den anderen Weg: Auf Basis von Empirie - der systematisch, aber ausschnittsweise beobachteten Realität - wird ein regelmäßiges Muster vermutet und abstrahierend sowie verdichtend auf ein allgemeines Modell geschlossen. Empirische Modelle können durch Beobachtung eines widersprüchlichen Einzelfalls falsifiziert werden, allerdings kann eine induktive Schlussfolgerung niemals verallgemeinert werden (Popper 1934). So ging man in Europa, auf Basis konsistenter empirischer Beobachtungen, sehr lange davon aus, dass alle Schwäne weiß sind - und entwickelte auch Erklärungen, warum es überhaupt nicht anders sein kann. 1697 hat dann der niederländische Seefahrer de Vlamingh in Australien erstmals schwarze Schwäne beobachtet - die ganze Theorie weißer Schwäne war falsch (Taleb 2007). Abbildung 1.2: Empirie, Hypothesen und Theorie als Basis für Managemententscheidungen. Im Zusammenspiel von Induktion und Deduktion werden dann Hypothesen möglich, die einen Abgleich von Modell (der theoretischen und abstrakten Vorstellung der Realität) und Fakten (der empirischen Beobachtung und Einordnung der Realität) ermöglichen (Blaug 1992 und Münter 1999). Entscheidungen von Managern sind immer Hypothesen auf Basis eines Modells, welches sich in der Realität bewähren muss - ohne ein Modell ist eine logische Entscheidung nicht möglich, da die bloße Wahrnehmung der Realität keine Entscheidbarkeit herbeiführt. So hilft es einem Manager relativ wenig, stundenlang eine Bilanz anzusehen, Modelle (Theorie) Fakten (Empirie) Induktion Deduktion Entscheidungen (Hypothesen) modellhafte Abstraktion der Kosten als Kostenfunktion Kosten aus Analyse der GuVs der vergangenen Jahre <?page no="21"?> Mikroökonomie zwischen Empirie, Theorie und Experimenten 21 wenn er das Modell (doppelte Buchführung, Aktiva vs. Passiva, periodengerechte Abgrenzung und die zugehörigen Rechnungslegungsvorschriften) nicht kennt - ein Betrachten der Realität ohne Modell ermöglicht keine Schlussfolgerung und fundiert keine Entscheidung.  Fragen │ Rationalität - warum heben Menschen 10-EUR-Scheine auf der Straße auf? In den Wirtschaftswissenschaften - gleich ob BWL oder VWL - wird meist als Hypothese angenommen, dass sich Menschen rational verhalten oder rational entscheiden. Rationalität bedeutet, dass Menschen vernünftig denken und handeln, und dass dieses rationale Tun entsprechend der Präferenzen eines Menschen auf ein Ziel gerichtet ist. Rational ist eine Entscheidung oder ein Verhalten also dann, wenn eine Handlung nachvollziehbar und begründet auf ein Ziel orientiert ist, zunächst unabhängig der tatsächlichen Zielerreichung (Effektivität) oder des gewählten Mitteleinsatzes (Effizienz). Rationalität impliziert damit Freiheit zur Entscheidung und Auswahlmöglichkeiten. Aus der Vielfalt philosophischer Erklärungen von Rationalität hat sich in den Wirtschaftswissenschaften ein Begriff entwickelt, der im Wesentlichen logisches, auf ein Ziel gerichtetes Handeln unter minimalem, also effizientem Mitteleinsatz, als rational bezeichnet. Damit ist klar, dass individuelle Rationalität - zumindest empirisch - eine große Vielfalt an Verhaltensmustern beinhaltet: weder haben alle Menschen die gleichen Ziele oder Präferenzen, noch sind die Begabungen oder die Fähigkeiten zu logischem Denken und Handeln aller Menschen gleich. Die Annahme von Rationalität erlaubt allerdings, dass menschliches Verhalten in ökonomischen Situationen vorhersagbar wird: Menschen heben einen 10-EUR-Schein, der auf der Straße liegt, auf. Auf dieser Grundlage durch Anreize gesteuerter Handlungen können sowohl für Kunden wie auch für Manager Hypothesen über deren Entscheidungsverhalten in Märkten entwickelt werden, um dann im Zusammenspiel von Kundenverhalten und Unternehmensstrategie Vorhersagen für Preise oder Marktstrukturen abzuleiten. Oftmals wird gegen Rationalität eingewendet, dass Menschen lediglich ihren Gewohnheiten folgen oder in ihren Konsummustern andere Menschen imitieren oder beliebigen Trends folgen - all dies kann aber, je nach individueller Zielsetzung und individueller Befähigung zu Logik, durchaus vollständig rational sein (Smith 2003). Der enge Rationalitätsbegriff ist aber nicht aufrechtzuerhalten, wenn psychologische, soziologische oder institutionenökonomische Aspekte des Verhaltens und der Entscheidungsfindung von Menschen im Rahmen empirischer Studien betrachtet werden (weiterführend Arthur 1994, DeMartino et al. 2006, Simon 1993 und Conlisk 1996). Menschen verhalten sich dann zwar weiterhin vorhersagbar - und nicht etwa erratisch oder rein zufällig - aber nur noch begrenzt rational. Damit wird die theoretische Vielfalt von Verhaltens- und Entscheidungsmustern nochmals ausgedehnt. Inkonsistenzen im Entscheidungsverhalten und damit begrenzte Rationalität wird umso deutlicher erkennbar, je komplexer die Entscheidungssituationen sind, je weniger ausgeprägt die Zielsetzungen menschlichen Handelns sind und je stärker Emotionen oder Wertvorstellungen eine Rolle spielen. <?page no="22"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 22 Daneben wirken sich häufig Unsicherheit und Risiko als auch dynamische, auf die fernere Zukunft gerichtete Erwartungen einschränkend auf die Rationalität von individuellem Verhalten oder Entscheidungen aus. Zudem spielen falsch verstandene Opportunitätskosten und Sunk Costs eine entscheidende Rolle bei kognitiven Wahrnehmungsverzerrungen, die zu einem begrenzt rationalen Entscheidungsverhalten führen (weiterführend ► Kapitel 3 zu Behavioral Economics sowie Simon 1955 und Kahneman 2003). Modelle, Daten, Ökonometrie und stilisierte Fakten Aus mikroökonomischer Sicht sind Modelle theoriegeleitete Vorstellungen und Abbildungen der Realität, die empirisch fundiert sind. Modelle beschreiben dabei den Zusammenhang zwischen zwei oder mehr ökonomischen Variablen - bspw. dem Effekt von Werbeaufwand auf den Absatz eines Produktes. Empirische Daten der Entscheidungen - sei es von Kunden oder Managern - können aus Markt- und Wettbewerbsanalysen stammen. Zahlen, Daten und Fakten zu einzelnen Unternehmen aus der Unternehmensberichterstattung (Geschäftsberichte mit Gewinn- und Verlustrechnung, Bilanz, insbesondere aber Lagebericht und Strategiepräsentationen) spiegeln immer Entscheidungen in Märkten wider. Wenn der Marktanteil von Villeroy & Boch in China ansteigt, dann ist das ein Abbild zahlreicher Entscheidungen von Kunden, des Managements von Villeroy & Boch sowie indirekt auch der Rückwirkungen der Entscheidungen der Wettbewerber von Villeroy & Boch, deren Marktanteile zurückgehen. Um den Zusammenhang zwischen Werbeaufwand und Gewinn 𝜋𝜋𝜋𝜋 eines Unternehmens systematisch zu analysieren, können bspw. Fakten aus der GuV oder Bilanz entnommen werden. Durch statistische Analysen und Methoden werden regelmäßige Muster in den Daten erkennbar, die dann zu modellhaften Erklärungen verdichtet werden, wie in ► Abbildung 1.3 skizziert. Abbildung 1.3: Empirie und Theorie. Dieser wechselseitige Abgleich von Daten und theoretischen Modellen wird als Ökonometrie bezeichnet - sie umfasst mathematische Datenanalyse und statistische Methoden, um theo- Modelle (Theorie) zur Erklärung der beobachteten Realität Fakten (Empirie) als beobachtete Realität Analyse der Zeitreihen- oder Querschnittsdaten mit Statistik (Ökonometrie) 3 1 2 π 0 0 Werbeaufwand 0 π = π (Werbeaufwand) Werbeaufwand <?page no="23"?> Mikroökonomie zwischen Empirie, Theorie und Experimenten 23 retische Modelle anhand von Daten empirisch zu überprüfen, zu quantifizieren oder zu kalibrieren. In der Regel kommen hier verschiedene Formen von Regressionsanalysen auf Basis von Querschnittsdaten (einzelner oder vieler verschiedener Unternehmen einer oder mehrerer Industrien) oder Zeitreihendaten (Entwicklung bestimmter Größen im Zeitablauf) zum Einsatz und können mit Statistikprogrammen oder Excel durchgeführt werden (Kennedy 2008 sowie Davis und Pecar 2013).  Fragen │ Lernen aus Daten - entscheiden künftig Maschinen? Unternehmen setzen zum Erkennen von Mustern in Daten vielfältige statistische und mathematische Verfahren ein, um Entscheidungen vorzubereiten. Zahlreiche dieser Methoden und Verfahren analysieren Zusammenhänge in Daten, d.h. Korrelationen zwischen Variablen, die Varianz der Daten oder bedingte Wahrscheinlichkeiten wie in der Bayes’schen Statistik. Mit zunehmender Digitalisierung und Datenverfügbarkeit in Unternehmen finden hier zwei sich wechselseitig bedingende Entwicklungen statt: Big Data und künstliche Intelligenz werden regelmäßig von Unternehmen eingesetzt, um Entscheidungen zu verbessern. Big Data - große und komplexe Datensätze aus sehr unterschiedlichen Quellen innerhalb und außerhalb des Unternehmens, die schwach- oder unstrukturiert sind, und schnell oder sogar exponentiell anwachsen - ermöglicht weit bessere Analysen zur Entscheidungsvorbereitung, erfordert aber auch andere Analysemethoden. Eine Entwicklungsrichtung statistischer und mathematischer Algorithmen wird hier unter künstlicher Intelligenz zusammengefasst: Analyseverfahren, die selbständig aus Big Data lernen, mögliche Erklärungen entwickeln und Entscheidungsunterstützung bieten - oder ohne weiteren Eingriff eines Menschen eine Entscheidung treffen. Bereits in Anwendung finden sich auf Daten und Algorithmen basierte Lösungen zur automatisierten Preisbestimmung für Personal Pricing oder Dynamic Pricing (weiter dazu ► Kapitel 8). Im Kern stehen bei der Anwendung von datengetriebener künstlicher Intelligenz die Prozesse Mustererkennung (‚classification‘) und Vorhersage (‚prediction‘), um auf Basis kausaler Erklärungen aus den Daten zunächst Entscheidungsoptionen und schließlich Entscheidungen abzuleiten (Pearl und Mackenzie 2018 sowie Spiegelhalter 2019). Mustererkennung in der Form von überwachtem oder tiefem Lernen zielt auf die Einordnung einer Entscheidungssituation. Vorhersage nutzt den vermuteten kausalen Zusammenhang, um aus den Daten die künftige Entwicklung abzuleiten. Big Data und künstliche Intelligenz als logisches Schlussfolgern sind damit lediglich neue Formen von Induktion und Deduktion - wenngleich in der Folge die Rollen von Menschen als Entscheidern im Zusammenspiel mit Daten und Algorithmen verändert werden, und damit auch der Untersuchungsgegenstand der Wirtschaftswissenschaften (weiterführend Brynjolfsson et al. 2017, Loebbecke und Picot 2015, Mihet und Philippon 2019, Currie et al. 2020 sowie Acemoglu und Restrepo 2018). In den Wirtschafts- und Sozialwissenschaften werden Daten und Ergebnisse empirischer Studien in stilisierte Fakten verdichtet. Stilisierte Fakten beschreiben regelmäßig beobachtbare („typische“) und als wesentlich erachtete Grundzusammenhänge empirischer Studien, bspw. <?page no="24"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 24 zwischen Werbeaufwand und Gewinn eines Unternehmens, und können als robuste empirische Regelmäßigkeiten dann Grundlage eines Modells sein. Das heute gängige Verständnis des Begriffs stilisierter Fakten geht auf Kaldor (1961) zurück: „Any theory must necessarily be based on abstractions; but the type of abstraction chosen cannot be decided in vacuum: it must be appropriate to the characteristic features of the economic process as recorded by experience. Hence the theorist, in choosing a particular theoretical approach, ought to start off with a summary of the facts which he regards as relevant to his problem. Since facts, as recorded by statisticians, are always subject to numerous snags and qualifications, and for that reason are incapable of being accurately summarized, the theorist, in my view, should be free to start off with a ‘stylized’ view of the facts - i.e. concentrate on broad tendencies ignoring individual detail, and proceed on the ‘as if’ method, i.e. construct a hypothesis that could account for these ‘stylized’ facts, without necessarily committing himself on the historical accuracy, or sufficiency, of the facts or tendencies thus summarized.“ (Kaldor 1961, S. 177 f.). Dabei ist zwangsläufig, dass immer auch den stilisierten Fakten widersprechende Beobachtungen aufzufinden sind: Wesentlich ist, sorgfältig zwischen Regelmäßigkeiten und Ausnahmen zu trennen. Ein theoretisches Modell beschreibt eine mögliche Erklärung einer regelmäßigen und als typisch erachteten empirischen Beobachtung. Damit geht - im Gegensatz zu einer zufälligen Koinzidenz - eine Beschreibung einer Kausalitätsbeziehung einher, d.h. einer funktionalen Ursache-Wirkungs-Beziehung zur Erklärung eines Effektes. Im Rahmen eines Modells zu erklärende oder erklärbare Größen werden als endogene Variablen bezeichnet: In mikroökonomischen Modellen bspw. der Gewinn. Die zur Erklärung herangezogenen Größen sind exogene Variablen - bspw. die Marktstruktur oder die Wettbewerbsintensität in einer Industrie, können aber auch vom Unternehmen steuerbare Größen wie der Marketingaufwand oder die F&E-Strategie sein. Die funktionale Beziehung zwischen exogener und endogener Variable kann nur einen Teilaspekt einer Erklärung geben - zudem kann die Beziehung wechselseitig kausal sein. Sowohl endogene wie exogene Variablen können zudem von Größen außerhalb des Modells beeinflusst sein. In ► Abbildung 1.3 rechts ist zu sehen, dass offenbar eine Wirkung des Werbeaufwands auf den Gewinn 𝜋𝜋𝜋𝜋 von Villeroy & Boch vorliegt - der Gewinn 𝜋𝜋𝜋𝜋 ist mathematisch gesehen hier eine Funktion 𝜋𝜋𝜋𝜋 = 𝜋𝜋𝜋𝜋(𝑀𝑀𝑀𝑀) des Werbeaufwands 𝑀𝑀𝑀𝑀 . Ist der Werbeaufwand sehr gering, ist der Gewinn negativ, mit steigendem Werbeaufwand steigt der Gewinn zunächst überproportional an. Allerdings hält dieser Effekt nicht an: Ab einem bestimmten Punkt reduziert steigender Werbeaufwand den Gewinn. Ein Manager von Villeroy & Boch kann jetzt dieses empirisch fundierte Modell nutzen, um künftige Entscheidungen über den Werbeaufwand zu treffen, um den Gewinn zu steigern. Experimente und Behavioral Economics Entscheidungen lassen sich empirisch häufig nur ex post und indirekt - etwa über die Analyse getroffener Kaufentscheidungen oder umgesetzter Unternehmensstrategien - beobachten. Die indirekte Analyse von Entscheidungen auf Basis von Markt- und Wettbewerbsdaten hat mehrere Defizite, unter anderem Datenbeschaffung und -qualität, Vergleichbarkeit der Daten <?page no="25"?> Mikroökonomie zwischen Empirie, Theorie und Experimenten 25 aus verschiedenen Industrien, Märkten, Regionen und Zeiträumen sowie die Auswahl und Spezifikation der richtigen ökonometrischen Methoden. Ein wesentlicher Nachteil ist aber, dass der Entscheidungsprozess nicht direkt beobachtbar ist: So sind zwar Folgen der Entscheidungen selbst, manifestiert in Marktanteilen oder Absatzzahlen von Smartphones, erkennbar, aber die eigentliche Entscheidung, die Rahmenbedingungen der Entscheidung oder die alternativ betrachteten Produkte sind nicht beobachtbar. Vor diesem Hintergrund führen Mikroökonomen seit den 1980er-Jahren verstärkt Experimente durch. Ziel ist, unter kontrollierten Laborbedingungen das Entscheidungsverhalten und insbesondere die Interaktion von Menschen in strategischen Entscheidungssituationen zu beobachten und zu analysieren. Ein starker Treiber für diese Experimente ist es, zu überprüfen, ob Menschen tatsächlich vollständig rational entscheiden und handeln, oder ob regelmäßige Abweichungen von vollständiger Rationalität beobachtet werden können: Tatsächlich haben die experimentell gewonnenen Erkenntnisse einen deutlichen Beitrag zur Entstehung von Behavioral Economics, der verhaltenswissenschaftlichen Analyse ökonomischer Entscheidungen, geleistet (weiterführend hierzu ► Kapitel 3). In den vergangenen Jahrzehnten wurden verstärkt Experimente durchgeführt, um individuelles Entscheidungsverhalten, dessen Einflussfaktoren und entstehende dynamische Interaktion zu untersuchen. Um die Robustheit der abgeleiteten Aussagen sicherzustellen, erweisen sich aktuell standardisierte, computer- und simulationsgestützte Laborexperimente als wegweisend für die weitere Forschung. Der Vorteil von ökonomischen Laborexperimenten ist, dass das Entscheidungsverhalten direkt, unter kontrollierten und veränderbaren Rahmenbedingungen (ähnlich den in Medizin und Psychologie verwendeten ‚randomized controlled trials’) beobachtet werden kann. Somit kann eine einfache Prüfung der Konsistenz von Entscheidungen und Handlung, sowie des Ausschließens von alternativen Erklärungen stattfinden. Zudem können Erklärungen gefunden werden, die in abstrakten Daten (wie einer Bilanz oder Gewinn- und Verlustrechnung) nicht erkennbar sind oder sich nicht einzelnen Entscheidungen zuordnen lassen. Mit Laborexperimenten sind aber eine Reihe von Nachteilen und Herausforderungen verbunden. Teilnehmer an einem Experiment sind sich natürlich über die Teilnahme bewusst. Damit rufen Laborsituationen bestimmte Verhaltensweisen hervor und unterdrücken andere: Es gibt Hinweise darauf, dass Teilnehmer sich den Erwartungen des Forschers oder gemäß der ‚üblichen Ergebnissen‘ eines Experiments verhalten wollen, zudem unterscheiden sich Laborsituationen in monetären und sozialen Nachwirkungen drastisch von Entscheidungen im richtigen Leben. Daneben werden zahlreiche Experimente, im Wesentlichen aus Kostengründen, mit Studierenden an Hochschulen durchgeführt, die eben gerade kein repräsentatives Abbild aktueller Entscheider in realen Märkten sind. Jedoch bestätigen, wenngleich seltene, Tests mit Managern typische Ergebnisse der Experimente mit Studierenden (Kagel und Roth 2016 sowie Davis und Holt 1993). Die Herausforderungen der Laborexperimente können in Teilen durch Feldexperimente gelöst werden - hier wird das Experiment, unbewusst für die Teilnehmer, in realen Umgebungen durchgeführt, bspw. mit tatsächlichen Kunden in Form unterschiedlicher Produktangebote oder Preise (sogenannte A/ B-Tests) in ansonsten identischen Supermarktfilialen. Zudem werden diese Feldexperimente auch von Unternehmen, insbesondere online, durchgeführt - so <?page no="26"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 26 zeigt bspw. der Versicherer CosmosDirekt potenziellen Kunden in Abhängigkeit der IP- Adresse unterschiedliche Produktpakete oder Produktanordnungen auf der Website, um das Entscheidungsverhalten der Kunden besser kennenzulernen (Levitt und List 2009, List und Reiley 2007 sowie Gneezy und List 2006). 1.2 Märkte, Angebot und Nachfrage Mikroökonomie beschäftigt sich mit der Funktionsweise von Märkten und den daraus entstehenden Marktergebnissen. Umgangssprachlich werden auf einem Markt Waren zwischen Käufern und Verkäufern gehandelt. Um - auch für die nachfolgenden Kapitel - begriffliche Klarheit zu schaffen: Märkte sind Institutionen (Systeme, Regeln, Muster und Strukturen), in denen wiederkehrend Transaktionen zwischen Marktteilnehmern angestrebt oder durchgeführt werden. Im Einzelfall kann ein Markt räumlich, zeitlich oder inhaltlich eng definiert werden, bspw. als deutscher Automobilmarkt im Jahr 2018, auf dem Personenkraftwagen von Unternehmen verkauft und von Endkunden gekauft werden. Aber auch der automatisierte Handel zwischen Hochleistungscomputern über Rechenkapazität beschreibt einen Markt, ebenso wie der globale Handel von Emissionsrechten zwischen Unternehmen und Staaten. Märkte als Institution Märkte unterscheiden sich in ihren Systemen, Mustern und Strukturen in vielen Dimensionen - unter anderem nach  gehandelten Produkten und Dienstleistungen - bspw. der Aktienmarkt,  der Rolle und Anzahl der Marktteilnehmer - bspw. die mittelständischen Automobilzulieferer,  nach dem (Stand-)Ort - der Fischmarkt in Hamburg,  dem institutionellen Organisationsgrad - bspw. zugelassene Teilnehmer an einer Mobilfunklizenzauktion der Bundesnetzagentur,  dem Informationsgrad und dem Informationsaustausch der Marktteilnehmer - bspw. Verhandlungen im Rahmen einer M&A-Transaktion,  sowie der Art der Preis- und Mengenbestimmung - bspw. eine verbrauchsabhängige Datenpakete. Die Funktionsweise von Märkten hat sich dabei evolutorisch über viele Jahrhunderte in den Leitplanken des jeweiligen Rechtssystems und vor dem Hintergrund technologischer Entwicklungen entwickelt und beeinflusst maßgeblich die Verhaltensweisen der Marktteilnehmer. In diesem Sinne funktioniert der Aktienmarkt selbstverständlich anders als eine M&A-Transaktion - obwohl in beiden Fällen Unternehmensanteile gehandelt und übertragen werden. Zusammengefasst werden Systeme, Muster und Strukturen der Märkte als Institutionen bezeichnet: Institutionen beschreiben allgemein bekannte Verhaltensmuster und Regeln, die von Marktteilnehmern bei wiederkehrenden Transaktionen angewendet werden und das typischerweise beobachtbare Verhalten auf Märkten beschreiben und erklären helfen. Institutio- <?page no="27"?> Märkte, Angebot und Nachfrage 27 nen erstrecken sich von unverbindlichen Konventionen und allgemein anerkannten Spielregeln zwischen den Marktteilnehmern, die sich bewähren, bis hin zum Rechtssystem, welches insbes. den Eigentumsbegriff, -rechte und -übertrag in Märkten festlegen. Zweck und Ziel von Institutionen ist dabei einerseits Unsicherheit in Märkten zu reduzieren, andererseits Handlungsmöglichkeiten so zu gestalten, dass Transaktionen überhaupt stattfinden können. Institutionen kommt damit eine maßgebliche Rolle für die Funktionsfähigkeit sowie die Effizienz von Märkten zu und erklären gleichzeitig im internationalen Vergleich unterschiedliche Wachstumspfade von Volkswirtschaften - bspw. vor dem Hintergrund sehr unterschiedlich geprägter Eigentums- und Entscheidungssysteme in Kapitalismus, Kommunismus oder absolutistischen und diktatorischen Systemen (Voigt 2019 sowie Acemoglu und Robinson 2012). Werden Transaktionen nicht in allgemein zugänglichen Märkten ausgeführt, sondern innerhalb der Familie, auf Schwarzmärkten, innerhalb von Unternehmen oder durch den Staat, sind häufig fehlende oder nicht funktionierende Institutionen und zu hohe Transaktionskosten dafür verantwortlich. Die Institutionen eines Marktes sowie insbesondere die Preis- und Mengenbestimmung können zahlreiche Ausprägungen annehmen - die Bandbreite reicht von spontanen Transaktionen, bei denen sich die Marktteilnehmer immer wieder neu auf die Art der Abwicklung der Transaktion verständigen und den Preis verhandeln, über Auktionen mit veränderlichen Preisen (wie bspw. bei der Versteigerung von Antiquitäten oder Werbeplätzen bei Google) bis hin zu regulierten Märkten, in denen der Staat oder der Betreiber des Marktes sowohl mögliche Transaktionen als auch Modelle und Vorgehensweise zur Preisfindung sowie Abwicklung der Transaktionen festlegt. Dies ist bspw. der Fall beim Handel von Wertpapieren. Der Betrieb des Marktes (die Börse) sowie die Teilnahme sind genehmigungs- und anmeldepflichtig, die Art der durchführbaren Geschäfte, die möglichen Produkte sowie die Art der Preisermittlung und Abwicklung einer Transaktion sind in Deutschland über das Börsen- und das Wertpapierhandelsgesetzt nahezu vollständig determiniert, zudem wird jede Transaktion von der Börsenaufsicht und der Bundesanstalt für Finanzdienstleistungsaufsicht überwacht. Außerdem verändern sich Märkte teilweise drastisch im Zeitablauf getrieben durch Veränderungen der Präferenzen der Kunden, Innovationen und technologischen Neuerungen auf Seite der Unternehmen und Regulierung durch den Staat und veränderte Institutionen sowie durch Rückwirkungen aus Veränderungen in anderen Märkten. Produktmärkte, Faktormärkte und Transaktionskosten Eine erste hilfreiche und vereinfachende Strukturierung ist, die Marktteilnehmer als Käufer (die Nachfrageseite) und Verkäufer (die Angebotsseite) eines Produktes, einer Dienstleistung oder eines sonstigen Gutes (bspw. Rechte, Informationen, Daten oder Derivate auf originäre Produkte) zu klassifizieren. Wenn die Angebotsseite durch Unternehmen gegeben ist, werden diese in Summe als Industrie (bspw. Telekommunikationsindustrie, Pharmaindustrie oder Finanzdienstleistungsindustrie) bezeichnet. Übergeordnet sind Wirtschaftszweige (wie bspw. verarbeitendes Gewerbe, Bildung oder Baugewerbe), untergeordnet sind Produkte (bspw. auf Basis der SIC/ ISIC-Klassifizierung als PKWs, Girokonten oder Smartphones). In Produktmärkten werden physische oder digitale Produkte zwischen Unternehmen (B2B) oder <?page no="28"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 28 zwischen Unternehmen und Kunden (B2C) gehandelt, in Faktormärkten werden Arbeit und Kapital als Einsatzfaktoren für Produktion und Dienstleistung auf dem Arbeitsmarkt und dem Kapitalmarkt gehandelt. Mit der Durchführung einer Transaktion auf einem Markt sind Kosten verbunden: Such- und Informationskosten der Marktteilnehmer, Provisionen, Dienstleistungen von Intermediären zur Anbahnung eines Vertragsabschlusses oder Abwicklung der Transaktion und die Nutzung des Marktes als solcher. Diese Kosten werden als Transaktionskosten bezeichnet. Da Transaktionskosten meist an den Übergang von Eigentumsrechten gebunden sind, führt ein verlässliches und allgemein akzeptiertes Rechtssystem zu einer Senkung von Transaktionskosten - umgekehrt erfordert ein schlechtes Rechtssystem jeweils umfangreiche Vertragsverhandlungen oder ggfs. Schmiergeldzahlungen und erhöht die Transaktionskosten. Wenn diese Transaktionskosten zu hoch sind, kommt eine Transaktion entweder nicht zustande, oder aber sie wird in einer anderen Institution - bspw. einem Unternehmen - abgebildet (► Kapitel 4). Umgekehrt bedeuten Transaktionskosten gleich Null, dass alle Marktteilnehmer vollständige Information besitzen - die Suche nach besseren Angeboten oder die Verhandlung von Preisen wären dann unnötig. Marktangebot, Marktnachfrage, Preise und Mengen Eine zentrale mikroökonomische Fragestellung ist, wie sich in einem Markt durch das Zusammenspiel von Käufern und Verkäufern Preise und Mengen bilden. Die Analyse von Märkten im Zusammenspiel von Angebot und Nachfrage versucht - aus unterschiedlichen Blickwinkeln - herauszufinden, welche Anzahl an Transaktionen, mit welchen Mengen und zu welchen Preisen, zustande kommen und wie groß die Erlöse, als Preis multipliziert mit Menge, sind. So wurden durch das Zusammenspiel von Angebot und Nachfrage 2016 in Deutschland 23,7 Mio. Smartphones zu einem durchschnittlichen Preis von 407 EUR verkauft (Statista 2017). Damit ergibt sich ein Erlös (gleichbedeutend mit Umsatz) im Gesamtmarkt von 9,65 Mrd. EUR. Um eine erste Erklärung für das Zustandekommen dieses Marktergebnisses zu verstehen, werden jetzt Nachfrageseite und Angebotsseite getrennt voneinander betrachtet. In ► Abbildung 1.4 links ist die (hypothetische) Nachfrage nach Smartphones in Deutschland abgebildet, die bspw. über eine Kundenbefragung der Zahlungsbereitschaft („Wären Sie bereit, für 150 EUR ein Smartphone zu kaufen? Würden Sie es auch für 250 EUR kaufen? “) ermittelt werden kann. Die individuelle Zahlungsbereitschaft eines Kunden gibt an, welchen Preis dieser Kunde maximal für ein Smartphone einer bestimmten Qualität oder Marke zu zahlen bereit wäre. In ► Abbildung 1.4 rechts sind die individuellen Zahlungsbereitschaften durch eine - hier vereinfachend linear angenäherte - Linie als Nachfragekurve des gesamten Marktes verbunden. Nachfragekurven können allerdings, abhängig von den tatsächlichen Marktforschungsdaten, auch nahezu beliebige andere funktionale Formen annehmen. Für eine lineare Nachfragefunktion können durch die Schnittpunkte mit der Preis- und Mengenachse jetzt zwei wichtige Informationen ermittelt werden: (1) Kein Kunde ist bereit, mehr als 1.000 EUR für ein Smartphone zu bezahlen, und (2) 40 Mio. Kunden würden ein Smartphone zu einem Preis von 0 (also geschenkt) annehmen. <?page no="29"?> Märkte, Angebot und Nachfrage 29 Abbildung 1.4: Zahlungsbereitschaft und Nachfragekurve für Smartphones. Die Nachfragekurve verläuft anhand unterschiedlicher Zahlungsbereitschaften der Kunden fallend: Je höher der Preis, desto niedriger ist die Nachfrage nach einem Produkt. Aus diesen Informationen lässt sich eine - hier vereinfachend linear angenommene - Nachfragefunktion rekonstruieren. Eine (inverse) Nachfragefunktion beschreibt den wechselseitigen funktionalen Zusammenhang zwischen nachgefragter Menge 𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 (in Mio. Smartphones) in Abhängigkeit des Preises 𝑝𝑝𝑝𝑝 (in EUR) bei sonst unveränderten Rahmenbedingungen, in diesem Beispiel als (1.1) 𝑝𝑝𝑝𝑝 𝐷𝐷𝐷𝐷 (𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 = 1000 − 25𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 . 𝑎𝑎𝑎𝑎 bezeichnet die maximale Zahlungsbereitschaft im Markt (hier 1000 EUR) und 𝑏𝑏𝑏𝑏 gibt die Steigung der Nachfragefunktion an, die hier wegen 𝑏𝑏𝑏𝑏 = 1000 40 = 25 beträgt. Mit jeder Preissenkung um 25 EUR steigt die nachgefragte Menge an Smartphones um 1 Mio. an. Umgekehrt kann man durch Division der maximalen Zahlungsbereitschaft mit der Steigung der Nachfragefunktion die maximale Nachfrage des Marktes als 𝑞𝑞𝑞𝑞 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 = 𝑚𝑚𝑚𝑚𝑏𝑏𝑏𝑏 = 1000 25 = 40 ermitteln, maximal 40 Mio. Stück. 1 𝑏𝑏𝑏𝑏 ist damit ein Indikator für die Größe der Nachfrage in einem Markt - je kleiner b ist, desto größer ist die maximale Nachfrage. Determinanten der Zahlungsbereitschaft der Kunden sowie des Verlaufs und der Lage der Nachfragekurve in einem Markt sind neben dem Preis auch das Einkommen, die Preise anderer Produkte, das Verhalten anderer Kunden, die Qualität der Produkte und das Marketing der Unternehmen (weiterführend ► Kapitel 2 und ► Kapitel 3) - so steigt die Nachfrage nach Smartphones mit steigendem Einkommen, aber insbesondere mit günstigen Datentarifen. In ► Abbildung 1.5 ist skizziert, dass eine Veränderung der Zahlungsbereitschaft aller Kunden die Nachfragekurve parallel verschiebt, eine Veränderung der Größe des Marktes führt zu einer Drehung der Nachfragekurve. Der fallende Verlauf der Nachfragekurve hat zwei Ursachen, die auf Preisveränderungen beruhen: Den Substitutionseffekt und den Einkommenseffekt. Der Substitutionseffekt beschreibt, dass Kunden bei steigenden Preisen auf vergleichbare Produkte ausweichen, weil diese relativ günstiger sind - so weichen einige Kunden bei steigenden Preisen von Samsung Smartphones auf kostengünstigere Alternativen aus. Der Menge q Preis p 0 1 10 individuelle Zahlungsbereitschaft verschiedener Kunden 1000 40 Menge q Preis p 0 1 10 1000 ist die höchste Zahlungsbereitschaft im Markt 1000 40 tatsächlich maximale Zahl der Kunden, wenn der Preis auf 0 gesenkt wird Nachfragekurve als modellhafte (hier lineare) Abbildung der Zahlungsbereitschaften der Kunden <?page no="30"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 30 Einkommenseffekt entsteht, weil bei konstantem Einkommen und gleichzeitig steigenden Preisen die Kaufkraft sinkt - Preissteigerungen bei Datentarifen führen dann dazu, dass bei gleichem Einkommen weniger Daten konsumiert werden können. Abbildung 1.5: Veränderungen der Nachfragefunktion. In gleicher Weise wie auf der Nachfrageseite kann man durch Befragung der Unternehmen oder Marktforschung deren individuelle Bereitschaft ermitteln, in Abhängigkeit eines erzielbaren Preises ein Smartphone anzubieten. Determinanten des Angebots sind neben dem erzielbaren Preis ganz wesentlich Technologie, Produktionskapazität und Kostensituation eines Unternehmen sowie die mit einem bestimmten Preis verbundene Gewinnerwartung, aber auch das Verhalten der Wettbewerber (vgl. weiterführend ► Kapitel 5, ► Kapitel 6, ► Kapitel 7 und ► Kapitel 10) - wenn die Kosten für die Herstellung von Touchscreens sinken, werden die meisten Smartphone-Hersteller ihre Produktion und das Angebot ausweiten, dagegen führen Produktionsausfälle bei Chiplieferanten zu einem Rückgang des Angebots. In ► Abbildung 1.6 links ist das (hypothetische) Angebot verschiedener Unternehmen angegeben, zu einem bestimmten Preis Smartphones am Markt anzubieten. Die individuelle Bereitschaft der Unternehmen, Smartphones anzubieten, steigt, je höher der erzielbare Preis ist. In ► Abbildung 1.5 rechts sind die individuellen Angebote der Unternehmen mit einer Angebotskurve des gesamten Marktes verbunden. Die Angebotsfunktion beschreibt den funktionalen Zusammenhang zwischen angebotener Menge 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 (wieder in Mio. Stück) in Abhängigkeit des Preises 𝑝𝑝𝑝𝑝 bei sonst unveränderten Rahmenbedingungen. Diese lässt sich - anlog zur Nachfragefunktion - rekonstruieren und ergibt sich als (1.2) 𝑝𝑝𝑝𝑝 𝑆𝑆𝑆𝑆 (𝑞𝑞𝑞𝑞) = 360 + 2𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 . Menge q Preis p 0 40 1 10 1000 Menge q Preis p 0 40 1 10 Menge q Preis p 0 40 1 10 Menge q Preis p 0 40 1 10 1000 25 50 32 ursprüngliche Nachfragefunktion Rückgang Zahlungsbereitschaft - a sinkt Anstieg Größe des Marktes - b sinkt Rückgang Größe des Marktes - b steigt 1000 1000 800 p = p q = a − bq = 1000 − 25q p = p q = a − bq = 800 − 25q p = p q = a − bq = 1000 − 20q p = p q = a − bq = 1000 − 40q <?page no="31"?> Märkte, Angebot und Nachfrage 31 Ab einem erzielbaren Preis von 360 EUR werden Smartphones angeboten, mit jedem zusätzlichen Marktpotenzial von 1 Mio. Stück werden Unternehmen in den Markt eintreten, die Produktion ausweiten und ihre Preise um 2 EUR erhöhen. Abbildung 1.6: Individuelles Angebot und Angebotskurve für Smartphones. Marktgleichgewicht und Marktpreis In einem stark vereinfachten Modell können nun Angebots- und Nachfragekurve zusammen betrachtet werden. Offensichtlich ergibt sich in ► Abbildung 1.7 links ein Schnittpunkt von Angebot und Nachfrage, der als Marktgleichgewicht wechselseitig die Menge und den Preis bestimmt. Ein Marktgleichgewicht ist die einzige Preis-Mengen-Kombination, an dem die nachgefragte Menge 𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 exakt der angebotenen Menge 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 entspricht. Durch den Schnittpunkt der beiden Kurven wird der Gleichgewichtspreis bestimmt, der die nachgefragte Menge und die angebotene Menge ausgleicht. Eine wesentliche Erkenntnis ist: Jeder Kunde, dessen Zahlungsbereitschaft größer oder gleich dem Gleichgewichtpreis ist, kann zu diesem Preis ein Smartphone kaufen - jedes Unternehmen, dass zu diesem Gleichgewichtspreis oder darunter bereit ist anzubieten, kann zu diesem Preis ein Smartphone verkaufen. Genau unter dieser Bedingung kommen Transaktionen zustande. Durch Gleichsetzen der beiden Funktionen (1.1) und (1.2) mit (1.3) 𝑝𝑝𝑝𝑝 𝐷𝐷𝐷𝐷 (𝑞𝑞𝑞𝑞) = 𝑝𝑝𝑝𝑝 𝑆𝑆𝑆𝑆 (𝑞𝑞𝑞𝑞) als (1.4) 1000 − 25𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 = 360 + 2𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 und Auflösen nach 𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 = 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 ergibt sich, dass im Marktgleichgewicht eine Menge von 𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 = 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 = 23,704 Mio. Smartphones angeboten werden. Setzt man diese Menge nun wieder entweder in die Nachfragefunktion (1.1) oder in die Angebotsfunktion (1.2) ein, ergibt sich ein Marktpreis von 𝑝𝑝𝑝𝑝 𝐷𝐷𝐷𝐷 (𝑞𝑞𝑞𝑞) = 𝑝𝑝𝑝𝑝 𝑆𝑆𝑆𝑆 (𝑞𝑞𝑞𝑞) = 407,41 EUR - beide Werte dieses einfachen Modells bestätigen die tatsächlich in Deutschland beobachteten Mengen und Preise im Jahr 2016 für den gesamten Markt hinreichend gut. Allerdings vereinfacht das Modell sehr stark: Man kann weder erkennen, wie viele Smartphones einzelne Unternehmen zu welchem Preis verkaufen, Menge q Preis p individuelles Angebot verschiedener Unternehmen in Abhängigkeit des Preises 0 40 1 360 1000 Menge q Preis p 0 40 1 Angebotskurve als modellhafte (hier lineare) Abbildung individueller Angebote der Unternehmen unter einem Preis von 360 EUR bietet kein Unternehmen ein Smartphone an bei einem Preis von 440 EUR werden 40 Mio. Smartphones angeboten 360 440 1000 <?page no="32"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 32 noch ist, wie anhand von ► Abbildung 1.7 rechts auf Basis der ursprünglichen Marktforschungsdaten deutlich wird, im realen Markt Preisdispersion zu beobachten, d.h., nicht jedes Smartphone gleicher Qualität und Marke wird zum gleichen Preis verkauft. Abbildung 1.7: Marktgleichgewicht als Schnittpunkt von Angebots- und Nachfragekurve. Ein einheitlicher Marktpreis und ein Marktgleichgewicht ist typisch und zu erwarten, wenn  die gehandelten Produkte absolut identisch sind, so dass keine Produktdifferenzierung vorliegt oder Kunden Präferenzen für einen bestimmten Verkäufer haben,  alle Marktteilnehmer über die gleichen vollständigen Informationen verfügen, also jeder Marktteilnehmer alle anderen Marktteilnehmer kennt und/ oder über deren Zahlungsbereitschaft und Preisvorstellung Kenntnis hat,  Wettbewerb zwischen den Verkäufern herrscht, d.h. keine Absprachen über Preise oder anderweitige strategische Verhaltensweisen vorliegen,  beide Marktseiten zahlreiche Marktteilnehmer haben, so dass keiner der Marktteilnehmer durch sein Verhalten Preise oder Mengen beeinflussen oder sogar festlegen kann, und  eine Koordination auf den Gleichgewichtpreis möglich ist, d.h. Preise sind per se flexibel und die Transaktionskosten der Marktteilnehmer sind vernachlässigbar klein. Wenn eine oder mehrere dieser Anforderungen nicht hinreichend erfüllt sind, kann es sein, dass unterschiedliche Marktpreise zu einem Zeitpunkt existieren. In den folgenden Kapiteln werden sukzessiv diese vereinfachenden Annahmen aufgehoben, um ein detailliertes Bild des Marktmechanismus, der Entscheidungen der Kunden und insbesondere der strategischen Entscheidungen der Unternehmen zu erhalten. Menge q Preis p 0 40 360 1000 407,4 23,7 Nachfragekurve Angebotskurve Menge q Preis p 0 40 1 360 1000 407,4 23,7 <?page no="33"?> Märkte, Angebot und Nachfrage 33 Ein Markt, für den die genannten Anforderungen allerdings recht gut erfüllt sind, ist der Aktienmarkt:  Eine Daimler-Aktie ist durch ihre ISIN DE0007100000 ein homogenes Produkt, die Preise an den verschiedenen Börsen sind bei Aktien sehr hoher Liquidität in jedem Zeitpunkt nahezu identisch, zudem spielt es für die Kunden keine Rolle, an welcher Börse oder über welchen Broker sie die Aktie kaufen.  Die Marktteilnehmer, d.h. Käufer und Verkäufer, können zu jedem Zeitpunkt das Orderbuch der jeweiligen Börsen einsehen - dort sind identisch zu einer Angebots- und einer Nachfragefunktion alle aktuell gebotenen Kauf- und Verkaufspreise und die jeweiligen Stückzahlen aufgelistet (  www.onvista.de/ aktien/ orderbuch/ Daimler-Aktie-DE0007100000 oder innerhalb der Deutschen Börse  www.boerse-frankfurt.de/ aktien/ orderbuch).  Alle Marktteilnehmer konkurrieren - jeder möchte für sich individuell den jeweils besten Verkaufs- oder Kaufpreis realisieren.  Beide Marktseiten bestehen aus vielen Tausend Marktteilnehmern und jeder Marktteilnehmer ist - relativ zur Größe des Marktes betrachtet - klein und kann den Aktienkurs (den Preis der Aktie) nicht maßgeblich beeinflussen.  Die Deutsche Börse (wie auch andere Börsenbetreiber) koordiniert Angebot und Nachfrage für jede Aktie zu jedem Zeitpunkt über Market Maker oder Designated Sponsors auf den Gleichgewichtspreis. In der Folge schwanken allerdings die Aktienpreise sehr stark: Ein Marktgleichgewicht bedeutet nicht stabile oder starre Preise, sondern ein nahezu sofortiger Ausgleich von Angebot und Nachfrage durch Preisflexibilität führt zu ständiger Preisanpassung und schwankenden Preisen. Marktmechanismus und Veränderungen eines Marktgleichgewichtes Ob ein Marktgleichgewicht erreicht wird, hängt unter anderem davon ab, ob Abweichungen von einem Marktgleichgewicht im Zeitablauf durch Mengen- und Preisanpassungen korrigiert werden. In ► Abbildung 1.8 links liegt ein Preis 𝑝𝑝𝑝𝑝 1 zufällig über dem Gleichgewichtspreis 𝑝𝑝𝑝𝑝 0 . In der Folge übersteigt bei diesem Preis 𝑝𝑝𝑝𝑝 1 das Angebot der Unternehmen die Nachfrage der Kunden, so dass es zu einem Überschussangebot kommt - bspw. in Form zu viel produzierter Ware oder einem hohen Lagerbestand. Dieses Überschussangebot können die Unternehmen beseitigen, indem sie die Preise von 𝑝𝑝𝑝𝑝 1 auf 𝑝𝑝𝑝𝑝 0 senken. Damit steigt die nachgefragte Menge der Kunden an und das Marktergebnis bewegt sich in Richtung des Marktgleichgewichtes. <?page no="34"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 34 Abbildung 1.8: Überschussangebot und Überschussnachfrage. Analog, in ► Abbildung 1.8 rechts dargestellt, folgt aus einem Preis 𝑝𝑝𝑝𝑝 2 < 𝑝𝑝𝑝𝑝 0 eine Überschussnachfrage. Die Unternehmen können nun die Preise erhöhen, in der Folge geht die nachgefragte Menge zurück und das Marktgleichgewicht wird wieder erreicht. Ohne Preisflexibilität und die ausgleichende Wirkung der Preise kann kein Marktgleichgewicht erreicht werden. Abbildung 1.9: Verschiebung von Angebots- oder Nachfragefunktion und Anpassung des Marktgleichgewichtes. In ähnlicher Weise wird ein neues Markgleichgewicht determiniert, wenn sich die Rahmenbedingungen im Markt ändern und sich die Angebotsund/ oder Nachfragekurve verschieben. In ► Abbildung 1.9 links erhöhen die Unternehmen für jeden Preis ihre angebotene Menge, so dass sich die Angebotskurve nach rechts verschiebt. Der Grund hierfür könnten bspw. Kostensenkungen bei Zulieferern sein. In der Folge wird das höhere Angebot auch verkauft, allerdings müssen die Unternehmen die Preise reduzieren, um die höhere Produktionsmenge zu verkaufen. In ► Abbildung 1.9 rechts steigt die Nachfrage - bspw. aufgrund Menge q Preis p 0 q 0 p 0 D S p 1 Überschussangebot: S > D q D q S Menge q Preis p 0 q 0 p 2 D S p 0 Überschussnachfrage: D > S q S q D Menge q Preis p 0 q 0 p 0 D S S‘ p 1 q 1 Menge q Preis p 0 q 0 p 0 D S p 1 q 1 D‘ <?page no="35"?> Märkte, Angebot und Nachfrage 35 zunehmenden Einkommens. In der Folge verschiebt sich die Nachfragekurve nach rechts - die Unternehmen können jetzt mehr absetzen und zudem die Preise erhöhen. Wie stark diese Effekte sind, wird wesentlich durch den Verlauf und die Steigung der Nachfrage- und der Angebotskurve bestimmt und in ► Kapitel 1.3 erläutert. Die Effekte der Anpassung an ein (neues) Marktgleichgewicht in ► Abbildung 1.8 und ► Abbildung 1.9 erfordern je nach Marktsituation, Informationsstand der Marktteilnehmer und Ausmaß der Anpassung natürlich Zeit und einen Lernprozess der Marktteilnehmer - man kann nicht davon ausgehen, dass jeder Markt zu jedem Zeitpunkt im Gleichgewicht ist, sondern man wird in der Regel dynamische Anpassungsprozesse beobachten.  Fragen │ Warum funktionieren Märkte so gut, warum ist der Staat ein schlechter Unternehmer? Um in einer Gesellschaft gute oder sogar bestmögliche ökonomische Lösungen zu erreichen, konkurrieren prinzipiell drei verschiedene Institutionen: der Markt, die Unternehmen und der Staat. Welche Institution die besten Lösungen effizient hervorbringt, kann nicht allgemein gesagt werden - es hängt davon ab, welches Problem zu lösen ist, welche Anreize im Fall der Problemlösung gegeben sind, und ob der Marktmechanismus funktioniert. In zahlreichen Ländern entstehen gerade - aus Unzufriedenheit mit Lösungen, die Märkte hervorbringen - Forderungen, vermeintliche ‚kapitalistische Märkte‘ zugunsten von ‚mehr Staat‘ zurückzudrängen (weiterführend Fuest 2020). Grundlegend ist zunächst zu erkennen, dass Märkte selbst eine gesellschaftliche Innovation sind. Märkte erlauben ein Ausprobieren von neuen Produkten oder Geschäftsmodellen, in denen sich gute Ideen gegen schlechte Ideen durchsetzen und damit Anreize für Unternehmen oder Konsumenten haben, sich nach besten Lösungen umzusehen (von Hayek 1968 und 1975). Das funktioniert so gut, weil Unternehmen und Kunden eindeutige Zielfunktionen haben - Unternehmen wollen Gewinne erzielen, um Überlebensfähig zu sein, Kunden wollen ihren Präferenzen entsprechend konsumieren, um ihren Nutzen und ihre Zufriedenheit zu steigern. Deshalb setzen Unternehmen und Entrepreneure auch neue Ideen und Innovationen um: Sie versprechen sich davon Gewinne. Beide Marktseiten haben also Anreize, nach besseren Lösungen zu suchen: Dieser dezentrale Such- und Koordinationsprozess ist der Kern der zuerst von Adam Smith (1776) beschriebenen unsichtbaren Hand, die Märkte koordiniert und in der Wirkung des Preismechanismus sichtbar wird. Märkte erzeugen Information, unter anderem in Form von Preisen. Wenn ein Kunde mit einem Verkäufer über einen Preis verhandelt, verdichten beide alle vorhandenen Informationen (Produktionskosten oder die Wettbewerbssituation auf Seite des Verkäufers, Zahlungsbereitschaft und alternative Produkte auf Seite des Kunden) in eine einzige Zahl - die dann alle relevanten Informationen in Form eines Preises enthält. Hohe Preise zeigen Knappheit und mögliche Gewinne an, niedrige Preise zeigen fehlende Attraktivität der Lösung und kaum Gewinnmöglichkeiten an, und steuern so unsichtbar das Handeln von Unternehmen und Konsumenten in Märkten. Hohe Preise signalisieren für Unternehmen Anreize für Innovation oder <?page no="36"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 36 schaffen neue Marktsegmente, niedrige Preise lenken indirekt Ressourcen (Ideen, Anstrengungen, Kapital und Arbeit) hin in effiziente Einsatzmöglichkeiten mit höherer Rentabilität. Die Suche der Kunden nach guten Lösungen wird auch an Supermarktkassen sichtbar: Die Wartezeit an allen Kassen ist in etwa gleich lang, weil alle Kunden nach der schnellsten Kasse Ausschau halten und damit im Wettbewerb ihr Verhalten optimieren - in der Folge sind alle Warteschlangen zu jedem Zeitpunkt fast gleich lang (Frank 2011). In ähnlicher Weise stehen alle Kunden an der ‚besten Eisdiele‘ an und signalisieren so anderen Kunden hohe Qualität oder bestes Preis-Leistungs-Verhältnis. In diesem Sinn schaffen Märkte regelmäßig spontane Ordnung in Situation, die ein zentraler Koordinator kaum überschauen oder steuern könnte (Sugden 1989 und Preda 2009). Märkte koordinieren also Transaktionen zwischen Unternehmen und Kunden und schaffen evolutorisch und dezentral die dazu notwendige Ordnung oder Struktur: Niemand erfindet einen Markt - ein Markt entsteht und organisiert sich von selbst, weil er für alle Marktteilnehmer vorteilhaft ist. Die Koordination im Markt erfolgt ohne zentrale Steuerung, vielmehr passen sich die Strukturen dezentral und dynamisch den Anforderungen der Marktteilnehmer an. Märkte, die eine große Menge an Informationen hervorbringen oder verarbeiten können, führen dann zu effizienten Lösungen und optimalen Transaktionen. Umgekehrt behindern Informationsasymmetrie und fehlende Informationen die Funktionsfähigkeit und Effizienz von Märkten. Geringe Informationsdichte, schlechte oder falsche Informationen können zu Spekulation und Blasenbildung in Märkten führen, oder einen Markt zusammenbrechen lassen. Anders als Unternehmen und Kunden hat der Staat keine eindeutige ökonomische Zielfunktion: Die Steigerung des Gemeinwohls in der Gesamtheit einer Gesellschaft ist ein ungleich komplexeres Problem - es beinhaltet unter anderem Ziele der Gleichheit, der Verteilungsgerechtigkeit, der Freiheit und der Sicherheit - zumal die Wahl der Maßnahmen und Methoden zur Erreichung dieses Ziels der politischen Willensbildung unterliegen. Zudem kennt der Staat weder alle Produktionsmöglichkeiten (bspw. Technologien oder Ressourcen), noch die Präferenzen aller Konsumenten - es liegt somit ein umfangreiches Informationsdefizit vor, dass eine zentrale Planung ökonomischer Aktivitäten durch den Staat unmöglich macht. Dies wird ums so deutlicher sichtbar, wenn sich Präferenzen der Kunden oder technologische Möglichkeiten im Zeitablauf verändern. Dies erklärt, weshalb der Staat in Märkten nur unternehmerisch agieren sollte, wenn dort, wo es gesellschaftlich notwendig erscheint, Unternehmen und Konsumenten nicht zu Transaktionen finden. In anderen Fällen findet der Staat, mangels hinreichender Anreize, wegen Informationsdefiziten und aufgrund des Fehlens von eindeutigen Zielen, oft keine guten Lösungen - in der Folge ist staatliches Handeln in Märkten häufig ineffizient und an den Interessen der Kunden vorbei. In diesem Sinn ist der Staat regelmäßig kein guter Unternehmer, so dass sich Unternehmen in staatlicher Hand oder mit signifikanter staatlicher Beteiligung in der Regel schlechter entwickeln und eine geringere Profitabilität aufweisen, als vergleichbare Unternehmen im Eigentum von privaten oder institutionellen Anteilseignern (Dewenter und Malatesta 2001, Boardman und Vining 1989 sowie ► Kapitel 7.4). Im Extremfall - wie in der Vergangenheit in kommunistischen oder <?page no="37"?> Märkte, Angebot und Nachfrage 37 sozialistischen Staaten - reduziert der Staat die ökonomische Wahlfreiheit und bestimmt bürokratisch Ausbildung und Berufe von Individuen, definiert den Unternehmenszweck, die Qualität von Produkten, gibt Produktionsmengen vor und legt Preise fest. Häufige Folge sind fehlende Waren und Lieferengpässe, schlechte Qualität, lange Warteschlangen bei begehrten Produkten, Schwarzmärkte, und schließlich ein Ausbleiben von Innovationen sowie ökonomischer und gesellschaftlicher Niedergang. Daneben kann es aber sein, dass kein Marktgleichgewicht zustande kommt:  Angebots- und Nachfragekurve schneiden sich nicht - dies kann eintreten, wenn grundsätzlich die Zahlungsbereitschaft aller Kunden unterhalb der Preisvorstellungen der Unternehmen liegen: Dies ist regelmäßig in der Pharmaindustrie und bei Medikamentenpreisen der Fall, so dass die Medikamente weder entwickelt werden, noch gekauft werden können.  Nicht-Ausschließbarkeit des Konsums - es kann sein, dass ein Unternehmen nicht ausschließen kann, dass Kunden, die nicht bezahlt haben, trotzdem das Produkt nutzen: Dies ist bspw. der Fall bei öffentlichem Rundfunk oder Leuchttürmen. Ein Unternehmen wird diese Produkte oder Dienstleistungen nicht anbieten, weil entweder kein Preis erhoben werden kann, oder das Preismodell nicht effizient wäre, so dass keine Gewinne erzielt werden können. Derartige Produkte werden als öffentliche Güter bezeichnet und meist vom Staat angeboten.  Informationsdefizite - Käufer und Verkäufer haben entweder keine vollständige Transparenz über die Produkte oder über Angebot und Nachfrage (unvollständige Information), oder Marktteilnehmer sind unterschiedlich gut informiert (asymmetrische Information). Der Abschluss einer Transaktion wird durch diese beiden Informationsdefizite gefährdet oder sogar verhindert. Dies kann bei Gebrauchtwaren passieren: Akerlof (1970) hat beschrieben, dass Verkäufer vor Vertragsabschluss bessere Informationen betreffs des Produktes besitzen - bspw. eines gebrauchten Fahrzeugs. Wenn Käufer vor Vertragsabschluss die Qualität eines gebrauchten Fahrzeugs nicht eindeutig ermitteln können, werden die Käufer per se schlechte Qualität annehmen und dementsprechend eine geringe Zahlungsbereitschaft haben. In der Folge sind ‚gute Gebrauchtwagen‘ zu hohen Preisen nahezu unverkäuflich und werden vom Markt verdrängt, so dass nur noch ‚schlechte Gebrauchtwagen‘ zu niedrigen Preisen angeboten werden - damit sind sowohl Verkäufer als auch potenzielle Käufer ‚guter Gebrauchtwagen‘ benachteiligt (vgl. weiter auch ► Kapitel 3 zu Risiko und Unsicherheit, ► Kapitel 4 zur Principal-Agent-Theorie und ► Kapitel 7 zu Marktversagen). In allen diesen Fällen liegt Marktversagen vor - der Markt existiert entweder nicht oder funktioniert nur sehr eingeschränkt - und es kann zu staatlichem Handeln kommen, indem der Staat entweder den Markt bereitstellt, den Markt reguliert oder selbst als staatliches Unternehmen aktiv wird. Derartige Fälle werden entsprechend im Rahmen von Wirtschafts- und Wettbewerbspolitik diskutiert (vgl. weiterführend Fritsch 2011 sowie ► Kapitel 7.4). Bei öffentlichem Rundfunk greift der Staat in Deutschland durch Gebührenfinanzierung in den Markt ein, Leuchttürme werden steuerfinanziert als öffentliche Güter an der Küste aufgestellt, im Gesundheitsmarkt werden verschiedene wirtschaftspolitische Instrumente der Preisbin- <?page no="38"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 38 dung von Medikamenten, der Pflichtmitgliedschaft in Krankenversicherung sowie der Subvention von F&E-Aufwendungen kombiniert. Bei Informationsasymmetrie versucht der Staat oder ein Marktbetreiber durch Garantien oder Zertifikate, bei Gebrauchtwagen durch die TÜV- Plakette, die Informationsasymmetrie zu reduzieren. Aus diesem Grund bewähren sich auch Händlerbewertungen auf Auktionsplattformen wie eBay: Die Produktqualität wird indirekt durch die Bewertung der Händler erkennbar.  Case Study │ Wasserflaschenpark Marktgleichgewichte und Gleichgewichtspreise können unter anderem dann zustande kommen, wenn - wie oben angeführt - keine Informationsasymmetrie vorliegt, keine Transaktionskosten anfallen und ein Koordinationsprozess auf den Gleichgewichtspreis stattfindet. Das nachfolgende Beispiel soll diese Punkte herausstellen - was passiert, wenn diese Rahmenbedingungen nicht erfüllt sind? Die zehn potenziellen Verkäufer und die zehn potenziellen Käufer von Wasserflaschen aus ► Abbildung 1.1 befinden sich immer noch im Park. Eine kurze, mit den jeweiligen Marktteilnehmern individuell durchgeführte Marktforschung hat bei den durstigen Menschen eine Zahlungsbereitschaft wie in ► Abbildung 1.10 links gezeigt ergeben: Kunde K1 wäre bereit 5 EUR zu zahlen, Kunde K2 4,50 EUR und so fort in Schritten von 0,50 EUR bis zu Kunde K10 mit 0,50 EUR. Ebenso wurden die Besitzer der Wasserflaschen befragt, zu welchem Preis 𝑝𝑝𝑝𝑝 sie ihre Wasserflasche verkaufen würden - die Werte sind ebenfalls in ► Abbildung 1.10 links eingetragen: Verkäufer V1 würde für 0,50 EUR verkaufen bis aufsteigen in 0,50 EUR Schritten hin zu Verkäufer V10 mit einer Preisvorstellung von 5 EUR. Wie viele Flaschen Wasser werden nun zu welchem Preis gehandelt? Die Antwort auf diese Frage hängt signifikant von den Institutionen des Marktes und dem Informationsgrad der Marktteilnehmer ab. In einem Markt ohne Transaktionskosten und bei vollständiger Information würde ein (hypothetischer und ebenfalls kostenloser) Marktkoordinator die Angebots- und Nachfragekurven auf Basis der Zahlungsbereitschaften und der Preisvorstellungen als (1.5) 𝑝𝑝𝑝𝑝 𝑆𝑆𝑆𝑆 (𝑞𝑞𝑞𝑞) = 0 + 0,5𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 und (1.6) 𝑝𝑝𝑝𝑝 𝐷𝐷𝐷𝐷 (𝑞𝑞𝑞𝑞) = 5,5 − 0,5𝑞𝑞𝑞𝑞 𝐷𝐷𝐷𝐷 <?page no="39"?> Märkte, Angebot und Nachfrage 39 ermitteln und den Gleichgewichtspreis am Schnittpunkt beider Funktionen als 𝑝𝑝𝑝𝑝 𝑆𝑆𝑆𝑆 = 𝑝𝑝𝑝𝑝 𝐷𝐷𝐷𝐷 = 2,75 berechnen. Diesen Wert teilt er dann allen potenziellen Käufern und Verkäufern mit: K1 bis K 5 und V1 bis V5 werden unmittelbar zu diesem Preis Transaktionen abwickeln. Der Grund dafür ist, dass ihre Zahlungsbereitschaften über dem Preis resp. ihre Preisvorstellungen unter dem Preis liegen - alle führen Transaktionen aus, die mindestens ihren ursprünglichen Erwartungen entsprechen. D.h., es finden fünf Transaktionen zu einem Preis von 2,75 EUR und Gesamterlösen von 13,75 EUR statt. Dieses Ergebnis kann in der Realität tatsächlich entstehen, allerdings nur bei vollständiger Information aller Marktteilnehmer und einem Koordinationsprozess auf den Gleichgewichtpreis, der insbesondere durch wechselseitiges Lernen im Zeitablauf entstehen kann - dies ist in vielen Märkten der Fall, in denen aufgrund von bisherigen Geschäftsbeziehungen oder aber durch Big Data und die Verfügbarkeit von Preisen im Internet hohe Transparenz über Zahlungsbereitschaften der Kunden und Preisvorstellungen der Anbieter vorliegen. 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5 5,5 0 1 2 3 4 5 6 7 8 9 10 11 Preis p Menge q p(q) = 5,5 - 0,5q p(q) = 0 + 0,5 q <?page no="40"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 40 Abbildung 1.10: Nachfrage und Angebot an Wasserflaschen. 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5 5,5 0 1 2 3 4 5 6 7 8 9 10 11 Preis p K1 K2 K10 V10 V1 V2 K9 V9 K3 K4 K5 K6 K7 K7 V3 V4 V5 V6 V7 V8 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5 5,5 0 1 2 3 4 5 6 7 8 9 10 11 Preis p K1 K2 V1 V2 K3 K4 K5 V3 V4 V5 11 Menge q Menge q <?page no="41"?> Märkte, Angebot und Nachfrage 41 Transaktionen können aber generell dann zustande kommen, wenn die Zahlungsbereitschaft mindestens dem geforderten Preis entspricht. In ► Abbildung 1.10 sind zwei weitere - von sehr vielen - möglichen Institutionen eingezeichnet, die beschreiben, wie dieser Markt funktionieren könnte und wie Preise und Mengen zustande kommen. In der Mitte in ► Abbildung 1.10 ist der Fall beschrieben, in dem Käufer K1 zufällig horizontal auf Verkäufer V10 trifft. Die Zahlungsbereitschaft von 5,00 EUR entspricht genau dem geforderten Preis von 5,00 EUR, so dass eine Transaktion stattfindet. In der Folge kann es - wie eingezeichnet K2 mit V9, K3 mit V8, usw. - zufällig zu neun weiteren derartigen horizontalen Transaktionen kommen, in denen jeweils der von den Verkäufern geforderte Preis zustande kommt und die Kunden ihrer individuellen Zahlungsbereitschaft entsprechend bezahlen. In Summe werden zehn Transaktionen mit Erlösen von 27,50 EUR durchgeführt, der Durchschnittspreis jeder Wasserflasche entspricht mit 2,75 EUR exakt dem Gleichgewichtspreis - wobei jetzt aber jeder Kunde einen anderen Preis zahlt. Unten in ► Abbildung 1.10 ist eine weitere denkbare Konstellation abgebildet - statt horizontaler Transaktionen finden jetzt vertikale Transaktionen statt. Tatsächlich sind nun nicht mehr zehn, sondern nur noch fünf Transaktionen möglich. Welcher Preis in diesen Paarungen bezahlt wird, hängt davon ab, wie und in welcher Reihenfolge Informationen ausgetauscht werden - falls immer zuerst der Verkäufer seinen niedrigen Preis nennt und die Käufer darauf eingehen, wird ein Erlös von 7,50 EUR und ein Durchschnittspreis von 1,50 EUR erzielt; nennt immer zuerst der Kunde seine Zahlungsbereitschaft, betragen die Erlöse 20 EUR bei einem Durchschnittspreis von 4,00 EUR; wenn Verhandlungen zwischen beiden stattfinden, kann der Preis auch dazwischen liegen (vgl. auch ► Tabelle 1.1). Marktergebnisse im Wasserflaschenpark Modell Marktgleichgewicht horizontale Transaktionen vertikale Transaktionen (1) vertikale Transaktionen (2) ohne TK mit TK ohne TK mit TK ohne TK mit TK ohne TK mit TK Anzahl Transaktionen 5 4 10 8 5 4 5 4 Durchschnittspreis 2,75 2,75 2,75 2,75 4,00 3,75 1,50 1,75 höchster Preis 2,75 2,75 5,00 4,50 5,00 4,50 2,50 3,00 niedrigster Preis 2,75 2,75 0,50 1,50 3,00 3,00 0,50 1,00 Erlös 13,75 11,00 27,50 22,00 20,00 15,00 7,50 7,00 Tabelle 1.1: Marktergebnisse im Wasserflaschenmarkt. <?page no="42"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 42 Schließlich kann es - in allen drei Fällen - sein, dass Transaktionskosten entstehen, bspw. in Form der Informationsbeschaffung oder des Informationsaustausches, die faktisch einer Teilnahmegebühr für den Markt entspricht. In ► Tabelle 1.1 sind die resultierenden Effekte für alle Marktmechanismen angegeben unter der Annahme, dass jede Marktseite pro potenzieller Transaktion einen Betrag von 0,50 EUR bezahlen muss - so erhöht sich natürlich die Preisvorstellung jedes Verkäufers um 0,50 EUR, gleichzeitig sinkt die Zahlungsbereitschaft jedes potenziellen Käufers um 0,50 EUR. In der Folge gehen die Zahl der Transaktionen und die Erlöse im Markt zurück, niedrige und hohe Preise werden tendenziell aus dem Markt eliminiert. Welches der möglichen Marktergebnisse in der Realität tatsächlich eintritt, hängt vom Informationsaustausch und der Wettbewerbsdynamik im Markt ab. Unterschiedliche Marktmechanismen, Informationsasymmetrie oder unvollständige Information, die Abfolge von Transaktionen und die Höhe von Transaktionskosten können zu sehr unterschiedlichen Marktergebnissen - Preisen, Mengen und Erlösen - führen. Die beiden Fälle vertikaler und horizontaler Transaktionen zu jeweils unterschiedlichen Preisen können nur bei starker und dauerhafter Informationsasymmetrie der Marktteilnehmer und fehlendem Wettbewerb der Verkäufer untereinander entstehen oder Bestand haben - ein weiterer Beleg dafür, dass ein Gleichgewichtspreis bei Wettbewerb und bei im Zeitablauf lernenden Marktteilnehmern entstehen kann. 1.3 Preiselastizität und Grenzerlöse Eine zentrale Managementaufgabe ist - neben den Gewinnen - die Umsätze (Erlöse) zu steigern. Dies gilt insbesondere für Geschäftsmodelle mit hohen Fixkosten und niedrigen variablen Kosten. So ist für die Deutsche Bahn, für ein Museum, aber auch für ein Mobilfunkunternehmen die Kostenbasis mittelfristig unveränderbar und unabhängig der tatsächlichen Zahl an Kunden. Entscheidungen zielen dann wesentlich auf Umsatzsteigerungen. Gerade zum Jahresende, wenn die geplanten Umsatzziele noch nicht erreicht sind, werden oft Preissenkungen durchgeführt - ob das Ziel einer Umsatzsteigerung durch Preissenkungen erreicht werden kann, hängt von der Preiselastizität der Nachfrage ab: Die Preiselastizität der Nachfrage beschreibt, wie stark der Effekt einer Preisänderung auf die nachgefragte Menge ist. Unternehmen versuchen oft, durch Preissenkungen den Absatz zu steigern - Grundlage für diese Überlegung ist der fallende Verlauf der Nachfragekurve: Bei reduziertem Preis steigt typischerweise die von den Kunden nachgefragte Menge. Dabei verfolgen Unternehmen, offenbar mit sehr unterschiedlichem Erfolg, verschiedene Strategien:  Praktiker - über viele Jahre hat die damals europaweit tätige Baumarktkette mit dem Marketingslogan „20 % auf alles. Außer Tiernahrung“ und entsprechend regelmäßigen Preissenkungen bundesweit geworben. Nach einem Verlust von 555 Mio. EUR im Jahr 2011 stellte Praktiker 2013 beim Amtsgericht Saarbrücken einen Insolvenzantrag, der Geschäftsbetrieb wurde 2014 vollständig eingestellt, in der Folge verloren etwa 20.000 Menschen ihren Job. <?page no="43"?> Preiselastizität und Grenzerlöse 43  Edeka - seit vielen Jahrzehnten verteilt Edeka wöchentlich, über Mailings oder als Beilage in kostenlosen Zeitungen, regionale Angebotsblätter. Dort werden differenzierte Preissenkungen für einzelne Produkte wochenweise angekündigt - bspw. 4 % auf Glasreiniger, 7 % auf Geschirrspülmittel oder 3 % auf Kaffee. Edeka erzielte 2014 einen Gewinn vor Steuern von 355 Mio. EUR und gehört zu den erfolgreichsten Retailern weltweit. Preiselastizität der Nachfrage Ein analytisches Framework, um zu überprüfen, wie stark der Effekt einer Preissenkung auf die nachgefragte Menge der Kunden ist, ist die Preiselastizität der Nachfrage. Die Grundüberlegung einer Preisänderung ist in ► Abbildung 1.11 links dargestellt: In Abhängigkeit der Steigung der Nachfragekurve führt eine Preissenkung zu einem unter- oder überproportionalen Anstieg der Nachfrage, genauso wird eine Preiserhöhung einen unter- oder überproportionalen Rückgang der nachgefragten Menge zur Folge haben. Für die Nachfragefunktion (1.7) 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 𝑎 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 = 100 𝑎 0,02𝑞𝑞𝑞𝑞 sind ausgehend von einem aktuellen Preis 𝑝𝑝𝑝𝑝 0 = 20 diese Effekte berechnet: Die Menge verändert sich ausgelöst durch eine 1 %-Preisänderung um jeweils 0,25 %. Abbildung 1.11: Preisänderungen und Auswirkungen auf die nachgefragte Menge. Die Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 beschreibt die prozentuale Veränderung der nachgefragten Menge infolge einer 1 %-Preisänderung. Sie kann durch endliche Differenzen von nachgefragter Menge ∆𝑞𝑞𝑞𝑞 und Preisen ∆𝑝𝑝𝑝𝑝 in Bezug zum ursprünglichen Niveau der Menge 𝑞𝑞𝑞𝑞 und des Preises 𝑝𝑝𝑝𝑝 als (1.8) 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑚𝑚𝑚𝑚𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑀𝑀𝑀𝑀𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝ä𝑝𝑝𝑝𝑝𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑀𝑀𝑀𝑀 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑚𝑚𝑚𝑚𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑃𝑃𝑃𝑃𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃ä𝑝𝑝𝑝𝑝𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑀𝑀𝑀𝑀 = ∆𝑞𝑞𝑞𝑞/ 𝑞𝑞𝑞𝑞 ∆𝑝𝑝𝑝𝑝/ 𝑝𝑝𝑝𝑝 = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 ∆𝑞𝑞𝑞𝑞 ∆𝑝𝑝𝑝𝑝 ermittelt werden oder auch für ∆→ 0 auf Basis eines Differentials als (1.9) 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 beschrieben werden. Eine Elastizität misst allgemein die marginale prozentuale Auswirkung (den Effekt) einer prozentualen Veränderung einer Variable im Nenner auf eine andere Variable im Zähler - hier einer Preisänderung und deren Effekt auf die nachgefragte Menge. Die Preiselastizität im vorangegangenen Beispiel beträgt q p 0 A B 4000 3990 20,0 20,2 C 19,8 4010 +1 % -1 % -0,25 % +0,25% q p 0 Preiserhöhung (1 % nach oben) Preissenkung (1 % nach unten) A B C Anstieg der Menge (x % mehr) Rückgang der Menge (y % weniger) <?page no="44"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 44 (1.10) 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝(20→20,2) = −10/ 4000 0,2/ 20 = 20 4000 −10 0,2 = −0,25 und (1.11) 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝(20→19,8) = 10/ 4000 −0,2/ 20 = 20 4000 10 −0,2 = −0,25 , die Werte sind beide negativ und gleich groß. Die Ursache für das negative Vorzeichen ist der fallende Verlauf der Nachfragekurve - Preisänderungen haben in diesem Fall immer gegenläufige Mengeneffekte zur Folge. Dass die Effekte gleich groß sind, liegt daran, dass der Ausgangspunkt der Preisänderung derselbe ist. Dies wird anhand von ► Abbildung 1.12 deutlich - hier sind Preiselastizitäten für die Nachfragefunktion (1.7) an verschiedenen Positionen der Nachfragefunktion (1.7) berechnet. Die Preiselastizität der Nachfrage strebt für sehr kleine Preise gegen Null: Eine Preisänderung hat dort nahezu keinen Effekt auf die nachgefragte Menge. Umgekehrt strebt die Preiselastizität der Nachfrage gegen minus unendlich bei Preisen nahe der maximalen Zahlungsbereitschaft der Kunden. Abbildung 1.12: Preiselastizität entlang einer linearen Nachfragekurve. Offenbar kann die Preiselastizität zwei unterschiedliche Ausprägungen annehmen:  Unelastische Nachfrage - wenn die Preiselastizität der Nachfrage zwischen 0 und -1 liegt, führt eine Preisänderung zu einem unterproportionalen Effekt auf die nachgefragte Menge - die prozentuale Preisänderung ist größer als die prozentuale Mengenänderung.  Elastische Nachfrage - wenn die Preiselastizität der Nachfrage zwischen -1 und minus unendlich liegt, führt eine Preisänderung zu einem überproportionalen Effekt auf die nachgefragte Menge - die prozentuale Preisänderung ist kleiner als die prozentuale Mengenänderung. Ein Unternehmen kann anhand der Höhe der Preiselastizität der Nachfrage abschätzen, wie stark sich die Nachfrage bei einer Preiserhöhung oder Preissenkung verändert. Dazu kann Gleichung (1.9) umgestellt werden zu p unelastisch elastisch q 0 5000 100 Δp ΔQ ε p → 0 ε p → - ∞ ε p = - 1 50 2500 ε p = - 1,5 2000 60 20 4000 ε p = - 0,25 <?page no="45"?> Preiselastizität und Grenzerlöse 45 (1.12) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 = 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 ⋅ 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝 , d.h. die prozentuale Änderung der Menge 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 ergibt sich aus Multiplikation der prozentualen Preisänderung 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝 mit der (hier konstant angenommenen) Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 . Beträgt die Preiselastizität 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 = −4 , dann ergibt sich bei einer geplanten Preissenkung von 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝 = −5 % über (1.13) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 = 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 ⋅ 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝 = −4 ⋅ −5 % = 20 % , dass die nachgefragte Menge um 20 % steigen wird. Entsprechend würde bei einer Preiserhöhung von 3,5 % die Menge wegen 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 ⁄ = −4 ⋅ 3,5 % = −14 % um 14 % zurückgehen. Allgemein kann die Preiselastizität der Nachfrage anhand einer Nachfragefunktion (1.14) 𝑝𝑝𝑝𝑝 = 𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 mittels eines totalen Differentials (der Ableitung nach allen Variablen) zu (1.15) 𝑑𝑑𝑑𝑑𝑝𝑝𝑝𝑝 = 𝑑𝑑𝑑𝑑𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏𝑑𝑑𝑑𝑑𝑞𝑞𝑞𝑞 − 𝑞𝑞𝑞𝑞𝑑𝑑𝑑𝑑𝑏𝑏𝑏𝑏 ermittelt werden. Wenn die maximale Zahlungsbereitschaft 𝑎𝑎𝑎𝑎 und die Größe des Marktes 𝑏𝑏𝑏𝑏 unverändert bleiben, dann gilt 𝑑𝑑𝑑𝑑𝑎𝑎𝑎𝑎 = 0 und 𝑑𝑑𝑑𝑑𝑏𝑏𝑏𝑏 = 0 , so dass sich Gleichung (1.15) zu (1.16) 𝑑𝑑𝑑𝑑𝑝𝑝𝑝𝑝 = −𝑏𝑏𝑏𝑏𝑑𝑑𝑑𝑑𝑞𝑞𝑞𝑞 vereinfacht. Der absolute Effekt einer Preisänderung auf die nachgefragte Menge beträgt dann (1.17) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 = − 1 𝑏𝑏𝑏𝑏 , so dass sich, bezogen auf die aktuelle Preis-Mengen-Kombination 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 die Preiselastizität als (1.18) 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 = − 1 𝑏𝑏𝑏𝑏 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 ergibt. Bei einer linearen Nachfragefunktion wird die Preiselastizität durch die inverse Steigung 1 𝑏𝑏𝑏𝑏 und die aktuelle Preis-Mengen Kombination 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 bestimmt. Determinanten und empirische Werte der Preiselastizität Die Preiselastizität der Nachfrage wird empirisch wesentlich durch vier Größen bestimmt, die aus Managementperspektive vor einer geplanten Preisänderung analysiert werden müssen:  Dringlichkeit der Nachfrage - wenn ein Produkt (tatsächlich oder vom Kunden empfunden) dringend benötigt wird, dann ändert eine Preiserhöhung die Nachfrage nur in geringem Maß oder überhaupt nicht. Je höher die Dringlichkeit ist, desto geringer ist die Preiselastizität der Nachfrage. Dies gilt insbesondere für lebensnotwendige Produkte wie Wasser oder Medikamente, aber auch für Produkte, von denen Menschen abhängig sind: Drogen, Zigaretten und Alkohol. Wenn bspw. eine Abhängigkeit eines Kunden von WiFi oder Breitbandanschluss gegeben ist, dann wird er bei einer Preissenkung nicht deutlich <?page no="46"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 46 mehr nachfragen - bei einer Preiserhöhung wird entsprechend die Nutzung nur unterproportional zurückgehen.  Substitutionsmöglichkeiten und Grad der Produktdifferenzierung - wenn Kunden bei einer Preiserhöhung eines Produktes leicht und schnell auf ein alternatives Produkt (eines anderen Unternehmens oder aber auf eine andere Produktkategorie) ausweichen können, dann haben Preisänderungen große Effekte auf die nachgefragte Menge. Je größer die Substitutionsmöglichkeiten, desto höher die Preiselastizität der Nachfrage. Der Preissetzungsspielraum für einen Kaffeeproduzenten ist relativ gering - Kunden weichen entweder auf andere Marken oder Hersteller aus oder trinken künftig Tee, wenngleich der Effekt ggfs. erst zeitversetzt stattfindet. Wenn allerdings hohe Produktdifferenzierung gegeben ist, weil Kunden bspw. eine hohe Markenloyalität haben, dann können Unternehmen geringe Preiselastizitäten für Preiserhöhungen nutzen: Apple kann - wenngleich bei geringem Marktanteil - sehr hohe Preise für Smartphones durchsetzen, ohne Kunden an günstigere Anbieter zu verlieren.  Einkommensanteil - wenn für ein Produkt nur sehr kleine Beträge in Relation zum Einkommen aufgewendet werden, haben Preisänderungen sehr geringe Effekte: eine Preiserhöhung bei Apps für Smartphones ist preisunelastisch und wird die nachgefragte Menge kaum verändern. Ein hoher Einkommensanteil - bei Miete, Steuern, Kleidung oder Lebensmitteln - führt dann zu stärkeren und dauerhaften Anpassungen der Nachfrage und ggfs. des Lebensstils. Mit dauerhaft steigenden Mieten verlassen bspw. Menschen boomende Großstädte und suchen günstigere Mietverhältnisse in anderen Städten, mit steigender Einkommensteuerlast ziehen Menschen in Regionen mit niedrigerer Einkommenssteuer.  Wettbewerbsintensität und Marketing-Aufwand - je höher die Wettbewerbsintensität eines Marktes ist (bspw. durch eine größere Zahl konkurrierender Unternehmen), desto höher die Preiselastizität der Nachfrage. Unternehmen können zwar insbesondere durch Marketingaufwand die Besonderheiten des eigenen Produktes herausstellen, aber dieser Effekt schlägt sich umso weniger in einer reduzierten Preiselastizität nieder, je höher die Wettbewerbsintensität ist. Diese vier Determinanten finden sich indirekt erklärend auch in ► Tabelle 1.2 wieder. Natürlich sind die empirischen Studien nur eingeschränkt vergleichbar, die Daten stammen aus unterschiedlichen Ländern und unterschiedlichen Zeiträumen, aber: Geschäftliche Flugreisen sind dringender als private Urlaubsflugreisen, der Kinderarztbesuch in den USA hat - anders als Medikamente - keine Alternative, Menschen können weder auf Mobiltelefonie, noch auf Breitbandanschlüsse verzichten, die Abhängigkeit von Zigaretten ist höher als von Marihuana oder Bier, und kurzfristig können Kraftstoffe kaum ersetzt werden, mittelfristig schon stärker. <?page no="47"?> Preiselastizität und Grenzerlöse 47 Empirische Preiselastizität der Nachfrage Erbsen -2,80 relativ hohe Preiselastizität  damit geringe Dringlichkeit und viele Alternativen Personal Computer (kurzfristig) -2,74 Erfrischungsgetränke -2,59 Personal Computer (langfristig) -2,17 Zahnpasta -2,00 Urlaubsflugreisen -1,90 Grillhähnchen -1,80 Bier -1,20 Frühstückscerealien -1,14 Marihuana -1,00 Kinobesuche -0,90 relativ geringe Preiselastizität  damit steigende Dringlichkeit und wenige Alternativen Geschäftliche Flugreisen -0,80 Medikamente -0,68 Lebensmittel -0,63 Breitbandzugang -0,43 Mobiltelefonie -0,41 Rindfleisch -0,35 Kraftstoffe langfristig -0,31 Zigaretten -0,30 Kraftstoffe kurzfristig -0,09 Kinderarztbesuche -0,03 Tabelle 1.2: Empirische Preiselastizitäten Datenquelle: Bijmolt et al. 2005, Goldman and Grossman 1978, Hoch et al. 1995, Havranek et al. 2012, Prince 2008, Huang und Lin 2000, Farelly und Bray 1998 und Deaton 1990. Bijmolt et al. (2005) haben in einer übergreifenden Studie in insgesamt 1851 Produktmärkten einen Mittelwert der Preiselastizität von 𝜺𝜺𝜺𝜺 𝒑𝒑𝒑𝒑 = −𝟐𝟐𝟐𝟐, 𝟔𝟔𝟔𝟔𝟐𝟐𝟐𝟐 ermittelt, dabei liegen 50 % der Effekte zwischen −3 und −1, etwa 81 % aller Werte zwischen 0 und −4 . Als einfache Faustregel kann man auf Basis dieser Untersuchungen festhalten, dass eine 1 % Preissenkung die Nachfrage im Durchschnitt um 2,62 % erhöht, in 50 % der Fälle wird der Effekt zwischen 1 % und 3 % Nachfragesteigerung liegen. Aus Managementperspektive heißt das, dass Werte dieser Größenordnung auch typischerweise in Business Cases (der finanziellen Planung eines neuen Produktes, Geschäftsmodells oder Projektes) oder der strategischen Mehrjahresplanung aufzufinden sein sollten. Wenn dies nicht der Fall ist, sondern bspw. 12 % Mengensteigerung bei <?page no="48"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 48 gleichzeitiger Preiserhöhung von 4 % geplant ist (entsprechend einer positiven Preiselastizität 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 = 12 % 4 % = +3,0 ), muss es entweder eine gute andere Erklärung (eine drastische Verschiebung der Nachfragekurve nach rechts oben oder einen Marktaustritt von Wettbewerbern) geben, oder aber die Planung wird sich womöglich nicht erfüllen. Die Preiselastizität der Nachfrage wird neben dem aktuellen Preis insbesondere durch die Steigung der Nachfragekurve bestimmt. Je steiler die Nachfragekurve verläuft, desto weniger stark reagiert die Nachfrage auf Preisänderungen. In ► Abbildung 1.13 ist dies an zwei extrem verlaufenden Nachfragekurven verdeutlicht. Für eine nahezu horizontal verlaufende Nachfragekurve (links) konvergiert die Preiselastizität gegen minus unendlich: Mit einer geringen Preisreduktion wäre ein starker Mengenanstieg verbunden - umgekehrt würde eine Preiserhöhung aufgrund geringer Dringlichkeit des Produktes einen starken Nachfragerückgang bedeuten. Für eine nahezu vertikale Nachfragekurve (rechts) strebt die Preiselastizität gegen Null: Eine Preissenkung hat keine Auswirkung auf die Menge - entsprechend kann eine Preiserhöhung sehr effektiv eingesetzt werden, ohne dass die Nachfrage deutlich zurückgeht. Die Zahlungsbereitschaft der Kunden und der Preissetzungsspielraum der Unternehmen ist umso größer, je kleiner die Preiselastizität der Nachfrage ist. Dies gilt auch in Abhängigkeit der Wettbewerbssituation. Wenn viele Wettbewerber existieren, dann verläuft die Nachfragekurve sehr flach, so dass im Extremfall nur ein Preis im Markt möglich ist und eine Preisstrategie unnötig ist. Ist die Zahl der Wettbewerber dagegen gering, dann verläuft die Nachfragekurve steil die Unternehmen können jetzt Preisstrategien festlegen (weiterführend ► Kapitel 7 und ► Kapitel 8). Abbildung 1.13: Effekte einer Preissenkung bei hoher und niedriger Preiselastizität. Die Preiselastizität der Nachfrage ist im Zeitablauf natürlich nicht konstant. In vielen Märkten steigt die Preiselastizität im Zeitablauf: Im Laufe eines Produktlebenszyklus (weiterführend ► Kapitel 2) lernen Kunden alternative Produkte kennen, neue Unternehmen bieten Substitute an und die Wettbewerbsintensität nimmt zu, und das genutzte Produkt ist tatsächlich oder wirkt für den Kunden nach einiger Zeit weniger innovativ, so dass die Zahlungsbereitschaft sinkt und die Preiselastizität zunimmt. Unternehmen versuchen daher insbesondere q p 0 hohe Preiselastizität q p 0 niedrige Preiselastizität <?page no="49"?> Preiselastizität und Grenzerlöse 49 mit Marketing die Einzigartigkeit des Produktes herauszustellen und die Dringlichkeit beim Kunden zu erhöhen, d.h. die Preiselastizität der Nachfrage immer wieder zu senken, um letztlich höhere Preise durchsetzen zu können. In empirischen Studien zeigt sich bspw. für Automobile, dass die Preiselastizität umso geringer ist, je aktueller das Modell auf dem Markt erhältlich ist, und je höher der marken- oder modellspezifische Marketingaufwand ist. Kurz nach Markteinführung kaufen Frühadopter mit niedriger Preiselastizität und hoher Zahlungsbereitschaft zu relativ hohen Preisen. Zudem ist bei hoher Markenloyalität von Bestandskunden zu beobachten, dass zwar die Preiselastizität geringer ist, aber tatsächliche Preisänderungen - bspw. bei Kaffee - zu deutlich stärkeren Mengenreaktionen führen. Über zahlreiche Studien hinweg zeigt sich, dass sich die Preiselastizität - trotz strategischer Maßnahmen der Unternehmen - nach der Produktneueinführung etwa innerhalb von vier Jahren halbiert, aber in späten Phasen aufgrund zunehmender Produktdifferenzierung und stärkerer Kundenbindung auch wieder ansteigen kann (Bijmolt et al. 2005, Berry et al. 2004, Krishnamurthi und Raj 1991, Simon 1979, Vakratsas und Ambler 1999 sowie Tellis 1988). Erlöse und Grenzerlöse Die zentrale Bedeutung der Preiselastizität der Nachfrage für Entscheidungen wird deutlich, wenn die Erlöse in die Analyse einbezogen werden. Die Erlöse 𝑅𝑅𝑅𝑅 eines Unternehmens ergeben sich allgemein durch Multiplikation des Preises 𝑝𝑝𝑝𝑝 mit der Menge 𝑞𝑞𝑞𝑞 als (1.19) 𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 . Für die auf Basis der Nachfragefunktion (1.7) in ► Abbildung 1.11 rechts verwendeten Werte ergeben sich für die Erlöse (1.20) 𝑅𝑅𝑅𝑅 𝑝𝑝𝑝𝑝=20,0 = 20,0 ⋅ 4.000 = 80.000 (1.21) 𝑅𝑅𝑅𝑅 𝑝𝑝𝑝𝑝=19,8 = 19,8 ⋅ 4.010 = 80.598 und (1.22) 𝑅𝑅𝑅𝑅 𝑝𝑝𝑝𝑝=20,2 = 20,2 ⋅ 3.990 = 79.398 . Die Preisänderungen um 1 % haben zwar, wie oben gezeigt, symmetrische Effekte auf die Mengen, aber nicht auf die Erlöse - offensichtlich steigen die Erlöse in diesem Beispiel bei einer Preissenkung um 0,7475 % an, bei einer Preiserhöhung gehen sie um −0,7525 % zurück. Die Begründung hierfür ergibt sich wieder aus der Preiselastizität der Nachfrage:  Unelastische Nachfrage - wenn die Preiselastizität der Nachfrage zwischen 0 und -1 liegt, führt eine Preisänderung zu einem unterproportionalen Effekt auf die nachgefragte Menge - in diesem Fall steigen die Erlöse bei einer Preiserhöhung an und ein Unternehmen kann durch eine Preiserhöhung die Erlöse steigern.  Elastische Nachfrage - wenn die Preiselastizität der Nachfrage zwischen -1 und -∞ liegt, führt eine Preisänderung zu einem überproportionalen Effekt auf die nachgefragte Menge - in diesem Fall steigen die Erlöse bei einer Preissenkung an und ein Unternehmen kann durch eine Preissenkung die Erlöse steigern. <?page no="50"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 50 Analytisch kann dieser Effekt anhand der Erlösfunktion (1.23) 𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞)𝑞𝑞𝑞𝑞 bestimmt werden. Um allgemein die Veränderung der Erlöse in Abhängigkeit von Preisen und Mengen zu ermitteln, kann man die Grenzerlöse 𝑴𝑴𝑴𝑴𝑮𝑮𝑮𝑮 betrachten - der Grenzerlös ist der zusätzlich entstehende Erlös, wenn die verkaufte Menge 𝑞𝑞𝑞𝑞 minimal erhöht wird. Dieser Wert kann - weil Preis und Menge wechselseitig entlang der Nachfragekurve D voneinander abhängen - positiv oder negativ sein. Der Grenzerlös für die Nachfragefunktion (1.14) ergibt sich durch die erste Ableitung der Erlösfunktion in Bezug auf die Menge als (1.24) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) + 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 . Erweitert man diese Gleichung, so erhält man über (1.25) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑝𝑝𝑝𝑝 + 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 = 𝑝𝑝𝑝𝑝 + 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 1 𝜀𝜀𝜀𝜀𝑝𝑝𝑝𝑝 𝑞𝑞𝑞𝑞 = 𝑝𝑝𝑝𝑝 𝑝1 + 1 𝜀𝜀𝜀𝜀𝑝𝑝𝑝𝑝 � , wobei (1.26) 𝑝𝑝𝑝𝑝 𝑝1 + 1 𝜀𝜀𝜀𝜀𝑝𝑝𝑝𝑝 � > 0 für 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 < −1 und (1.27) 𝑝𝑝𝑝𝑝 𝑝1 + 1 𝜀𝜀𝜀𝜀𝑝𝑝𝑝𝑝 � < 0 für 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 > −1 ist. Der Grenzerlös ist positiv, wenn 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 < −1 ist - die Erlöse eines Unternehmens steigen bei einer Preiserhöhung genau dann, wenn die Nachfragefunktion unelastisch ist. Wenn dagegen 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 > −1 ist, dann sinken die Erlöse bei einer Preiserhöhung infolge elastischer Nachfrage. Zudem ist der Grenzerlös gleich dem Preis, wenn - wie aus (1.25) zu erkennen ist - die Preiselastizität der Nachfrage gegen - ∞ strebt. In ► Abbildung 1.14 oben sind Nachfragekurve und Erlöskurve für die Nachfragefunktion (1.7) eingezeichnet. Aufgrund des quadratischen Terms in der Erlösfunktion (1.28) 𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞)𝑞𝑞𝑞𝑞 = (𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞)𝑞𝑞𝑞𝑞 = 𝑎𝑎𝑎𝑎𝑞𝑞𝑞𝑞 − 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 2 = 100𝑞𝑞𝑞𝑞 − 0,02𝑞𝑞𝑞𝑞 2 ist die Erlöskurve bei einer linearen Nachfragekurve eine umgedrehte Parabel. Im elastischen Bereich der Nachfragekurve steigen die Erlöse bei Mengenerhöhungen an: Bei einer Preissenkung von bspw. 57 EUR auf 56 EUR steigt die Menge und die Erlöse an - das Unternehmen erzielt infolge der Preissenkung höhere Umsätze. Im unelastischen Bereich der Nachfragekurve gehen die Erlöse bei Mengenerhöhungen zurück: Bei einer Preissenkung von bspw. 31 EUR auf 30 EUR steigt zwar auch die Menge, aber der Preiseffekt dominiert den Mengeneffekt bei den Erlösen - die Erlöse gehen zurück. Der Grenzerlös für die Erlösfunktion (1.28) ergibt sich als (1.29) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑎𝑎𝑎𝑎 − 2𝑏𝑏𝑏𝑏 = 100 − 0,04𝑞𝑞𝑞𝑞 , d.h. die Grenzerlösfunktion 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 verläuft linear mit exakt halber Steigung der Nachfragefunktion und entspricht für jede Menge 𝑞𝑞𝑞𝑞 der Steigung der Erlösfunktion. <?page no="51"?> Preiselastizität und Grenzerlöse 51 Abbildung 1.14: Erlöse, Nachfragekurve und Grenzerlöse. In ► Abbildung 1.14 unten sind Grenzerlös, Erlös und Nachfragefunktion eingezeichnet. Der Erlös wird maximiert, wenn eine Preis-Mengen-Kombination gewählt wird, bei der die Grenzerlöse 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 = 0 sind und die Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 𝑝𝑝𝑝𝑝 = −1 beträgt - keine Veränderung der Preise oder Mengen kann dann die Erlöse steigern. Damit ergibt sich eine einfache Faustregel insbesondere für Vertriebsabteilungen zur Steigerung des Umsatzes: Eine Preissenkung unelastisch elastisch p, R in EUR 0 5000 100 31 R = p q = 100 q - 0,02q 2 30 57 56 q D unelastisch elastisch p, MR, R in EUR 0 5000 100 q R MR> 0 MR<0 D <?page no="52"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 52 führt zu einer Erlös- und Umsatzsteigerung, wenn die Preiselastizität 𝜀𝜀𝜀𝜀 < −1 beträgt et vice versa. Ob dies tatsächlich eine gute Strategie ist, hängt von der Wettbewerbs- und Kostensituation des Unternehmens ab (vgl. weiterführend ► Kapitel 7, ► Kapitel 8 und ► Kapitel 10). Abbildung 1.15: Grenzerlös als Verlust und Zuwachs von Erlösen bei Preisänderungen. Der Grenzerlös lässt sich in zwei Effekte zerlegen, wie in ► Abbildung 1.15 dargestellt. Vor einer Preissenkung beträgt der Erlös links 𝑅𝑅𝑅𝑅 1 = 𝑝𝑝𝑝𝑝 1 𝑞𝑞𝑞𝑞 1 und entspricht der Fläche 𝐴𝐴𝐴𝐴 + 𝐵𝐵𝐵𝐵 . Bei einer Preissenkung von 𝑝𝑝𝑝𝑝 1 auf 𝑝𝑝𝑝𝑝 2 steigt die Menge von 𝑞𝑞𝑞𝑞 1 auf 𝑞𝑞𝑞𝑞 2 an und der neue Erlös beträgt 𝑅𝑅𝑅𝑅 2 = 𝑝𝑝𝑝𝑝 2 𝑞𝑞𝑞𝑞 2 und entspricht der Fläche 𝐵𝐵𝐵𝐵 + 𝐶𝐶𝐶𝐶 . Der Erlös verringert sich um - 𝐴𝐴𝐴𝐴 infolge des niedrigeren Preises (Preiseffekt), wächst aber um +𝐶𝐶𝐶𝐶 aufgrund steigender Menge (Mengeneffekt) an, so dass der Gesamteffekt als Grenzerlös 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 12 = −𝐴𝐴𝐴𝐴 + 𝐶𝐶𝐶𝐶 > 0 positiv ist, weil die Preisänderung im elastischen Teil der Nachfragekurve stattfindet. In ► Abbildung 1.15 rechts ist der Fall zu sehen, dass die Grenzerlöse 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 34 = −𝐴𝐴𝐴𝐴 + 𝐶𝐶𝐶𝐶 < 0 negativ sind: Der Erlösverlust −𝐴𝐴𝐴𝐴 aus einer Preissenkung von 𝑝𝑝𝑝𝑝 3 auf 𝑝𝑝𝑝𝑝 4 dominiert den Effekt eines Erlöszuwachses +𝐶𝐶𝐶𝐶 aufgrund der Mengensteigerung von 𝑞𝑞𝑞𝑞 3 auf 𝑞𝑞𝑞𝑞 4 , da die Preissenkung im unelastischen Bereich der Nachfragefunktion stattfindet. Der neue Erlös 𝑅𝑅𝑅𝑅 4 = 𝑝𝑝𝑝𝑝 4 𝑞𝑞𝑞𝑞 4 < 𝑝𝑝𝑝𝑝 3 𝑞𝑞𝑞𝑞 3 = 𝑅𝑅𝑅𝑅 3 ist geringer als der vorherige Erlös. 1.4 Zusammenfassung Mikroökonomie versucht, Ursachen für das beobachtbare Verhalten und die Entscheidungen von Menschen in ökonomischen Situationen zu erklären, um herauszuarbeiten, welche Auswirkungen sich für Märkte, Unternehmen und Wettbewerb ergeben. Mikroökonomische Modelle liefern Orientierungspunkte für künftige Entscheidungen und die Einordnung von Wettbewerbssituationen insbesondere aus Managementperspektive. Mikroökonomie analysiert die Entscheidungen von Kunden und Unternehmen, deren Zusammenspiel und die Funktionsweise von Märkten anhand empirischer Methoden (Ökonometrie, Labor- und Feldexperimente) und theoretischer Modelle. Modelle können, neben p, R, in EUR 0 a/ b a A B C p 1 p 2 q 1 q 2 q p, R, in EUR 0 a/ b a A B C p 3 p 4 q 3 q 4 q <?page no="53"?> Zusammenfassung 53 einer vereinfachenden Abbildung der Wirklichkeit, der wahrgenommenen Realität insbesondere Entscheidbarkeit hinzufügen. In diesem Sinne versorgt Mikroökonomie Manager mit Stadtplänen für Wettbewerb und Märkte: Mit empirisch belastbaren, wenngleich abstrahierend modellhaften Abbildungen wird beobachteten Fakten - einer Markt- oder Wettbewerbssituation - Entscheidbarkeit hinzugefügt. Ein zentrales Analyseobjekt sind Märkte und das Zusammenspiel von Angebot und Nachfrage. Märkte sind Institutionen, in denen wiederkehrend Transaktionen zwischen Marktteilnehmern angestrebt oder durchgeführt werden. Ein durch einen Gleichgewichtspreis determiniertes Marktgleichgewicht ist die einzige Preis-Mengen-Kombination, an dem die nachgefragte Menge exakt der angebotenen Menge entspricht. Ob und wie schnell dieses tatsächlich eintritt, hängt vom Informationsaustausch, der Wettbewerbsdynamik im Markt und den Lernprozessen der Marktteilnehmer ab. Unterschiedliche Marktmechanismen, Informationsasymmetrie, die Abfolge von Transaktionen und die Höhe von Transaktionskosten können zu sehr unterschiedlichen Marktergebnissen - Preisen, Mengen und Erlösen - führen. Die Nachfrageseite eines Marktes lässt sich als Preis-Mengen-Kombinationen entlang der Nachfragefunktion beschreiben. Die Preiselastizität der Nachfrage beschreibt den Effekt einer Preisänderung auf die nachgefragte Menge. Preiselastizität und Grenzerlöse sind zentrale Management-Tools bei der Analyse der Nachfrage und Ableitung von Preis- oder Vertriebsstrategien: Bei positivem Grenzerlös und/ oder einer Preiselastizität kleiner -1 kann ein Unternehmen den Umsatz durch eine Preissenkung steigern, bei negativem Grenzerlös sollte das Unternehmen die Preise erhöhen, um die Erlöse zu steigern.  Literaturtipps Einen übergreifenden Einstieg in die Funktionsweise von Märkten bietet Stefan Voigt, Institutional Economics 2019. Ausgezeichnete Lehrbücher, die deutlich über die in diesem Buch dargestellten Inhalte hinausgehen sind Belleflamme, P. und Peitz, M., Industrial organization: markets and strategies, London 2015, mit stark analytischem Ansatz, und Mas-Colell, A. Winston, M.D. und Green, J.R., Microeconomic Theory, New York 1995, für alle diejenigen, die tiefer in die Mathematik einsteigen wollen.  Kontrollfragen [1] Geben Sie eine präzise Definition für Mikroökonomie! Warum ist Mikroökonomie Bestandteil aller wirtschaftswissenschaftlichen Studiengänge? [2] Was sind Vor- und Nachteile ökonomischer Modelle? Welche Rolle spielen stilisierte Fakten? Wie werden mikroökonomische Modelle entwickelt? Erläutern Sie, weshalb Lösungen, die in Märkten hervorgebracht werden, häufig staatlichen Lösungen überlegen sind! [3] Wie verlaufen Angebots- und Nachfragekurven typischerweise? Welche Faktoren bestimmen den Verlauf von Angebots- und Nachfragekurven? <?page no="54"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 54 [4] Was ist ein gleichgewichtiger Marktpreis? Nehmen Sie Bezug zu Produkten, deren Preise im Gleichgewicht resp. nicht im Gleichgewicht sind. Erläutern Sie, weshalb es sein könnte, dass Gebrauchtwagenmärkte nicht gut funktionieren! [5] Ermitteln Sie Marktergebnisse für Marktgleichgewicht, horizontale und vertikale Transaktionen für den Wasserflaschenmarkt aus der Case Study bei je acht Marktteilnehmern, Zahlungsbereitschaften in 1 EUR-Schritten von 1 EUR bis 8 EUR und potenziellen Angeboten in 1 EUR-Schritten von 3 EUR bis 10 EUR. Erläutern Sie Ihre Ergebnisse. [6] Beschreiben Sie das Konzept der Preiselastizität der Nachfrage. Wovon hängt diese ab, gibt es Unterschiede zwischen kurz- und langfristiger Sicht? Wie kann man empirisch die Preiselastizität der Nachfrage ermitteln? [7] Erläutern Sie das Konzept des Grenzerlöses und nehmen Sie Bezug zum Preis- und Mengeneffekt. Welche Faustregel lassen sich aus der Analyse von Grenzerlösen aus Managementperspektive ableiten? [8] Bei einer Preiselastizität von -1,3 erhöht ein Eisverkäufer die Preise um 4 % - was passiert qualitativ und quantitativ mit seinem Umsatz? Ermitteln sie auch den Preis- und Mengeneffekt des Grenzerlöses. [9] Bestimmen Sie die Nachfragefunktion, die Preiselastizität der Nachfrage nach Brötchen einer Bäckerei in der Mainzer Straße in Saarbrücken sowie Erlöse und Grenzerlöse! [10] Sie sind Direktor des Guggenheim-Museum in Bilbao. Aktuell betragen die Eintrittspreise 20 EUR, Sie haben jährlich 400.000 Besucher, die Umsätze betragen 8 Mio. EUR pro Jahr. Die Nachfragefunktion kennen Sie aus einer Marktforschung als 𝑝𝑝𝑝𝑝 = 100 - 0,0002 𝑞𝑞𝑞𝑞 (mit q als Zahl der Besucher). Die Guggenheim Foundation in New York verlangt höhere Umsätze von Ihnen und drängt Sie zu einer schnellen Entscheidung - sollten Sie die Preise erhöhen oder senken? Beantworten Sie die Frage anhand der Preiselastizität der Nachfrage und einer Zeichnung. Was wäre der optimale Preis, um die Erlöse zu maximieren?  Literatur Abbott, B.P. et al., Observation of gravitational waves from a binary black hole merger, Physical Review Letters, 2016, 116, 6, 61-102. Acemoglu, D. und Restrepo, P., The race between man and machine: implications of technology for growth, factor shares, and employment, American Economic Review, 2018, 108, 6, 1488-1542. Acemoglu, D. und Robinson, J., Why nations fail: the origins of power, prosperity and poverty, New York, 2012. Akerlof, G., The market for ‘lemons’: quality uncertainty and the market mechanism, Quarterly Journal of Economics, 1970, 84, 3, 488-500. Arthur, W.B., Inductive reasoning and bounded rationality, American Economic Review, 1994, 84, 2, 406-411. Barham, P., The science of cooking, New York 2001. Berry, S., Levinsohn, J. und Pakes, A., Differentiated products demand systems from a combination of micro and macro data: the new car market, Journal of Political Economy, 2004, 112, 1, 68-105. Bijmolt, T.H., Heerde, H.J.V. und Pieters, R.G., New empirical generalizations on the determinants of price elasticity, Journal of Marketing Research, 2005, 42, 2, 141-156. Blaug, M., The methodology of economics: or, how economists explain, Boston 1992. <?page no="55"?> Zusammenfassung 55 Boardman, A.E. und Vining, A.R., Ownership and performance in competitive environments: a comparison of the performance of private, mixed, and state-owned enterprises, Journal of Law and Economics, 1989, 32, 1, 1-33. Brynjolfsson, E., Rock, D. und Syverson, C., Artificial intelligence and the modern productivity paradox: a clash of expectations and statistics, WP 24001, National Bureau of Economic Research, Cambridge 2017. Conlisk, J., Why bounded rationality? . Journal of Economic Literature, 1996, 34, 2, 669-700. Currie, J., Kleven, H. und Zwiers, E., Technology and big data are changing economics: mining text to track methods, WP 26715, National Bureau of Economic Research, Cambridge 2020. Davis, D.D. und Holt, C.A., Experimental economics, Princeton 1993. Davis, G. und Pecar, B., Business statistics using Excel, 2. Auflage, Oxford 2013. De Martino, B., Kumaran, D., Seymour, B. und Dolan, R.J., Frames, biases, and rational decision-making in the human brain, Science, 2006, 313, 5787, 684-687. Deaton, A., Price elasticities from survey data, Journal of Econometrics, 1990, 44, 281-309. Dewenter, K.L. und Malatesta, P.H., State-owned and privately owned firms: an empirical analysis of profitability, leverage, and labor intensity, American Economic Review, 2001, 91, 1, 320-334. Einstein, A., Über Gravitationswellen, Königlich-Preußische Akademie der Wissenschaften, Sitzungsberichte, 1918, Mitteilung vom 31. Januar 1918, 154-167. Frank, R.H., The economic naturalist: why economics explains almost everything, London 2008. Fritsch, M., Marktversagen und Wirtschaftspolitik - mikroökonomische Grundlagen staatlichen Handelns, München 2011. Fuest, C., Neodirigismus, FAZ, 7. Februar 2020, 16. Gneezy, U. und List, J.A., Putting behavioral economics to work: testing for gift exchange in labor markets using field experiments, Econometrica, 2006, 74, 5, 1365-1384. Goldman, F. und Grossman, M., The demand for pediatric care: an hedonic approach, Journal of Political Economy, 1978, 86, 2, 259-280. Havranek, T., Irsova, Z. und Janda, K., Demand for gasoline is more price-inelastic than commonly thought, Energy Economics, 2012, 34, 1, 201-207. Hoch, S.J., Kim, B.-D., Montgomery, A.L. und Rossi, P.E., Determinants of store-level price elasticity, Journal of Marketing Research, 1995, 32, 1, 17-29. Huang, K.S. und Lin, B.H., Estimation of food demand and nutrient elasticities from household survey data, US Department of Agriculture, 2000, Economic Research Service. Kagel, J.H. und Roth, A.E. (Hrsg.), The Handbook of Experimental Economics, Princeton 2016. Kaldor, N., Capital accumulation and economic growth, in: Lutz, F.A. und Hague, D.C. (Hrsg.), The theory of capital, London 1961, 177-222. Kennedy, P., A guide to econometrics, 6. Auflage, Boston 2008. Kolmar, M., Principles of microeconomics - an integrative approach, Berlin 2017. Krishnamurthi, L. und Raj, S.P., An empirical analysis of the relationship between brand loyalty and consumer price elasticity, Marketing Science, 1991, 10, 2, 172-183. Levitt, S.D. und List, J.A., Field experiments in economics: the past, the present, and the future, European Economic Review, 2009, 53, 1, 1-18. List, J.A und Reiley, D., Field experiments in economics, in: Durlauf, S.N. und Blume, L.E. (Hrsg.), The New Palgrave Dictionary of Economics, 2. Auflage, New York 2007. <?page no="56"?> Mikroökonomie, Wettbewerb und strategisches Verhalten 56 Loebbecke, C. und Picot, A., Reflections on societal and business model transformation arising from digitization and big data analytics: a research agenda, Journal of Strategic Information Systems, 2015, 24, 3, 149-157. Meyer, M., Operations Research - Systemforschung: eine Einführung in die praktische Bedeutung, München 1996. Mihet, R. und Philippon, T., Disruptive innovation in business and finance in the digital world, International Finance Review, 2019, 20, 29-43. Münter, M.T., Empirical facts, economic theory and everyday experience in industrial organization - three sides of the same story? , in: Mueller, D.C., Haid, A., und Weigand, J. (Hrsg.), Competition, Efficiency, and Welfare, Boston 1999, 279-297. Pearl, J. und Mackenzie, D., The book of why - the new science of cause and effect, New York 2018. Popper, K., Logik der Forschung - zur Erkenntnistheorie der modernen Naturwissenschaft, Wien 1934. Preda, A., Information, knowledge and economic life - an introduction to the sociology of markets, Oxford 2009. Prince, J.T., Repeat purchase amid rapid quality improvement: structural estimation of demand for personal computers, Journal of Economics & Management Strategy, 2008, 17, 1, 1-33. Simon, H., Dynamics of price elasticity and brand life cycles: an empirical study, Journal of Marketing Research, 1979, 16, 4, 439-452. Simon, H.A., Decision making: Rational, nonrational, and irrational, Educational Administration Quarterly, 1993, 29, 3, 392-411. Smith, A., An inquiry into the nature and causes of the wealth of nations, London 1776. Smith, V.L., Constructivist and ecological rationality in economics, American Economic Review, 2003, 93, 3, 465-508. Spiegelhalter, D., The art of statistics - learning from data, London 2019. Sugden, R., Spontaneous order, Journal of Economic perspectives, 1989, 3, 4, 85-97. Taleb, N.N., The black swan, New York 2007. Tellis, G.J., The price elasticity of selective demand: a meta-analysis of econometric models of sales, Journal of Marketing Research, 1988, 25, 331-341. Vakratsas, D. und Ambler, T., How advertising works: what do we really know? , Journal of Marketing, 1999, 63, 1, 26-43. Voigt, S., Institutional economics, Cambridge 2019. von Hayek, F.A., Der Wettbewerb als Entdeckungsverfahren, Institut für Weltwirtschaft, Kiel 1968. von Hayek, F.A., Die Anmaßung von Wissen, ORDO: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, 1975, 26, 12-21. <?page no="57"?> 2 Kundenverhalten, Marktabgrenzung und Netzwerkeffekte Sucht ein Kunde bei großen Onlineplattformen wie Amazon nach einem Reiseführer für China, wird nach dem Anklicken des ersten Suchtreffers unterhalb des eigentlichen Produktes eine Zeile an Produkten in der Kategorie „Kunden, die diesen Artikel gekauft haben, kauften auch“ angezeigt: Ein Sprachführer für Chinesisch, ein Bildwörterbuch, Stadtführer für Beijing und Shanghai sowie ein Buch über Verhaltensregeln für China. Allerdings werden nahezu jedem Besucher der Amazon-Website unterschiedliche Produkte angezeigt - die Auswahl der vorgeschlagenen Produkte und das Preisniveau ist für jeden potenziellen Kunden personalisiert. Um präzise die richtigen Produkte vorzuschlagen, analysiert Amazon zahlreiche Parameter wie bspw. das bisherige Kundenverhalten (d.h. sowohl Kaufentscheidungen wie auch Nicht- Kaufentscheidungen), die Internetnutzung, das Surf- und Suchverhalten über Cookies, zieht aus IP-Adressen, Lokations- und Bewegungsdaten Rückschlüsse auf den sozialen Status, das Alter und weitere demographische Details des Kunden - und berücksichtigt natürlich auf Basis gewählter Bezahlverfahren und Kreditwürdigkeitsprüfung das Einkommen des Kunden. Aus Managementperspektive können aus diesen Informationen zahlreiche Entscheidungen abgeleitet werden:  Produktangebot und -portfolio - um in Vertrieb und Marketing die jeweils richtigen Produkte einzelnen Kunden oder Kundengruppen anbieten zu können.  Preise einzelner Produkte und Preisstruktur - um den für Kunden oder Marktsegmente richtigen Preis oder die Preisstruktur über mehrere Produkte hinweg festzulegen oder die Rückwirkungen von Preisänderungen von Produkten der Wettbewerber auf die eigene Nachfrage abschätzen zu können.  Marktsegmente und Produktdifferenzierung - um auf Basis vertikaler oder horizontaler Produktdifferenzierung entweder bestehende Marktsegmente besser adressieren zu können oder diese durch Differenzierung und Preismodelle zu etablieren oder abzugrenzen (im Marketing meist als Fencing bezeichnet). Der von Amazon angewendete Predictive Analytics Algorithmus basiert unter anderem auf der mikroökonomischen Grundüberlegung der Nutzenmaximierung auf Basis der Präferenzen von Kunden (Siegel 2016, Nichols 2013 und  aws.amazon.com/ de/ aml). In ähnlicher Weise wie Amazon kennen Netflix, Facebook oder Google die Präferenzen der Kunden und versuchen künftiges Kundenverhalten vorherzusagen, um jedem einzelnen Kunden die richtigen Produkte für den nächsten Kauf vorzuschlagen. Das ist insbesondere dann möglich, wenn Kunden ihre jeweiligen Präferenzen auf sozialen Netzwerken, in Bewertungsportalen oder durch ihr Surf-Verhalten direkt oder indirekt offenlegen. In diesem Kapitel 2 werden menschliche Entscheidungen als im Wesentlichen rational interpretiert und analysiert. Unabhängig davon basieren Kundenverhalten und Kaufentscheidungen natürlich oft auf Routinen, früheren Entscheidungen, Adaption des Verhaltens oder der <?page no="58"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 58 Entscheidungen anderer Menschen und psychologischen Einflüssen - diese Aspekte begrenzt rationalen Verhaltens werden in ► Kapitel 3 betrachtet.  Lernziele Dieses Kapitel beschäftigt sich mit  den Grundlagen von Kundenverhalten und Nachfrageentscheidungen auf Basis von Präferenzen und Budgetbeschränkungen,  der Definition eines Marktes, Möglichkeiten der Marktabgrenzung und Produktkategorien sowie  Besonderheiten des Nachfrageverhaltens bei direkten und indirekten Netzwerkeffekten und  den Rückwirkungen auf zwei- und mehrseitige Plattformen. 2.1 Kundenverhalten und Nachfrageentscheidungen Das Verhalten von Kunden und die Entscheidung zum Kauf eines Produktes kann aus zahlreichen Perspektiven analysiert werden, wie in ► Abbildung 2.1 angedeutet. Das Kundenverhalten umfasst natürlich nicht nur den Konsum eines Produktes, sondern erstreckt sich über die Erwartung der Nutzung, die Informationsbeschaffung, die Durchführung des Kaufs, die eigentliche Nutzung, das Eigentum und den Besitz wie auch - bspw. bei Reisen - die Erinnerungen (Deaton 1992 sowie Kahneman und Tversky 2003). Zudem fragt ein Kunde ggfs. nicht ein Produkt per se nach, sondern eine Mischung aus Eigenschaften des Produktes (Lancaster 1971). Damit ist klar, das Kundenverhalten einerseits eine zeitliche Dimension hat und ggfs. stark durch Emotionen geprägt oder überlagert ist. Abbildung 2.1: Kundenverhalten, mögliche Sichtweisen und Einflussfaktoren. Kundenverhalten Mikroökonomie (Einkommen, Preise, Präferenzen) Psychologie/ Verhaltenswissenschaft Soziologie Demographie Marketing Umwelt (PESTEL) intrapersonell (Haltungen, Glaube Lebensstil, Persönlichkeit etc.) interpersonell (Imitation, Differenzierung, Benchmarking etc.) <?page no="59"?> Kundenverhalten und Nachfrageentscheidungen 59 Das Verhalten von Kunden lässt sich wesentlich durch den Wunsch, Nutzen (Zufriedenheit) aus dem Konsum bestimmter Produkte zu erzielen, erklären. Menschen tun Dinge, die ihren Nutzen steigern, und vermeiden Dinge, die ihren Nutzen reduzieren, müssen dabei aber die Begrenztheit von Einkommen und Zeit berücksichtigen. Nutzen kann aus dem eigentlichen Verbrauch oder funktionalen Gebrauch des Produktes entstehen, aber auch durch Anerkennung anderer Menschen aufgrund des Besitzes oder Eigentums, durch ein Zugehörigkeitsgefühl zu einer Gruppe oder durch einen bestimmten damit verbundenen Lebensstil oder Lebenseinstellungen sowie durch Signalisierung bestimmter Wertvorstellungen (Solomon 2014 und bspw. auch Sinus Milieus des Sinus-Instituts). Gerade diese interpersonellen und soziokulturellen Einflüsse prägen das Nachfrageverhalten immer mehr: Viele lebensnotwendige Grundbedürfnisse (Essen, Wohnen etc.) sind in vielen entwickelten Volkswirtschaften für die meisten Menschen hinreichend und in guter Qualität erfüllt, so dass das beobachtbare Nachfrageverhalten eher auf das Realisieren von Wünschen, Selbstverwirklichung oder der Suche nach Erlebnissen beruht, statt die eigentliche Befriedigung von Bedürfnissen zu beschreiben. Präferenzen Kundenverhalten wird einerseits durch den Überlebenswillen der Menschen und lebensnotwendige Bedarfe geprägt, die Entscheidungen werden aber in ganz wesentlichen Teilen durch Präferenzen beeinflusst oder bestimmt. Aus mikroökonomischer Perspektive beschreiben Präferenzen die Vorlieben (respektive Abneigungen) gegenüber alternativen Produkten auf Basis einer Rangordnung, die dann eine bestmögliche Auswahl aus Alternativen ermöglicht. Die Notwendigkeit zur Auswahl und Entscheidung zwischen Alternativen ergibt sich aus Knappheit: Begrenztem Einkommen und gegebenen Preisen, begrenzter Zeit zum Konsum und ggfs. begrenzter Kompatibilität der Produkte. Präferenzen sind teilweise intrapersonell angelegt - Menschen sind unterschiedlich, haben unterschiedliche Vorlieben - aber auch endogen: Präferenzen werden durch Marketing zum Aufbau von Markenloyalität, interpersonelle Vergleiche in sozialen Medien und gesellschaftlichen Gruppen, Gewohnheiten, Kultur und Märkte oder auch die Einkommens- und Vermögenssituation geprägt und verändert (Bagwell 2007 und Bowles 1998). Das Phänomen „Keeping up with the Joneses” beschreibt, dass der Vergleich, die Imitation, der Wunsch nach Zugehörigkeit und gleichzeitiger Differenzierung zwischen Kunden eine wesentliche Determinante von Konsummustern darstellt. Alfred Sloan, früherer CEO der General Motors Corporation, hat daraus in den 1930er-Jahren eine noch heute funktionierende Strategie für Produktdifferenzierung in der Automobilindustrie abgeleitet: Zumindest in Deutschland kann man durch Analyse der parkenden Autos in einem Wohngebiet eine treffsichere Schätzung von Einkommen und sozialem Status der Wohnbevölkerung vornehmen (Gali 1994 und Ghemawat 2002). Präferenzen werden aber nicht nur durch äußere Einflüsse geprägt, sondern auch intrapersonell durch eigenes Verhalten: aus neurowissenschaftlicher Perspektive zeigt sich, dass individuelle Präferenzen zwar zufällig in ihrer Grundanlage sind, aber insbesondere durch eigene Entscheidungen und Konsum im Zeitablauf herausgebildet, geprägt und gefestigt werden - Menschen präferieren, was sie haben oder wofür sie sich entschieden haben. Gerade wichtige Entscheidungen - für einen Studienort, für einen Job, für einen Lebenspartner - zwi- <?page no="60"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 60 schen objektiv gleichwertigen Alternativen können im Zeitverlauf zu Präferenzveränderungen führen. In der Folge werden die bereits gewählten Alternativen positiver bewertet, die abgelehnten Alternativen werden abgewertet. Dieses Phänomen wird oft als Folge der Verringerung kognitiver Dissonanzen nach einer Entscheidung interpretiert, die durch die Diskrepanz zwischen anfänglichen Präferenzen und Entscheidungsergebnissen ausgelöst wird. In neurowissenschaftlichen Analysen mittels MRT-Beobachtungen des Gehirns zeigt sich aber auch, dass Präferenzen bereits während des Entscheidungsprozesses aktualisiert werden (Voigt et al. 2019). Zudem zeigt sich in Experimenten, dass Präferenzen von Individuen im Zeitablauf in der Regel nicht stabil sind - weder kurz-, noch langfristig (weiter dazu ► Kapitel 3). Rationale Entscheidungen, Nutzen und Grenznutzen Eine eindeutige und rationale Entscheidung auf Basis gegebener Präferenzen bei beschränktem Einkommen und gegebenen Preisen ist möglich, wenn folgende Anforderungen erfüllt sind:  Vollständige Präferenzen - um entscheiden zu können, muss ein Kunde eine eindeutige Rangordnung über alle Produkte und deren Kombinationsmöglichkeiten erstellen können. Zudem muss diese Rangordnung transitiv sein, d.h. im Fall von Smartphones, wenn Apple gegenüber Samsung bevorzugt wird, und Samsung gegenüber Huawei, dann muss auch Apple gegenüber Huawei bevorzugt werden.  Nutzenmaximierung - um den Nutzen zu maximieren, müssen Menschen entsprechend ihrer Präferenzen und gegebenen Budgetbeschränkung (Einkommen und Preise) entscheiden. Sie berücksichtigen im Rahmen einer vollständig rationalen Kosten-Nutzen- Abwägung alle relevanten Informationen, Nutzen oder Kosten und versuchen so zumindest, ihren Nutzen (die Zufriedenheit) durch das gewählte Konsumverhalten zu steigern oder zu maximieren.  Opportunitätskosten - sind die, neben den expliziten und offensichtlichen Kosten, oft unsichtbaren oder impliziten Kosten (entgangener Nutzen), die damit verbunden sind, dass aufgrund einer Entscheidung für ein Produkt ein bestmögliches alternatives Produkt nicht konsumiert werden kann - sie entstehen, weil ein Geldbetrag nur eine Verwendung hat und damit für andere Ausgaben nicht zur Verfügung steht. Die Gründe hierfür sind wesentlich begrenzte Zeit und begrenztes Einkommen. Opportunitätskosten sind zwar keine tatsächlich zu bezahlenden Kosten, sind aber implizit Grundlage rationaler Entscheidungen und müssen immer berücksichtigt werden. Entscheidet sich eine Studentin beispielsweise für einen Restaurantbesuch und bezahlt 30 EUR für das Abendessen, dann bestehen die Opportunitätskosten des Restaurantbesuchs aus diesen Kosten und dem entgangenen Nutzen der besten Alternative (Nachhilfestunde mit einem Verdienst von 20 EUR) - und betragen entsprechend 30 EUR plus 20 EUR gleich 50 EUR.  Sunk Costs - viele Entscheidungen finden vor dem Hintergrund von Ausgaben (Kosten) statt, welche in der Vergangenheit getätigt wurden und auch durch eine neue Entscheidung nicht rückgängig gemacht werden können. Sunk Costs (irreversible Vergangenheitskosten) sind zwar tatsächliche Kosten, sind aber aufgrund ihrer spezifischen Verwendung (der Semesterbeitrag vom letzten Jahr) für künftige Entscheidungen irrelevant und dürfen für eine rationale Entscheidung nicht berücksichtigt werden (vgl. weiterführend ► Kapitel 3 und ► Kapitel 6). <?page no="61"?> Kundenverhalten und Nachfrageentscheidungen 61  Case Study │ Entscheidung für ein wirtschaftswissenschaftliches Studium Man kann sich die vier Bedingungen vollständig rationaler Entscheidungen sehr gut anhand der Entscheidung für ein wirtschaftswissenschaftliches Studium verdeutlichen:  Vollständige Präferenzen - vor der Bewerbung um einen Studienplatz hat ein Studierender zunächst alle Studiengänge in eine eindeutige Rangfolge gebracht und danach alle Hochschulen des präferierten Studiengangs ebenfalls in eine eindeutige Reihe gebracht.  Nutzenmaximierung - ein Studierender wählt dann - bei gegebenem Budget - einen Studiengang und Studienort, der sein künftiges Einkommen, die Karrieremöglichkeiten, das Wohlbefinden und das Ansehen maximieren.  Opportunitätskosten - ein Studierender hat bei der Wahl des Studiengangs BWL alle parallel nicht realisierbaren Möglichkeiten, bspw. ein Zahnmedizinstudium, abgewogen und diese Opportunitätskosten (insbesondere das entgangene mögliche höhere Einkommen) bei seiner Entscheidung berücksichtigt.  Sunk Costs - sollte, wider Erwarten, ein Studierender im sechsten Semester kurz vor Abgabe der Bachelorarbeit feststellen, dass die Studienwahl nicht seinen Präferenzen entspricht, wechselt er umgehend den Studiengang, denn die bisherigen Investitionen in Lernen und Studiengebühren sind Sunk Costs. Es liegt auf der Hand, dass zahlreiche Entscheidungen - nicht nur die Wahl des Studiengangs - auf Basis von Routinen oder ohne vollständiges Abwägen aller Alternativen getroffen werden - die Auswirkungen begrenzter Rationalität auf Entscheidungen werden im nachfolgenden ► Kapitel 3 betrachtet. Abbildung 2.2: Nutzen, Einkommen und Preise. Präferenzen Budgetgerade implizit und explizit gegeben Konzept zur Erklärung beobachtbares Verhalten (revealed preference) Prognose von Konsumentscheidungen Kaufentscheidungen Budgetbeschränkungen Indifferenzkurve <?page no="62"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 62 Der Zusammenhang zwischen Kaufentscheidungen, Einkommen, Preisen und Nutzen kann, wie in ► Abbildung 2.2 gezeigt, konzeptionell erfasst werden, um Prognosen von Kaufentscheidungen abzuleiten. Hierfür ist notwendig, Nutzen greifbar zu machen: Nutzen ist ein theoretisches Konstrukt und kann nicht direkt beobachtet oder gemessen werden. Allerdings kann man Nutzen indirekt bestimmen: Man kann Kunden betreffend der Veränderung des Nutzens bei nochmaligem oder weiterem Konsum eines bestimmten Produktes - bspw. eines Stückes Schokolade - fragen, ob das letzte Stück, besser/ genauso gut/ schlechter als das unmittelbar zuvor gegessene Stück Schokolade geschmeckt hat. Für die allermeisten Menschen wird hier in Experimenten beobachtet, dass zumindest nach einer größeren Menge an Schokolade die Zufriedenheit nicht weiter ansteigt und die Vorfreude auf das nächste Stück abnimmt. Diese Veränderung des Nutzens bei einer marginalen Ausdehnung des Konsums eines Produktes wird als Grenznutzen bezeichnet: Es beschreibt den zusätzlichen Nutzen aus der letzten konsumierten Einheit eines Produktes (Luce 2014) - bei positivem Grenznutzen steigt der Nutzen, bei negativem Grenznutzen geht der Nutzen zurück. Im oberen Teil der ► Abbildung 2.3 ist der Grenznutzen als Funktion der Produkte Mikroökonomie-Lehrbuch und Bier eingezeichnet. Für viele Menschen führt zunehmendes Lesen in Mikroökonomie-Lehrbüchern zu zunehmender Zufriedenheit aufgrund anwachsenden Wissens, allerdings wird der Grenznutzen als Zuwachs an Wissen immer geringer: Der Zuwachs an Wissen im linken Beispiel nimmt ab, so dass zwar der Nutzen steigt, aber mit immer kleiner werdender Zuwachsrate. Im Gegensatz dazu führt zunehmender Konsum von Bier ab einer bestimmten Menge oftmals zu negativem Grenznutzen. Typischerweise beenden Menschen den Konsum eines Produktes, bevor der Grenznutzen negativ wird. Abbildung 2.3: Graphische Darstellung von Nutzen und Grenznutzen. Nutzen Mikroökonomie Bier Nutzen 0 0 Grenznutzen Mikroökonomie Grenznutzen Bier 0 0 <?page no="63"?> Kundenverhalten und Nachfrageentscheidungen 63 Der Grenznutzen beschreibt die Veränderung des Nutzens in Abhängigkeit der konsumierten Menge - mathematisch ist das die Ableitung einer Nutzenfunktion 𝑢𝑢𝑢𝑢(𝑞𝑞𝑞𝑞) nach der Menge 𝑞𝑞𝑞𝑞 , so dass sich allgemein mit (2.1) 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 > 0 und 𝜕𝜕𝜕𝜕2𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞2 < 0 ergibt, dass der Grenznutzen MU positiv ist, aber mit zunehmendem Konsum eines Produktes abnimmt - gleichbedeutend mit Nutzen, der mit abnehmender Rate ansteigt. Da jeder Mensch andere Präferenzen hat, unterscheiden sich natürlich die individuellen Nutzenfunktionen, die allgemein - bspw. für zwei Produkte Wohnen 𝑊𝑊𝑊𝑊 und Party machen 𝑃𝑃𝑃𝑃 - durch (2.2) 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊, 𝑃𝑃𝑃𝑃) dargestellt werden und verschiedene mathematische Formen, bspw. 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊, 𝑃𝑃𝑃𝑃) = 𝑊𝑊𝑊𝑊 + 𝑃𝑃𝑃𝑃 oder 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊, 𝑃𝑃𝑃𝑃) = 𝑊𝑊𝑊𝑊 0,7 𝑃𝑃𝑃𝑃 0,3 , annehmen kann, die der Bedingung (2.1) genügen. Grenznutzen und Nutzen aus Wohnen und Party Um den Zusammenhang zwischen Grenznutzen und Nutzen über mehrere Produkte hinweg zu verdeutlichen, werden die Entscheidungen einer Studentin analysiert. Die Studentin verfügt über 800 EUR monatlich frei verfügbares Einkommen (Budget), wovon allerdings monatlich 200 EUR für lebensnotwendige Einkäufe verwendet werden. Die restlichen 600 EUR gibt die Studentin vollständig für die zwei Produkte Wohnen 𝑊𝑊𝑊𝑊 und Party machen 𝑃𝑃𝑃𝑃 aus. In ► Abbildung 2.4 sind die Produkte Wohnen (in Abhängigkeit der Quadratmeterzahl) und Party machen (abends Weggehen pro Monat) dargestellt. Die betrachtete Studentin wohnt aktuell in einer kleinen Wohnung mit 25 m 2 und geht durchschnittlich 16-mal jeden Monat abends aus. Zwar würde der Nutzen sowohl mit einer größeren Wohnung als auch mit häufigerem Weggehen ansteigen, aber nur unterproportional. Insbesondere würde bspw. der Nutzen einer 10 m 2 größeren Wohnung, einem Zuwachs von 25 m 2 auf 35 m 2 , deutlich ausfallen, ein Zuwachs um 10 m 2 von bspw. 60 m 2 auf 70 m 2 würden den Nutzen deutlich geringer ansteigen lassen. Die erste Ableitung der jeweiligen Nutzenfunktionen (die durch Beobachtung oder Befragung ermittelt und ökonometrisch geschätzt wurde) gibt dann, wie ► Abbildung 2.4 angegeben, den Grenznutzen jedes Produktes an. <?page no="64"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 64 Abbildung 2.4: Nutzen und Grenznutzen für Wohnungsgröße und Partys. Indifferenzkurven und Grenzrate der Substitution Den Nutzen, den die Studentin aus beiden Produkten gemeinsam erzielt, kann man aus Vergleichen von möglichen Produktkombinationen ermitteln. In ► Abbildung 2.5 sind links zunächst beliebige Kombinationsmöglichkeiten aus Wohnungsgrößen und Party machen pro Monat eingezeichnet. Einige Punkte lassen sich leicht vergleichen und in eine eindeutige Rangfolge bringen: So ist C‘ eindeutig besser als A‘ - bei gleicher Zahl des Partymachens ist die Wohnung größer. Genauso ist B‘‘ eindeutig schlechter als A, denn bei gleicher Wohnungsgröße kann man seltener Party machen. Allerdings lassen sich einige Punkte - insbesondere aus Perspektive individueller Präferenzen - nicht eindeutig in eine Rangfolge bringen. So lässt sich A‘ zunächst schwer mit B‘‘ vergleichen - einmal ist die Wohnung größer, man kann aber seltener Party machen, das andere Mal ist Wohnung kleiner, aber man kann häufiger Party machen. Findet man allerdings Punkte, die aus individueller Perspektive den gleichen Nutzen haben, dann ist man indifferent zwischen den Alternativen - man kann sich aufgrund der Gleichwertigkeit des Nutzens nicht entscheiden. Diese Punkte können aber mittels einer Indifferenzkurve verbunden werden. Entlang dieser Indifferenzkurve - in ► Abbildung 2.5 rechts zu sehen - ist der Nutzen aus Kombinationen der beiden Produkte gleich groß. Indifferenzkurven lassen sich entweder über Marktforschung ermitteln (man befragt Menschen zu alternativen Kombinationsmöglichkeiten von Produkten) oder auf Basis getroffener und beobachteter Entscheidungen rekonstruieren. u(m 2 ) Nutzen steigt an Grenznutzen nimmt ab 0 10 20 30 40 50 60 70 80 m 2 Beispiel einer spezifischen Nutzenfunktion MU(m 2 ) MU(partys) u(partys) Nutzen steigt an Grenznutzen nimmt ab 0 2 4 6 8 10 12 14 16 18 20 Parties 0 10 20 30 40 50 60 70 80 m 2 0 2 4 6 8 10 12 14 16 18 20 Partys u = u qm = qm 0,5 u = u party = party 0,7 𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕 = MU qm = 0,5 ∙ qm −0,5 𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 = MU party = 0,7 ∙ party −0,3 <?page no="65"?> Kundenverhalten und Nachfrageentscheidungen 65 Abbildung 2.5: Herleitung einer Indifferenzkurve. Eine Indifferenzkurve bildet die Präferenzen eines Kunden ab und zeigt Punkte gleichen Nutzenniveaus aus dem Konsum mehrerer Produkte an, analog zu einer Isobare in einer Wetterkarte, die Punkte gleichen Luftdrucks beschreibt. Die Studentin wäre in diesem Beispiel bereit, in eine kleinere Wohnung mit nur 20 m 2 umzuziehen, wenn sie dafür statt 16-mal jetzt 20-mal pro Monat Party machen kann - und so einen Tausch (Trade-Off) von 5 m 2 gegen viermal Weggehen vorzunehmen. In ► Abbildung 2.6 rechts oben ist zu sehen, dass sich das Tauschverhältnis entlang der Indifferenzkurve verändert: Je mehr von einem Produkt vorhanden ist, umso mehr wird gegen ein anderes Produkt eingetauscht. Der Tausch entlang einer Indifferenzkurve kann präziser als Grenzrate der Substitution, d.h. die relative Bereitschaft ein Produkt durch ein anderes zu ersetzen, gemessen werden. Um diese zu ermitteln, kann für eine Nutzenfunktion 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊, 𝑃𝑃𝑃𝑃) zunächst das totale Differential als (2.3) 𝑑𝑑𝑑𝑑𝑢𝑢𝑢𝑢 = 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝑑𝑑𝑑𝑑𝑊𝑊𝑊𝑊 + 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑃𝑃𝑃𝑃 𝑑𝑑𝑑𝑑𝑃𝑃𝑃𝑃 , ermittelt werden. Hier bezeichnet 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 den Grenznutzen des Wohnens und 𝑑𝑑𝑑𝑑𝑊𝑊𝑊𝑊 die Veränderung der Wohnfläche aufgrund einer Konsumentscheidung, so dass 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝑑𝑑𝑑𝑑𝑊𝑊𝑊𝑊 die Veränderung des Nutzens aufgrund einer Veränderung der Wohnfläche beschreibt. Da der Nutzen entlang einer Indifferenzkurve konstant ist, ist die durch das totale Differential beschriebene Veränderung 𝑑𝑑𝑑𝑑𝑢𝑢𝑢𝑢 = 0 , so dass (2.3) umgestellt werden kann zu (2.4) 𝑛𝑛𝑛𝑛𝜕𝜕𝜕𝜕 𝑛𝑛𝑛𝑛𝑃𝑃𝑃𝑃 = − 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 . Die Grenzrate der Substitution als Tauschverhältnis 𝑑𝑑𝑑𝑑𝑊𝑊𝑊𝑊 𝑑𝑑𝑑𝑑𝑃𝑃𝑃𝑃 ⁄ der beiden Produkte entspricht den Grenznutzenverhältnissen und misst die Veränderungen der Mengen der beiden Produkte an einem Punkt einer Indifferenzkurve - die Bereitschaft von einem Produkt etwas aufzugeben hängt davon ab, wie hoch der relative Grenznutzen der betrachteten Produkte ist. Wohnungsgröße in m 2 Party machen pro Monat 20 25 40 12 20 16 10 B‘ A‘ C‘ A A‘‘ B‘‘ Party machen pro Monat B C‘‘ 20 25 40 12 20 16 10 Wohnungsgröße in m 2 B‘ A‘ C‘ A B‘‘ B A‘‘ C‘‘ <?page no="66"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 66 Die Indifferenzkurven verlaufen konvex gekrümmt zum Ursprung, wenn ein Kunde auf keines der beiden Produkte vollständig verzichten würde - das wiederum impliziert, dass Kunden Vielfalt an Konsummöglichkeiten bevorzugen. Würden die Indifferenzkurven linear verlaufen und so die beiden Achsen schneiden, dann wäre ein Kunde bereit auf eines der beiden Produkte zugunsten des anderen zu verzichten: Beide Produkte wären dann perfekte Substitute. In ► Abbildung 2.6 rechts unten ist zu sehen, dass natürlich nicht nur eine, sondern unendliche viele Indifferenzkurven für einen Kunden existieren. Je weiter rechts oben eine Indifferenzkurve liegt, desto höher ist das Nutzenniveau. Abbildung 2.6: Nutzenfunktion und Indifferenzkurven. Die Indifferenzkurve durch die Punkte C‘ und C‘‘ zeigt ein höheres Nutzenniveau an - das ist unmittelbar klar, wenn man C‘ und A vergleicht: Die Wohnung ist mit 25 m 2 gleich groß, dafür kann die Studentin statt 16-mal hier 20-mal Party machen - die Frage ist jetzt, warum sie das nicht tut. Budgetbeschränkung und Konsummöglichkeiten Die Ursache hierfür liegt im begrenzten verfügbaren Einkommen und den Preisen für Wohnen und Party machen. Die Konsummöglichkeiten der Studentin unterliegen einer Budgetbeschränkung, die sich aus dem monatlichen Einkommen (Budget) in Höhe von 𝐼𝐼𝐼𝐼 = 800 , den lebensnotwendigen Supermarkteinkäufen 𝑆𝑆𝑆𝑆 = 200 sowie den Preisen für Wohnen in Höhe Wohnungsgröße in m 2 A‘ A A‘‘ Party machen pro Monat 20 25 40 12 20 16 Wohnungsgröße in m 2 A‘ A A‘‘ Party machen pro Monat 20 25 40 12 20 16 dP dW Wohnungsgröße in m 2 A‘ A‘‘ Party machen pro Monat 20 25 40 12 20 16 Wohnungsgröße in m 2 B‘ A‘ C‘ A A‘‘ B‘‘ Party machen pro Monat B C‘‘ 20 25 40 12 20 16 10 gleiches Nutzenniveau Tausch ~ -4/ 5 Tausch ~ -4/ 15 Grenzrate der Substitution ~ - 8/ 25 A steigendes Nutzenniveau <?page no="67"?> Kundenverhalten und Nachfrageentscheidungen 67 𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕 = 8 je m² und Party machen in Höhe von 𝑝𝑝𝑝𝑝 𝑃𝑃𝑃𝑃 = 25 ergeben. Die Konsummöglichkeiten ergeben sich dann aus einer Budgetbeschränkung in Form von (2.3) 𝐼𝐼𝐼𝐼 = 𝑆𝑆𝑆𝑆 + 𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕 𝑊𝑊𝑊𝑊 + 𝑝𝑝𝑝𝑝 𝑃𝑃𝑃𝑃 𝑃𝑃𝑃𝑃 als (2.4) 800 = 200 + 8𝑊𝑊𝑊𝑊 + 25𝑃𝑃𝑃𝑃 oder (2.5) 600 = 8𝑊𝑊𝑊𝑊 + 25𝑃𝑃𝑃𝑃 . Die Budgetbeschränkung in (2.5) zeigt, dass, nach Abzug der Ausgaben 𝑆𝑆𝑆𝑆 für den Supermarkt, noch 600 EUR übrig bleiben, die entsprechend individueller Präferenzen für Wohnen und Party machen verwendet werden können. Man kann Gleichung (2.5) bspw. auflösen nach P und erhält mit (2.6) 𝑃𝑃𝑃𝑃 = 600 25 − 8 25 𝑊𝑊𝑊𝑊 die maximale Anzahl an Party machen in Abhängigkeit der Wohnungsgröße. Würde die Wohnung nicht existieren, 𝑊𝑊𝑊𝑊 = 0 , dann kann die Studentin vom verfügbaren Budget offenbar 𝑃𝑃𝑃𝑃 = 600/ 25 = 24 pro Monat Party machen. Umgekehrt kann man Gleichung (2.5) umstellen zu (2.7) 𝑊𝑊𝑊𝑊 = 600 8 − 25 8 𝑃𝑃𝑃𝑃 , so dass sich für 𝑃𝑃𝑃𝑃 = 0 eine maximale Wohnungsgröße von 𝑊𝑊𝑊𝑊 = 600/ 8 = 75 m 2 ergibt. Zudem wird die Steigung der Budgetgeraden durch die relativen Preise der beiden Produkte festgelegt, in diesem Fall mit (2.8) 𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕 / 𝑝𝑝𝑝𝑝 𝑃𝑃𝑃𝑃 = 8 25 . In ► Abbildung 2.7 links oben ist nun Gleichung (2.5) mit den Informationen aus (2.6) und (2.7) als Budgetgerade abgebildet. Die Budgetgerade beschreibt die Konsummöglichkeiten bei gegebenen Einkommen und gegebenen Preisen - alle Punkte darunter und darauf sind möglich, alle darüber sind unmöglich. Die Lage der Budgetgeraden wird durch das Einkommen bestimmt. Bei niedrigerem Einkommen verschiebt sie sich parallel nach unten, mit steigendem Einkommen parallel nach oben, da die Steigung bei konstanten Preisen unverändert bleibt. Wenn sich das Preisverhältnis ändert, wie in ► Abbildung 2.7 links unten aufgrund einer Preisreduktion bei Party machen eingezeichnet, dreht sich die Budgetgerade um den Punkt des Produktes, der konstant geblieben ist. In ► Abbildung 2.7 rechts oben ist die Budgetgerade mit den Indifferenzkurven aus ► Abbildung 2.7 kombiniert: Die Studentin wählt offenbar Punkt A, weil bei gegebenen Preisen und verfügbarem Einkommen hier die höchstmögliche Indifferenzkurve erreicht wird und die Budgetgerade diese Indifferenzkurve gerade tangiert. <?page no="68"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 68 Abbildung 2.7: Budgetgerade und Nutzenmaximierung. In ► Abbildung 2.7 rechts unten ist der Effekt einer Preisreduktion für Party machen zu sehen: Die hier betrachtete Studentin bleibt in ihrer Wohnung und wird künftig häufiger Weggehen - sie erhöht durch Wahl von C‘ ihr Nutzenniveau gegenüber A. Anhand von ► Abbildung 2.7 rechts oben lassen sich nun vier Beobachtungen machen und zentrale Schlussfolgerungen ziehen:  Nutzenmaximierung - bei Punkt A und der Kombination aus Wohnen auf 25 m 2 und 16mal Party machen maximiert die Studentin ihren Nutzen bei gegebenen Preisen und dem verfügbaren Einkommen entsprechend ihrer Präferenzen.  Eindeutig bestmögliche Produktkombination - Punkt A wird offensichtlich gegenüber B‘‘ vorgezogen, denn bei gleicher Wohnungsgröße wird seltener Party gemacht. Damit wird aber auch A gegenüber B‘ vorgezogen: B‘‘ und B‘ haben dasselbe Nutzenniveau, so dass A aus Perspektive der Studentin auch besser als B‘ ist.  Preisverhältnisse entsprechen den Grenznutzenverhältnissen - die Steigung der Indifferenzkurve entspricht beim Punkt A der Steigung der Budgetgeraden. Die Steigung der Budgetgeraden wird vom relativen Preisverhältnis von Wohnen und Party machen bestimmt, die Steigung der Indifferenzkurve wird vom Verhältnis der Grenznutzen beider Produkte bestimmt.  Opportunitätskosten - wenn die Studentin häufiger Party machen möchte, muss sie auf Wohnraum verzichten: Die Opportunitätskosten je Party machen zu 25 EUR betragen bei einem Quadratmeterpreis von 8 EUR entsprechend 3,125 m 2 - sie muss auf 3,125 m 2 Wohnfläche verzichten, um einmal häufiger Party zu machen. 600 / 25 = 24 = verfügbares Budget geteilt durch Preis für Weggehen Wohnungsgröße in qm Party machen pro Monat 24 75 Wohnungsgröße in qm Party machen pro Monat 24 75 niedrigeres Einkommen: 400 30 Party machen billiger: 20 16 50 C‘ A 25 20 16 Wohnungsgröße in qm 24 75 30 Party machen pro Monat B‘ A‘ A A‘‘ B‘‘ Party machen pro Monat 20 25 40 12 20 16 10 Wohnungsgröße in qm 24 75 C‘ Steigung = - 8 / 25 = Verhältnis der Preise = relatives Preisverhältnis 600 / 8 = 75 = verfügbares Budget geteilt durch Preis für Wohnen <?page no="69"?> Kundenverhalten und Nachfrageentscheidungen 69 Da an Punkt A die Preisverhältnisse den Grenznutzenverhältnissen entsprechen, d.h. (2.8) 𝑝𝑝𝑝𝑝𝜕𝜕𝜕𝜕 𝑝𝑝𝑝𝑝𝜕𝜕𝜕𝜕 = 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 ⁄ 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑃𝑃𝑃𝑃 ⁄ gilt, kann nach Umformung zu (2.9) 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑃𝑃𝑃𝑃 ⁄ 𝑝𝑝𝑝𝑝𝜕𝜕𝜕𝜕 = 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 ⁄ 𝑝𝑝𝑝𝑝𝜕𝜕𝜕𝜕 allgemein formuliert werden, dass bei rationalen Kaufentscheidungen das Verhältnis von Grenznutzen zu Preis über alle Produkte gleich ist - dies gilt natürlich nicht nur für zwei Produkte, sondern prinzipiell für alle Produkte, die ein Kunde konsumiert. Mit anderen Worten formuliert: Bei gegebenen Preisen mehrerer Produkte kaufen Kunden mit dem letzten verfügbaren Euro immer das Produkt, das aktuell den höchsten Grenznutzen pro Euro hat. Wenn eine Studentin Freitagabends weggeht, dann wird sie ihr Geld so einteilen und ausgeben, dass über alle Produkte hinweg (bspw. Aperol Spritz in der Lieblingskneipe und Burger am St. Johanner Markt) der Grenznutzen je Euro gleich groß ist. Daraus ergibt sich eine weitere Erklärung, weshalb Punkt B‘ nicht gewählt wird. Bei B‘ ist offensichtlich die Steigung der Indifferenzkurve steiler als die Budgetgerade, so dass wegen (2.10) 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑃𝑃𝑃𝑃 ⁄ 𝑝𝑝𝑝𝑝𝜕𝜕𝜕𝜕 < 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 ⁄ 𝑝𝑝𝑝𝑝𝜕𝜕𝜕𝜕 offenbar der Grenznutzen aus 20-mal Party machen nicht groß genug ist, um in einer nur 10 m 2 großen Wohnung bei gegebenen Preisverhältnissen zu leben. Das hier zugrundeliegende Konzept der Grenzrate der Substitution mag auf den ersten Blick theoretisch erscheinen, lässt sich aber empirisch in vielen Situationen beobachten, insbesondere im Rahmen von internationalem Handel oder an Wertpapierbörsen beim Tausch von Renditeerwartungen unterschiedlicher Wertpapiere. Aber schon Kinder auf dem Schulhof verhalten sich entsprechend, wenn sie bspw. Fußballbilder miteinander tauschen und relativ teure Bilder von Ronaldo gegen eine Vielzahl relativ billiger Bilder weniger namhafter Spieler handeln. Aus Managementperspektive kann aus empirischen Konsummustern - wie bspw. vom Statistischen Bundesamt oder von Marktforschungsunternehmen wie GfK oder Nielsen veröffentlicht - bei gegebenen Preisen indirekt auf die Präferenzen der Kunden zurückgeschlossen werden. Insbesondere können Entscheidungen für das eigene Produktportfolio oder Preisstrategien abgeleitet werden, wenn Preisveränderungen von Produkten beobachtet werden, die einen maßgeblichen Anteil am Budget oder Einkommen eines Kunden ausmachen, wie bspw. Wohnungsmiete, Lebensmittelpreise oder wenn Produkte mit Steuern belegt werden. Zahlungsbereitschaft, Nutzen und Konsumentenrente Das Konzept aus Indifferenzkurven und Budgetgeraden findet zahlreiche Anwendungsfelder in der Marktforschung und bei der Abschätzung von relativen Preiselastizitäten, ermöglicht aber auch (zumindest für den Fall, dass die Nachfrage nach einem Produkt nicht stark vom Einkommen beeinflusst wird) eine Begründung für Nachfragefunktionen und macht Nutzen näherungsweise messbar. In ► Abbildung 2.8 links oben ist zu sehen, dass bei einer gegebenen Schar an Indifferenzkurven eines Kunden bei veränderten Preisverhältnissen die jeweils nachgefragte Menge der beiden Produkte angepasst wird. Wenn der Preis von Pro- <?page no="70"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 70 dukt 2 von 𝑝𝑝𝑝𝑝 2 = 2 über 1 auf 0,5 bei unverändertem Preis 𝑝𝑝𝑝𝑝 1 von Produkt 1 zurückgeht, dreht sich die Budgetgerade nach außen und wird flacher - Produkt 2 wird relativ zu Produkt 1 günstiger. Die Nachfrage steigt entlang der Preis-Konsum-Kurve, die durch die Tangentialpunkte von Indifferenzkurven und Budgetgeraden zustande kommt, damit von 5 über 15 auf 25 Stück an. Überträgt man diese Preis-Mengen-Koordinaten nach links unten, so kann für Produkt 2 aus der Abfolge der nutzenmaximierenden Tangentialpunkte A, B und C jetzt eine Nachfragekurve entlang A‘, B‘ und C‘ konstruiert werden - mit sinkenden Preisen wird mehr nachgefragt. Wenn sich Einkommen oder Preise des anderen Produktes verändern, dann verändert sich die Lage der Nachfragekurve in ► Abbildung 2.8 links unten. Abbildung 2.8: Individuelle Nachfragekurve und Nutzenmaximierung. Wenn aus der Nutzenmaximierung die Nachfragekurve abgeleitet werden kann, dann findet sich der Nutzen indirekt auch in der Nachfragefunktion wieder: Im rechten Teil der ► Abbildung 2.8 ist für eine vereinfachend linear und stetig angenommene Nachfragefunktion (2.11) 𝑝𝑝𝑝𝑝 = 𝑎𝑎𝑎𝑎 𝑎 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 eingezeichnet. Bei einem Preis 𝑝𝑝𝑝𝑝 ∗ ist der Kunde offenbar bereit, eine Menge 𝑞𝑞𝑞𝑞 ∗ zu kaufen. Wäre der Preis höher, würde der Kunde nach Maßgabe der Nachfragekurve und entsprechend seiner individuellen Nutzenmaximierung und Zahlungsbereitschaft 𝑧𝑧𝑧𝑧 𝑃𝑃𝑃𝑃 weniger kaufen. Da der Preis bis zu einer Menge 𝑞𝑞𝑞𝑞 ∗ aber unter der jeweiligen Zahlungsbereitschaft 𝑧𝑧𝑧𝑧 𝑃𝑃𝑃𝑃 des Kunden liegt, entsteht ein individueller Nutzen 𝑢𝑢𝑢𝑢 𝑃𝑃𝑃𝑃 = 𝑧𝑧𝑧𝑧 𝑃𝑃𝑃𝑃 𝑎 𝑝𝑝𝑝𝑝 ∗ genau in Höhe dieser Differenz. Allgemein ergibt sich der (Netto-)Nutzen eines Kunden aus dem Konsum einer bestimmten Menge 𝑞𝑞𝑞𝑞 ∗ eines Produktes zu einem Preis 𝑝𝑝𝑝𝑝 ∗ aus der Summe der individuellen Nutzen bemessen durch die Dreiecksfläche zwischen der Nachfragefunktion und dem Preis als (2.12) 𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 = 𝑚𝑚𝑚𝑚−𝑝𝑝𝑝𝑝∗ 2 ⋅ 𝑞𝑞𝑞𝑞 ∗ 0 0 q 1 q 2 p 2 q 2 A B C A‘ B‘ C‘ 6 54 5 15 25 2 1 0,5 p 2 =2 p 2 =1 p 2 =0,5 5 15 25 q p ... 321 0 q* p* a z i 1 2 3 … individuelle Nachfragekurve Preis-Konsum-Kurve Konsumentenrente <?page no="71"?> Marktabgrenzung und Produktkategorien 71 und wird als Konsumentenrente bezeichnet (vgl. weiterführend ► Kapitel 7 und ► Kapitel 8).  Fragen │ Wie groß ist die Zahlungsbereitschaft für Instagram, wie groß ist die Konsumentenrente für Facebook? Zahlreiche Social-Media-Plattformen bieten Kunden die Mitgliedschaft und Nutzung kostenlos an - implizit bezahlen die Kunden mit geteilten Daten, die wiederum von den Plattformen weitergegeben und verkauft werden. Was aber wäre die Zahlungsbereitschaft für einen Facebook-Account? In einer empirischen Studie wurde dies indirekt überprüft: Europäische und US-amerikanische Studierende wurden gefragt, wie viel Geld sie erhalten wollen würden, um zu verhindern, dass ihnen für den nächsten Monat Social-Media-Dienste gesperrt werden. Die so ermittelte mittlere implizite monatliche Zahlungsbereitschaft für Facebook betrug 97 EUR, für WhatsApp 536 EUR, für Instagram 6,79 EUR und für LinkedIn 1,52 EUR - der Medianwert eines jährlichen Verzichtes auf Suchmaschinen müsste mit 17.530 USD, ein Verzicht auf kostenlose E-Mail-Dienste mit 8.414 USD und ein Verzicht auf YouTube mit 1.173 USD kompensiert werden (Brynjolfson et al. 2019). In einer anderen Studie ergab sich als notwendige Kompensation für den Verzicht auf eine einmonatige Nutzung von Facebook ein Mittelwert von 203 USD, der Medianwert betrug 100 USD, allerdings lagen 20 % der Kunden bei Werten größer als 500 USD. Konstruiert man aus diesen Werten eine Nachfragefunktion, dann ergibt sich alleine in den USA bei ca. 200 Mio. Facebook Mitgliedern eine monatliche Konsumentenrente von ca. 31 Mrd. USD (Allcott et al. 2020). 2.2 Marktabgrenzung und Produktkategorien Markt ist wahrscheinlich einer der meistverwendeten wirtschaftswissenschaftlichen Begriffe, in Unternehmen und in den Medien - Markt ist meist dort, wo der Kunde ist oder vermutet wird. Abseits dieser allgemeinen Definition sind Märkte aber schwer zu greifen und zu beschreiben. Zum einen verändern sie sich, weil Kunden ihr Verhalten ändern oder Wettbewerber aktiv auf den Markt einwirken, zum anderen lässt sich beliebig darüber diskutieren, ob Kaffee und Tee im ‚zum gleichen Markt‘ gehören, oder nicht - oder ob Instant-Kaffee und Kaffee-Pads zu einem Markt gehören. Im folgenden Abschnitt werden Abgrenzungsmöglichkeiten für Märkte und damit in Zusammenhang stehende Kategorien von Produkten entwickelt, um klare Begrifflichkeiten zu etablieren. Nachfrageveränderungen einzelner Kunden oder ganzer Marktsegmente können bspw. durch Änderungen der Präferenzen (gestiegene Vorliebe für gesunde Ernährung), durch Veränderung der relativen Preise (Preisreduktionen für Telekommunikation und Datennutzung), durch Einkommensänderungen (Netto-Gehaltserhöhungen auf Basis einer Einkommensteuersenkung), durch die Verfügbarkeit neuer Produkte auf Basis von Innovationen (Smartphones und Apps) oder aufgrund von Deregulierung von Märkten (Fernbusse in Deutschland) entstehen. Oftmals haben die Nachfrageveränderungen wechselseitige Effekte, die aus der Art und <?page no="72"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 72 Beziehung der Produkte untereinander stammen, und die Größe eines Marktes oder der Marksegmente beeinflussten. Zudem können das Zusammenspiel veränderter Präferenzen oder Zahlungsbereitschaft und Produktinnovationen zur Entstehung neuer Marktsegmente führen, gleichzeitig können Unternehmen auch aktiv ein neues Marktsegment adressieren und versuchen, dieses zu etablieren. Größe eines Marktes Die Nachfragekurve und die Größe eines Marktes können anhand der Zahl der Kunden und deren individueller Zahlungsbereitschaft bestimmt werden. Die Zahlungsbereitschaft selbst kann durch vier (kombinierbare) Möglichkeiten per Marktforschung ermittelt werden:  Direkte Kundenbefragung,  direktes/ indirektes Beobachten der tatsächlichen Entscheidungen,  ökonometrische Schätzung der Nachfrage bei Preisvariationen und  Analogieschlüsse aus Kaufentscheidungen anderer Produkte. In ► Abbildung 2.9 links ist beispielhaft das Ergebnis einer Marktforschung zur Ermittlung der Kombination aus Anzahl der Kunden und Zahlungsbereitschaft für ein Tablet abgebildet. Aus den empirischen Daten links lässt sich mit Statistikprogrammen wie Excel oder SPSS über eine Regressionsanalyse unmittelbar die empirische Nachfragefunktion - die per se beliebige lineare oder nichtlineare funktionale Formen annehmen kann - als (2.13) 𝑝𝑝𝑝𝑝 = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 𝑎 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 = 1000 𝑎 0,0025𝑞𝑞𝑞𝑞 bestimmen, die hier vereinfachend als lineare Funktion angenommen und geschätzt ist. Abbildung 2.9: Empirische Ermittlung der Nachfragekurve und Nachfragefunktion. Die Nachfragefunktion beschreibt die wechselseitige Abhängigkeit der nachgefragten Menge vom Preis eines Produktes, in der 𝑎𝑎𝑎𝑎 die maximale Zahlungsbereitschaft in diesem Markt benennt - in diesem Fall ist offenbar genau ein Kunde bereit, bis zu 1000 EUR zu bezahlen - und 1/ 𝑏𝑏𝑏𝑏 ein Indikator für die horizontale Größe des Marktes ist: Je kleiner 𝒃𝒃𝒃𝒃 , desto größer der Markt. Wenn jeder Kunde maximal ein Tablet kauft, ergibt sich für die maximale Anzahl an Kunden bei einem Preis von 𝑝𝑝𝑝𝑝 = 0 nach Umstellen von (2.13), dass mit maximale Zahlungsbereitschaft 0 100 400 900 p 1000 q 900 q 400 q 100 0 100 400 900 p 1000 400.000 𝑎b = 𝑎0,0025 p = p q = a 𝑎 bq = 1000 𝑎 0,0025q <?page no="73"?> Marktabgrenzung und Produktkategorien 73 (2.14) 𝑞𝑞𝑞𝑞(𝑝𝑝𝑝𝑝) = 𝑚𝑚𝑚𝑚−𝑝𝑝𝑝𝑝 𝑏𝑏𝑏𝑏 = 1000−0 0,0025 = 400.000 maximal 400.000 Tablets nachgefragt werden, jede Preiserhöhung führt zu einem Rückgang der nachgefragten Menge. Von der, durch die Parameter 𝑎𝑎𝑎𝑎 und 𝑏𝑏𝑏𝑏 bestimmten, Größe des Marktes abhängig ist das durch Erlöse 𝑅𝑅𝑅𝑅 (Umsatz) gemessene Marktvolumen, dass sich bei einem Marktpreis 𝑝𝑝𝑝𝑝 ∗ und der durch die Nachfragefunktion bestimmten Menge 𝑞𝑞𝑞𝑞 ∗ als 𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 ergibt. Abbildung 2.10: Marktgröße und Marktvolumen als Erlöse. Marktgröße, Marktsegmente und Marktanteile Häufig lässt sich ein Markt in unterschiedliche Segmente abgrenzen, die entweder aufgrund demographischer, sozioökonomischer, psychographischer oder verhaltensbasierter Merkmale der Kunden ohnehin existieren oder durch Produktdifferenzierungsstrategien der Unternehmen aktiv geschaffen werden (Dickson und Ginter 1987). Der Zusammenhang zwischen Marktsegmenten und der Größe eines Marktes lässt sich für drei Unternehmen nachvollziehen, die hochpreisige Tablets anbieten. In ► Abbildung 2.11 sind die hypothetischen Ergebnisse einer Marktforschung in einer bestimmten Region angegeben - unterstellt ist, dass aufgrund perfekter Produktdifferenzierung jeder potenzielle Kunde Stammkunde seiner Marke ist, und keine Wechselbereitschaft zu einer anderen Marke hat. Aufgrund der Nachfragefunktionen 𝐷𝐷𝐷𝐷 für die einzelnen Unternehmen (2.15) 𝐷𝐷𝐷𝐷 𝐴𝐴𝐴𝐴 : 𝑝𝑝𝑝𝑝(𝐴𝐴𝐴𝐴𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙) = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 𝐴𝐴𝐴𝐴 − 𝑏𝑏𝑏𝑏 𝐴𝐴𝐴𝐴 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 = 1000 − 0,0025𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 , (2.16) 𝐷𝐷𝐷𝐷 𝑆𝑆𝑆𝑆 : 𝑝𝑝𝑝𝑝(𝑆𝑆𝑆𝑆𝑎𝑎𝑎𝑎𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑢𝑢𝑢𝑢𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆) = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 𝑆𝑆𝑆𝑆 − 𝑏𝑏𝑏𝑏 𝑆𝑆𝑆𝑆 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 = 800 − 0,001𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 und (2.17) 𝐷𝐷𝐷𝐷 𝐻𝐻𝐻𝐻 : 𝑝𝑝𝑝𝑝(𝐻𝐻𝐻𝐻𝑢𝑢𝑢𝑢𝑎𝑎𝑎𝑎𝐻𝐻𝐻𝐻𝑙𝑙𝑙𝑙𝐻𝐻𝐻𝐻) = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 𝐻𝐻𝐻𝐻 − 𝑏𝑏𝑏𝑏 𝐻𝐻𝐻𝐻 𝑞𝑞𝑞𝑞 𝐻𝐻𝐻𝐻 = 800 − 0,004𝑞𝑞𝑞𝑞 𝐻𝐻𝐻𝐻 erkennt man, dass die potenziellen Kunden von Apple zwar mit 𝑎𝑎𝑎𝑎 𝐴𝐴𝐴𝐴 = 1000 eine höhere Zahlungsbereitschaft als die Kunden von Samsung und Huawei aufweisen, aber potenziell am meisten Kunden ein Samsung-Tablet erwerben, da mit 𝑏𝑏𝑏𝑏 𝑆𝑆𝑆𝑆 = 0,001 das Marktsegment größer als die Marktsegmente von Apple mit 𝑏𝑏𝑏𝑏 𝐴𝐴𝐴𝐴 = 0,0025 und Huawei mit 𝑏𝑏𝑏𝑏 𝐻𝐻𝐻𝐻 = 0,004 ist. Umgekehrt ist die Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 bei jedem Preisniveau für Apple am niedrigsten, für Huawei am höchsten. p 0 0 q p q a -b p* q* <?page no="74"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 74 Abbildung 2.11: Zahlungsbereitschaften für verschiedene Marken. Die Größe des Gesamtmarktes ergibt sich nun aus horizontaler Addition der drei Nachfragekurven, d.h. für jeden Preis wird die maximale Nachfrage der drei Segmente addiert. In ► Abbildung 2.12 sind die Nachfragefunktionen (2.15) bis (2.17) entsprechend eingezeichnet - die aggregierte Nachfragekurve verläuft flacher als die einzelnen Nachfragekurven. Abbildung 2.12: Horizontale Addition der Marktsegmente zur Ermittlung der Marktnachfrage. Bei einem Preis von 600 EUR würden 160.000 Tablets von Apple, 200.000 von Samsung und 50.000 von Huawei abgesetzt werden, so dass im gesamten Markt 𝑄𝑄𝑄𝑄 = 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 + 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 + 𝑞𝑞𝑞𝑞 𝐻𝐻𝐻𝐻 = 410.000 Tablets verkauft werden. Die Marktanteile 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 = 𝑞𝑞𝑞𝑞 𝑃𝑃𝑃𝑃 𝑄𝑄𝑄𝑄 ⁄ der Stückzahlen ergeben sich als 𝑆𝑆𝑆𝑆 𝐴𝐴𝐴𝐴 = 39,0 % , 𝑆𝑆𝑆𝑆 𝑆𝑆𝑆𝑆 = 48,8 % und 𝑆𝑆𝑆𝑆 𝐻𝐻𝐻𝐻 = 12,2 % . Würde der Preis nur 250 EUR betragen, würden die Unternehmen im Markt 𝑄𝑄𝑄𝑄 = 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 + 𝑞𝑞𝑞𝑞 𝑆𝑆𝑆𝑆 + 𝑞𝑞𝑞𝑞 𝐻𝐻𝐻𝐻 = 300.000 + 550.000 + 137.500 = 987.500 Tablets verkaufen, so dass sich die Marktanteile zu 𝑆𝑆𝑆𝑆 𝐴𝐴𝐴𝐴 = 30,4 % (−8,6 %) , 𝑆𝑆𝑆𝑆 𝑆𝑆𝑆𝑆 = 55,7 % (+6,9 %) und 𝑆𝑆𝑆𝑆 𝐻𝐻𝐻𝐻 = 13,9 % (+1,7 %) verändern, weil die einzelnen Marktsegmente bei unterschiedli- -0,0025 maximale Zahlungsbereitschaft 0 100 400 900 Anzahl der Kunden maximale Zahlungsbereitschaft 0 Anzahl der Kunden maximale Zahlungsbereitschaft 0 Apple Samsung Huawei 800 1000 400.000 200.000 Anzahl der Kunden -0,001 -0,004 q ,Q in Tsd. p D H p=1000 p=800 D A D S p=600 1.400 410 p=250 988 D H +D A +D S <?page no="75"?> Marktabgrenzung und Produktkategorien 75 chen Preisen unterschiedliche Größen haben - Apple würde zwar absolut wachsen, aber bei sinkenden Preisen aufgrund der geringsten Preiselastizität der Nachfrage am deutlichsten Marktanteile verlieren. Bei einem Preis von 800 EUR oder mehr würde Apple stark profitieren: Der Marktanteil würde, wie aus ► Abbildung 2.12 zu erkennen ist, auf 𝑆𝑆𝑆𝑆 𝐴𝐴𝐴𝐴 = 100 % ansteigen, denn keines der anderen Unternehmen hat Kunden mit einer derart hohen Zahlungsbereitschaft. Die Marktanteile 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 = 𝑅𝑅𝑅𝑅 𝑃𝑃𝑃𝑃 𝑅𝑅𝑅𝑅 ⁄ der Erlöse sind in diesem Fall identisch mit den Marktanteilen in Stückzahlen, da alle Unternehmen den gleichen Preis von 600 EUR resp. 250 EUR je Stück erzielen. Marktanteile in Stückzahlen und in Erlösen können sich unterscheiden, wenn die Preise der Produkte unterschiedlich sind und die Unternehmen ein unterschiedliches Produktportfolio anbieten, wie bspw. in der Automobilindustrie (vgl. weiterführend ► Kapitel 10 zu strategischem Wettbewerb und den Auswirkungen auf Marktanteile und Gewinne). Die Lage der Nachfragekurve ist zwar für die Unternehmen einer Industrie auf Basis von Einkommen, Bevölkerung und Preisen anderer Produkte teilweise vorbestimmt, Unternehmen können aber die Lage der Nachfragefunktion beeinflussen. In ► Abbildung 2.13 sind die beiden polaren Fälle dargestellt: Links können die Unternehmen die Zahlungsbereitschaft aller potenziellen Kunden in gleichem Maß erhöhen, so dass sich die Nachfragekurve parallel nach oben verschiebt, rechts vergrößert sich der Markt durch Ausdehnung auf neue Kundensegmente auf mehr Kunden bei konstanter Zahlungsbereitschaft. Abbildung 2.13: Beeinflussung der Nachfrage und Marktgröße durch Unternehmen. Unternehmen können die Lage der Nachfragekurve wesentlich durch zwei Strategien versuchen zu beeinflussen: Marketing als direkte oder indirekte Beeinflussung der Präferenzen, Werbung in vorhandenen Zielgruppen oder Adressierung neuer Kundensegmente sowie Produktqualität in Form von Ausstattungsmerkmalen, Technologie oder Zusatzleistungen (Chatmi und Elasri 2017, Sridhar et al. 2014 sowie Dorfman und Steiner 1954). Beide Strategien können zu höheren Werten von 𝑎𝑎𝑎𝑎 (höhere Zahlungsbereitschaft) oder niedrigeren Werten von 𝑏𝑏𝑏𝑏 (mehr Kunden) führen. Allerdings zeigt sich in empirischen Studien, dass Marketing oft einen stärkeren Effekt auf 𝑏𝑏𝑏𝑏 bspw. durch die Adressierung neuer Kundensegmente hat, wohingegen einer Verbesserung der Technologie, Qualität und Leistungskomponenten der Produkte stärker auf die Zahlungsbereitschaft 𝑎𝑎𝑎𝑎 aller Kunden wirkt (Levin und Reiss 1989, p 0 q a‘ p 0 q a b‘ < b b höhere Zahlungsbereitschaft mehr Kunden <?page no="76"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 76 Johnson und Myatt 2006 sowie Ashley et al. 1980). Aus Managementperspektive ist wesentlich, diese separaten Effekte unternehmens- oder industriespezifisch zu ermitteln, um so Entscheidungen über die optimalen F&E- und Marketing-Investitionen und deren Relation zueinander zur Beeinflussung der Nachfrage treffen zu können. Produktlebenszyklen Offensichtlich verändern Unternehmen im Zeitablauf durch Produktinnovationen ihr Portfolio (weiter dazu ► Kapitel 4). Der Produktlebenszyklus (oder auch Modellebenszyklus) beschreibt die Entwicklung des Absatzes eines Produktes anhand der Einführungs-, Wachstums-, Reife-, Sättigungs- und Rückgangsphase (Levitt 1965, Cox 1967 und Simon 1979), wie in ► Abbildung 2.14 zu sehen. Abbildung 2.14: Produktlebenszyklus. Der Produktlebenszyklus kann dabei auf Unternehmensebene (bspw. des iPod Mini von Apple) wie auch auf Industrieebene (Absatz von MP3-Playern verschiedener Unternehmen) identifiziert werden und kann in Aggregation zu Industrielebenszyklen führen (weiter dazu ► Kapitel 4). Entlang des Produktlebenszyklus steigt die abgesetzte Menge 𝑞𝑞𝑞𝑞 zunächst über-, dann unterproportional, bevor sie schließlich zurückgeht. Typischerweise senken die Unternehmen im Zeitablauf die Preise 𝑝𝑝𝑝𝑝 S-förmig, so dass die Erlöse 𝑅𝑅𝑅𝑅 zunächst schneller ansteigen als die Menge 𝑞𝑞𝑞𝑞 , in der Sättigungs- und Rückgangsphase dann aber schneller zurückgehen. Ursächlich für dieses Muster sind wechselseitige Veränderungen der Determinanten der Nachfrage:  Die maximale Zahlungsbereitschaft 𝑎𝑎𝑎𝑎 steigt während Einführungs- und Wachstumsphase und geht dann zurück,  die Größe des Marktes 1/ 𝑏𝑏𝑏𝑏 steigt bis zum Ende der Sättigungsphase und geht dann zurück, Zeit Erlöse R, Preise p, Menge q Einführung Wachstum Reife Sättigung Rückgang Nachfolgeprodukt maximale Zahlungsbereitschaft a steigt maximale Zahlungsbereitschaft a sinkt Größe des Marktes 1/ b steigt Größe des Marktes 1/ b geht zurück Preiselastizität e fällt Preiselastizität e steigt R p q <?page no="77"?> Marktabgrenzung und Produktkategorien 77  die Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 fällt zunächst in der Einführungsphase (gleichbedeutend mit einem Anstieg der Zahlungsbereitschaft von Frühadoptern des Produktes) und steigt dann sukzessiv an. Grundlegend für eine solche Sichtweise ist die Beobachtung, dass Unternehmen ihre Produkte regelmäßig erneuern - also eine Abfolge von Produktgenerationen sukzessiv auf den Markt bringen, um im Wettbewerb entweder Marktanteile von Konkurrenten zu gewinnen oder Neukunden mit neuen Produktmerkmalen oder auf Basis neuer Technologie zu adressieren. Empirisch unterscheidet sich die Länge der Produktlebenszyklen sowohl zwischen den Unternehmen als auch bezüglich der jeweiligen Produktgeneration eines Unternehmens. Häufig - wie bei Smartphones von Apple - ist zu beobachten, dass einzelne Generationen eines Produktes überlappend angeboten werden und die Generationswechsel zwischen den Unternehmen nicht synchron erfolgen (Wiecek-Janka et al. 2017). Als wesentliche Einflussfaktoren des Musters und der Dauer der Produktlebenszyklen hat sich eine Kombination von unternehmens- und nachfrageseitigen sowie technologischen Determinanten herauskristallisiert: Entscheidend ist das Zusammenspiel von Geschwindigkeit der Produktentwicklung sowie -innovation, Produktstrategie des Unternehmens, Verhalten der Konkurrenten sowie Kundenverhalten (Klepper 1996 sowie Anderson und Zeithaml 1984). Die Vielfalt der zu beobachtenden Muster - nicht nur über verschiedene Industrien hinweg, sondern auch innerhalb von Industrien - spiegelt damit die unterschiedlichen industrie- und unternehmensspezifischen Faktoren wider, die zudem einem zeitlichen Wandel und Trends unterliegen. So können sich Produktlebenszyklen durch technologische Neuerungen beschleunigen, umgekehrt können bei fehlenden Produktinnovationen und stabilen Präferenzen der Kunden Produktlebenszyklen nur schwach ausgeprägt sein oder ganz ausbleiben (Gruber 1995, Clark et al. 1987 sowie Clark und Fujimoto 1992). <?page no="78"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 78  Fragen │ Produktlebenszyklen und Produktgenerationen - warum kaufen Menschen wieder Schallplatten? Deutlich erkennbar werden diese Muster von Produktlebenszyklen in der Musikindustrie: In ► Abbildung 2.15 ist der Umsatz mit Musik in Deutschland nach Tonträgern und Kanälen im Zeitablauf zu sehen (Bundesverband Musikindustrie 2020 sowie Lehman-Wilzig und Cohen-Avigdor 2004). Abbildung 2.15: Umsatzentwicklung mit Musik in Deutschland 1984 bis 2019 in Mio. EUR (Quelle: Bundesverband Musikindustrie 2020). Offensichtlich verschiebt sich die Bedeutung unterschiedlicher Formate im Zeitablauf: Mitte der 1980er-Jahre dominierte die LP, wurde aber durch die von Philips, Polygram und Sony entwickelte CD zurückgedrängt. Ursache war, trotz deutlich höherer Preise, die längere Spielzeit, bessere Haltbarkeit, einfachere Handhabbarkeit und teils bessere Klangqualität. Parallel dazu konnte sich bei älteren Zielgruppen und Autofahrern noch bis in die 1990er-Jahre die MC als Tonträger halten. Der Grund sind indirekte Netzwerkeffekte und Wechselkosten: Im Auto installierte Autoradios mit MC-Playern und einfach handhabbaren Kassettenrekordern in Privathaushalten hätten beim Übergang zur CD einen unmittelbaren Austausch der Endgeräte erfordert, zudem wären bereits gekaufte MCs nicht mehr nutzbar gewesen. 0 500 1000 1500 2000 2500 3000 1984 1986 1988 1990 1992 1994 1996 1998 2000 2002 2004 2006 2008 2010 2012 2014 2016 2018 CD LP Streaming Single CD MC Downloads Musik-Video Klingeltöne Umsatz in Mio. EUR <?page no="79"?> Marktabgrenzung und Produktkategorien 79 Nachfolgend der Einführung von MP3 und anderen digitalen, datenreduzierten Formaten Mitte der 1990er-Jahre und der Entstehung von illegalen Online-Tauschplattformen wie Napster um das Jahr 2000 hat die CD absolut deutlich an Umsatz verloren. Mit der Etablierung von Breitbandnetzen und zunehmender Verbreitung von Smartphones seit 2007 wurden kostengünstigere Datentarife der Mobilfunkanbieter verfügbar, so dass seit 2018 Streaming in Deutschland das umsatzstärkste Musikformat ist. Aber die LP lebt - seit 2011 steigt der absolute Umsatz und relative Marktanteil kontinuierlich an. Kunden sind hier in sehr unterschiedlichen Marktsegmenten zu finden: Zum einen sind es ältere Männer mit hochwertigen Stereoanlagen, zum anderen junge Kunden im Hip-Hop- und DJ-Umfeld. Abbildung 2.16: Umsatzentwicklung nach Produkten. (Quelle: Bundesverband der Musikindustrie) In ► Abbildung 2.16 sind für die vier Produkte CD, Musik-Video (DVD, VHS und Blu-Ray), CD-Single und Downloads die jeweiligen Umsatzentwicklungen zwischen 1980 und 2000 abgebildet. Hinter allen nahezu idealtypischen Verläufen des Produktlebenszyklus liegen neben der Wettbewerbswirkung von Substituten insbesondere Veränderungen bei den komplementären Abspielgeräten (weg von Stand-Alone Lösungen wie CD-Playern oder dem iPod, hin zur softwarebasierten Integration in Laptop oder Smartphone) und eine Verschiebung weg von Eigentum an Dateien hin zu Nutzung in Form von Abonnements. Gerade der relativ kurze Produktlebenszyklus der Downloads (bspw. bei iTunes oder Amazon etwa 2012 bis 2017) zeigt, dass Menschen zunächst - ähnlich dem Verhalten bei LPs und CDs - Eigentum an Musik zwar als übliche Variante betrachtet haben, aber gerade aufgrund der virtuellen Nutzung über verschiedene Endgeräte hinweg mittlerweile Streaming-Dienste wie Spotify, Tidal oder Deezer bevorzugen. In der Folge haben auch Amazon, Apple und Google ihre Geschäftsmodelle von Download zu Streaming weiterentwickelt (weiterführend Datta et al. 2018 sowie Kretschmer und Peukert 2020). 0 20 40 60 80 100 120 140 160 180 1980 1990 2000 2010 2020 2030 Musik Video 0 500 1000 1500 2000 2500 1980 1990 2000 2010 2020 2030 CD 0 50 100 150 200 250 300 1980 1990 2000 2010 2020 2030 Downloads 0 50 100 150 200 250 300 350 1980 1990 2000 2010 2020 2030 CD Single <?page no="80"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 80 Produktkategorien und deren empirische Ermittlung Vor einer Entwicklung von Strategien zur Beeinflussung der Nachfrage ist eine Analyse der Einflussfaktoren der Nachfragefunktion notwendig, die auch die Abgrenzung von Märkten und Marksegmenten ermöglicht. Hierbei sind unter anderem die in ► Abbildung 2.17 dargestellten Fragestellungen zentral, die nachfolgend beantwortet werden. Abbildung 2.17: Möglichkeiten zur Klassifizierung von Produkten und Nachfragestruktur. Niveauänderungen des Einkommens, sowohl des Einkommens einzelner Kunden wie auch das durchschnittliche Pro-Kopf-Einkommen ganzer Nationen, beeinflussen die nachgefragte Menge. Der Effekt kann - in Analogie zur Preiselastizität der Nachfrage - anhand der Einkommenselastizität der Nachfrage (2.18) 𝜀𝜀𝜀𝜀 𝐼𝐼𝐼𝐼 = ∆𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 � ∆𝐼𝐼𝐼𝐼 𝐼𝐼𝐼𝐼 � ≅ 𝐼𝐼𝐼𝐼 𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝐼𝐼𝐼𝐼 für ∆ → 0 bestimmt werden. Die Einkommenselastizität beschreibt den prozentualen Anstieg der nachgefragten Menge 𝑞𝑞𝑞𝑞 bei einem 1 %-Anstieg des Einkommens 𝐼𝐼𝐼𝐼 - dieser Wert kann positiv oder negativ sein:  𝜺𝜺𝜺𝜺 𝑰𝑰𝑰𝑰 > 𝟎𝟎𝟎𝟎 : normale Produkte - mit steigendem Einkommen steigt die nachgefragte Menge dieser Produkte:  Wenn 𝜀𝜀𝜀𝜀 𝐼𝐼𝐼𝐼 ∈ ]0, 1] handelt sich um lebensnotwendige Produkte, deren Nachfrage zwar mit steigendem Einkommen ausgedehnt wird, allerdings unterproportional - dies gilt bspw. für Herrenbekleidung und Grundnahrungsmittel.  Wenn 𝜀𝜀𝜀𝜀 𝐼𝐼𝐼𝐼 > 1 handelt es sich um Luxusprodukte, deren Nachfrage mit steigendem Einkommen überproportional ansteigt - typischerweise werden diese Produkte zudem erst ab einer bestimmten Höhe des Einkommens überhaupt nachgefragt, wie Produktkategorien und Nachfragestruktur Was passiert mit der Nachfrage bei Einkommenssteigerungen? Unterscheiden sich die Produkte der Wettbewerber? Warum wird das Produkt nachgefragt? steigt > normale Produkte fällt > inferiore Produkte nein > homogene Produkte ja > heterogene Produkte funktional nicht funktional vertikale Produktdifferenzierung horizontale Produktdifferenzierung „Bandwagon“/ Imitation „Snob“/ Abgrenzung In welcher Beziehung stehen die Produkte zueinander? substitutive Produkte komplementäre Produkte Netzwerkeffekt direkte Netzwerkeffekte indirekte Netzwerkeffekte <?page no="81"?> Marktabgrenzung und Produktkategorien 81 bspw. Luxusuhren von Panerai oder Übernachtungen in Luxus-Hideaways wie Schloss Elmau.  𝜺𝜺𝜺𝜺 𝑰𝑰𝑰𝑰 < 𝟎𝟎𝟎𝟎 : inferiore Produkte - mit steigendem Einkommen geht die nachgefragte Menge dieses Produktes zurück: Der Grund hierfür ist, dass mit steigendem Einkommen der Erwerb von Produkten höherer Qualität oder besserem Ansehen möglich wird. Ein typisches Beispiel sind Zimmer in Wohngemeinschaften. Menschen mieten mit steigendem Einkommen nicht größere Zimmer in WGs, sondern wechseln quantitativ und qualitativ in eine eigene Wohnung. Empirische Einkommenselastizitäten der Nachfrage Produkt/ Dienstleistung Einkommenselastizität Produktkategorie Automobile 2,46 Luxusprodukte Möbel 1,48 Essen in Restaurants 1,40 Damenbekleidung 1,07 Leitungswasser 1,02 Herrenbekleidung 0,75 lebensnotwendige, normale Produkte Tabak und Zigaretten 0,64 Treibstoffe und Heizungsöl 0,48 Elektrizität 0,20 Margarine -0,20 inferiore Produkte Schweinefleisch -0,20 öffentlicher Nahverkehr -0,36 Tabelle 2.1: Empirische Einkommenselastizitäten Datenquelle: Houthakker und Taylor 1970, Blanciforti 1982, Taylor und Halvorsen 1977, Ward und King 1973 sowie Wold und Jureen 1953, vgl. auch Frank und Cartwright 2013 . <?page no="82"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 82 In ► Tabelle 2.1 sind die Einkommenselastizitäten aus einer Reihe von empirischen Studien wiedergegeben. Mit deutlich steigendem Einkommen nimmt die Nachfrage nach Autos (sowohl der Wert als auch die Anzahl der Autos) überproportional zu, der Verbrauch von Leitungswasser steigt mit steigendem Einkommen überproportional beim Wechsel von Dusche zu Badewanne und zur Bewässerung des eigenen Gartens und der Konsum von Schweinefleisch und Fahrten im öffentlichen Nahverkehr werden bei steigendem Einkommen zugunsten von höherwertigem Fleisch und Fahrten im eigenen Auto reduziert. Alle diese Effekte finden natürlich sukzessiv im Zeitablauf statt und nur bei hinreichenden und dauerhaften Änderungen des verfügbaren Einkommens, entsprechend verändert sich auch der Ausstattungsgrad der Haushalte mit Konsumelektronik oder Haushaltsgeräten (Statistisches Bundesamt 2017). Die nachgefragte Menge eines Produktes wird natürlich direkt durch den Preis des Produktes beeinflusst (vgl. ► Kapitel 1 zur Preiselastizität der Nachfrage), aber auch indirekt durch die Preise anderer Produkte. Dieser indirekte Effekt kann durch die Kreuzpreiselastizität der Nachfrage (2.19) 𝜀𝜀𝜀𝜀 𝑚𝑚𝑚𝑚𝑥𝑥𝑥𝑥 = ∆𝑞𝑞𝑞𝑞𝑥𝑥𝑥𝑥 𝑞𝑞𝑞𝑞𝑥𝑥𝑥𝑥 � ∆𝑝𝑝𝑝𝑝𝑦𝑦𝑦𝑦 𝑝𝑝𝑝𝑝𝑦𝑦𝑦𝑦 � ≅ 𝑝𝑝𝑝𝑝𝑦𝑦𝑦𝑦 𝑞𝑞𝑞𝑞𝑥𝑥𝑥𝑥 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝑥𝑥𝑥𝑥 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝𝑦𝑦𝑦𝑦 (für ∆ → 0) gemessen und bewertet werden. Die Kreuzpreiselastizität (2.19) beschreibt die prozentuale Veränderung der nachgefragten Menge eines Produktes 𝑥𝑥𝑥𝑥 nachfolgend einer 1 %-Veränderung des Preises 𝑝𝑝𝑝𝑝 𝑥𝑥𝑥𝑥 eines anderen Produktes 𝑦𝑦𝑦𝑦 - dieser Wert kann positiv oder negativ sein:  𝜺𝜺𝜺𝜺 𝒙𝒙𝒙𝒙𝒙𝒙𝒙𝒙 > 𝟎𝟎𝟎𝟎 : substitute Produkte - mit der Preiserhöhung von Produkt x steigt die Nachfrage nach Produkt y. Die Produkte sind aus Kundensicht offenbar relevante Alternativen, so dass bei einer relativen Preisänderungen die Nachfrage auf das jetzt relativ günstigere Produkt fällt: Ein Preisanstieg für Rindfleisch erhöht indirekt die Nachfrage nach Schweinefleisch und Geflügel; werden die Fahrpreise im öffentlichen Nahverkehr deutlich erhöht, weichen Kunden auf substitute Produkte wie Fahrrad oder Auto aus.  𝜺𝜺𝜺𝜺 𝒙𝒙𝒙𝒙𝒙𝒙𝒙𝒙 < 𝟎𝟎𝟎𝟎 : komplementäre Produkte - mit der Preiserhöhung von Produkt x fällt die Nachfrage nach einem anderen Produkt y. Die Produkte haben aus Kundensicht offenbar einen Verwendungszusammenhang, so dass bei einer Preiserhöhung eines der Produkte die Nachfrage beider Produkte zurückgeht: Ein Preisanstieg oder eine Steuererhöhung auf Kraftstoffe reduziert mittelfristig die Nachfrage nach Autos mit hohem Verbrauch; steigen die Preise für eine Spielekonsole, nimmt die Nachfrage nach komplementären Spielen ab. In ► Tabelle 2.2. sind die Kreuzpreiselastizitäten aus einer Reihe von empirischen Studien wiedergegeben, die typische Ergebnisse zeigen - bei spürbaren Preiserhöhungen wechseln Kunden von ihrem bisherigen Produkt zu einem substituten Produkt, das in ähnlicher Weise verwendet oder konsumiert werden kann. <?page no="83"?> Marktabgrenzung und Produktkategorien 83 Gerade der Vergleich aus Margarine und Butter sowie die Asymmetrie der Effekte zeigt, dass natürlich die grundlegenden Präferenzen eine zentrale Rolle spielen: Menschen wechseln bei Preiserhöhungen von Margarine in stärkerem Ausmaß zu Butter als umgekehrt. Dagegen ist der komplementäre Charakter von Unterhaltungselektronik und Lebensmitteln mit 𝜀𝜀𝜀𝜀 𝑚𝑚𝑚𝑚𝑥𝑥𝑥𝑥 = −0,72 Ausdruck eines Lebensstils: Je größer der Flachbildschirm zu Hause, desto häufiger und mehr wird vor dem Fernseher gegessen. Alle diese Effekte finden natürlich ebenfalls im Zeitablauf statt und werden zudem beeinflusst von Rahmenbedingungen wie den persönlichen Präferenzen, dem Marketing und natürlich dem kulturellen und soziökonomischen Umfeld. Empirische Kreuzpreiselastizitäten der Nachfrage Produkt Produkt mit Preisänderung Kreuzpreiselastizität Produktkategorie Butter Margarine 0,81 substitute Produkte Margarine Butter 0,67 Erdgas Heizöl 0,44 Rindfleisch Schweinefleisch 0,28 Elektrizität Erdgas 0,20 Gemüse Früchte 0,05 Unterhaltungselektronik Lebensmittel -0,72 komplementäre Produkte Frühstückscerealien fangfrischer Fisch -0,87 Tabelle 2.2: Empirische Kreuzpreiselastizitäten Datenquelle: Deaton 1987, Deaton 1990, Taylor und Halvorsen 1977 sowie Wold und Jureen 1953, vgl. auch Frank und Cartwright 2013. Aus Managementperspektive sind die Konzepte der Einkommens- und Kreuzpreiselastizitäten - in Ergänzung zur Preiselastizität der Nachfrage - immer dann wichtig, wenn Veränderungen der Konsummuster der Kunden beobachtet werden. Diese können einerseits veränderte Präferenzen signalisieren, andererseits können diese Veränderungen des Einkommensniveaus oder Änderungen der relativen Preise konkurrierender oder im Verwendungszusammenhang stehender Produkte ausgelöst sein. Für Unternehmen wie Amazon sind insbesondere negative Kreuzpreiselastizitäten und die Einkommenselastizität relevant: Wenn ein Kunde nach einem Produkt sucht, wird Amazon zusätzlich zu diesem Produkt insbesondere Produkte mit komplementären Eigenschaften platzieren, das absolute Preisniveau der vorgeschlagenen Produkte richtet sich nach der kundenspezifischen Einkommenselastizität. <?page no="84"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 84 Horizontale und vertikale Produktdifferenzierung Produkte innerhalb einer Produktklasse - Fahrräder, Joghurt oder BWL-Hochschulen genauso wie Mikroökonomie-Lehrbücher - sind selten homogene Produkte mit der Möglichkeit perfekter Substitution. Unternehmen versuchen, Produkte oder Dienstleistungen zu differenzieren, d.h. Unterschiedlichkeit innerhalb des eigenen Produktportfolios oder gegenüber Wettbewerbern herzustellen und dann in der Vermarktung zu positionieren. Ziele der Produktdifferenzierung sind:  Erhöhung der Zahlungsbereitschaft - wenn die Präferenzen der Kunden für ein Produkt, bspw. Autos, heterogen sind, dann kann die Zahlungsbereitschaft einzelner Kunden oder eines Marktsegmentes erhöht werden, wenn Produkte stärker differenziert werden und so besser den vorhandene Präferenzen entsprechen. In der Folge können - bei sonst gleichen Rahmenbedingungen - höhere Preise durchgesetzt werden.  Reduktion der Wettbewerbsintensität - wenn Kunden die Produkte von Wettbewerbern als enge Substitute betrachten und beliebig zu Konkurrenzprodukten wechseln oder wechseln würden, liegt hohe Wettbewerbsintensität vor. Produktdifferenzierung kann über Markenloyalität auf Basis von Branding, Wechselbarrieren infolge technologischer Inkompatibilität oder Positionierung des Unternehmens die Wettbewerbsintensität (die Rückwirkungen der strategischen Aktionen der Wettbewerber) reduzieren und die Gewinne erhöhen (weiterführend ► Kapitel 10). Produktdifferenzierung kann zwei Dimensionen annehmen, die signifikante Auswirkungen auf Marktstruktur und Wettbewerbsintensität einer Industrie haben (Shaked und Sutton 1987 sowie Gabszwicz und Thisse 1986 und weiterführend ► Kapitel 10):  Horizontale Produktdifferenzierung - Produkteigenschaften und/ oder -qualität unterscheiden sich zwar ggfs. geringfügig, sind aber funktional nahezu identisch. Allerdings stimmen die Kunden nicht in der subjektiven Präferenzordnung überein (Socken in schwarz vs. rot vs. gelb. vs. grün, Coke und Pepsi, Biersorten, Automarken etc.). Kunden haben offenbar einen unterschiedlichen Geschmack oder anderweitig unterschiedliche Präferenzen. In der Konsequenz sind einige Kunden bereit, für Coke mehr als für Pepsi zu bezahlen - bei anderen Kunden ist es umgekehrt. Unternehmen können horizontale Produktdifferenzierung primär durch Marketing etablieren und verstärken - bspw. durch Branding und Markenbewusstsein - technologische Unterschiede spielen eine untergeordnete Rolle.  Vertikale Produktdifferenzierung - Produkteigenschaften und/ oder -qualität unterscheiden sich funktional und alle Kunden stimmen in der objektiven Präferenzordnung überein (DSL mit 20Mbit vs. 50 Mbit vs. 100 Mbit, …), haben aber aufgrund von unterschiedlichem Nutzungsverhalten oder -anforderungen unterschiedliche Zahlungsbereitschaften. In der Konsequenz sind einige Kunden bereit, DSL mit 100 Mbit zu kaufen, andere nicht. Unternehmen können vertikale Produktdifferenzierung primär durch qualitative und technologische Eigenschaften begründen und ausbauen, sekundär kann durch Marketing der Effekt verstärkt werden. <?page no="85"?> Marktabgrenzung und Produktkategorien 85 Horizontale Differenzierung alleine ermöglicht meist keine Preisdiskriminierung, wenn die Kundengruppen ähnlich groß sind: Die Preise von Speiseeis in der Eisdiele, Downloads von Musiktiteln, Kinobesuche oder Biersorten liegen sowohl über Unternehmen hinweg als auch im Portfolio eines Unternehmens sehr nah beieinander oder sind sogar identisch. Bei vertikaler Differenzierung (schnelles vs. langsames DSL) ist Preisdiskriminierung die Regel, allerdings sind nicht die objektiven Leistungsunterschiede für die Preisunterschiede erklärend, sondern die Unterschiede in der Zahlungsbereitschaft (vgl. weiterführend ► Kapitel 7 und ► Kapitel 10). Typischerweise werden gemischte Strategien angewendet, um die Effekte von horizontaler und vertikaler Produktdifferenzierung wechselseitig zu verstärken (Degryse 1996 sowie Ferreira und Thisse 1996). Banken versuchen seit Langem, per se standardisierte und homogene Produkte und Dienstleistungen wie Zahlungsverkehr, Girokonto oder EC-Karten horizontal und vertikal zu differenzieren, ebenso investieren Lebensmittelkonzerne stark in die Produktdifferenzierung von Mineralwasser. Allerdings führt nur eine von einer großen Kundengruppe wahrgenommene Produktdifferenzierung zur Reduktion von Wettbewerbsintensität und zu einer relevanten Erhöhung der Zahlungsbereitschaft - Fans einer Marke oder Technologie- Nerds verzerren hier oft das Bild. Blindtests von Produkten zeigen, dass Produktdifferenzierung verloren geht, wenn Branding, Farbgebung oder Look and Feel des Produktes nicht mehr erkennbar sind, so dass in zahlreichen Industrien - gerade bei Konsumprodukten und Lebensmitteln - ein großer Teil vermeintlich wahrgenommener Produktdifferenzierung alleine auf strategischen Marketing-Investitionen basiert (Nenycz-Thiel und Romaniuk 2014 sowie Yamada et al. 2014). Damit Produktdifferenzierung aus Managementperspektive strategisch eingesetzt werden kann, müssen die Präferenzen der Kunden entweder exogen unterschiedlich und adressierbar oder mindestens durch Marketing beeinflussbar sein. Je größer die wahrgenommene Differenzierung, desto stärker kann die Zahlungsbereitschaft beeinflusst werden, desto geringer ist die Wettbewerbsintensität durch substitute Produkte, desto stärker ist die Möglichkeit zur Marktsegmentierung. Produktdifferenzierung ist eine wesentliche Strategie, um die Wettbewerbsintensität deutlich zu reduzieren - allerdings sind typischerweise signifikante Investitionen in Marketing und Technologie notwendig. <?page no="86"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 86  Case Study │ Horizontale und vertikale Produktdifferenzierung in der Automobilindustrie In der Automobilindustrie - wie in ► Abbildung 2.18 unvollständig und nur für die jeweiligen Modellplattformen für das Jahr 2017 skizziert - sind vertikale und horizontale Produktdifferenzierung durch umfangreiche und langjährige Investitionen in Technologie und Marketing seit Langem gut etabliert und wirken sich signifikant positiv auf die Gewinne der Unternehmen aus (Goldberg 1995, Guajardo et al. 2015 und Berry et al. 2004). Typische vertikale Produktdifferenzierung in der Automobilindustrie erfolgt über Motor- und Fahrleistung, Haltbarkeit und Zuverlässigkeit, Größe, Innenausstattung wie Multimedia, Sicherheitsausstattung sowie Service und Garantieleistung. Die horizontale Produktdifferenzierung wird über die Marke, das Design, das Look and Feel, den Status und die relative Positionierung der Marke in Abgrenzung oder Annäherung zu anderen Marken hergestellt. Verknüpft und verstärkt werden beide Dimensionen durch Produktproliferation (d.h. das Besetzen nahezu beliebiger Marktnischen durch Coupe-, Cabrio-, SUV-, Sport-, Van- oder Kombi-Modelle) und durch die Möglichkeit, dass der Kunde sein Auto personalisiert - über die üblichen Extras bis hin zu Spezialanbietern und Tunern (Fujimoto 2014). Abbildung 2.18: Horizontale und vertikale Produktdifferenzierung. (Produktklassen entsprechend Klassifizierung der EU Kommission). Eine grundlegende Präferenzverschiebung der letzten Jahrzehnte ist der zunehmende Wunsch von Kunden, Produkte zu individualisieren oder zu personalisieren. Unternehmen können Produkte in Modulen oder Varianten (Mass Customization und Mass Personalization) anbieten, um die Zahlungsbereitschaft für individualisierte Produkte zu erhöhen und Nischen in Marktsegmenten zu adressieren. Starbucks hat für ein per se homogenes Produkt, Kaffee, durch unterschiedliche Bechergrößen und starke vertikale und horizontale Differenzierung hohe Margen etabliert. Seit 2010 ermöglicht Starbucks Kunden im Shop zudem durch How- Ever-You-Want-It-Frappuccino eine nahezu vollständige Personalisierung inklusive (häufig falsch geschriebenen) Kundennamen auf dem Becher - 2016 mit einer Bruttomarge von etwa vertikale Produktdifferenzierung Kleinstwagen Kleinwagen Oberklasse Mittelklasse obere Mittelklasse Luxusklasse Volkswagen Audi BMW Mercedes Fox UP Smart Fortwo A1 i3 Mini Polo 1er A3 A4 A6 A8 3er 5er 7er A-Klasse A-Klasse C-Klasse E-Klasse S-Klasse Golf Passat horizontale Produktdifferenzierung <?page no="87"?> Marktabgrenzung und Produktkategorien 87 40 %, die zudem mit einer CAGR von ca. 15 % wächst. Unternehmen wie MyMuesli können den Preis für Haferflocken von 0,39 EUR für 500 Gramm durch Personalisierung auf Basis umfangreicher Konfigurationsmöglichkeiten auf deutlich über 10 EUR treiben (Abraham et al. 2017, Vesanen 2007, Starbucks 2016 und FAZ 2016). Unsicherheit bei Produkteigenschaften Gerade bei vertikaler und horizontaler Produktdifferenzierung sind Kunden oft nicht vollständig über alle Produkteigenschaften informiert, oder die Vielfalt der Produktinformationen überfordert die Fähigkeiten der Kunden alle Informationen korrekt zu bewerten. Produkte lassen sich dann auch durch den Grad an Unsicherheit vor und beim Konsum unterscheiden und klassifizieren (Nelson 1970 sowie Zeithaml 1988). Diese Unsicherheit kann auf das Produkt selbst, die zu tätigende Transaktion oder andere Marktteilnehmer bezogen sein und steigt von Suchüber Erfahrungszu Vertrauensgütern an:  Suchgüter - hier ist durch Marktanalyse im Vorfeld des Kaufs und Konsum eine Reduktion oder Beseitigung der Unsicherheit möglich. Natürlich sind mit der Informationsbeschaffung Kosten und insbesondere Zeitaufwand verbunden. Beispiele sind Kleidung, Fahrräder oder Laptops - zu allen Produkten kann vor dem Kauf recherchiert und wesentliche Produkteigenschaften getestet werden.  Erfahrungsgüter - Informationsbeschaffung im Vorfeld des Kaufs funktioniert nicht oder ist, relativ zum Kaufpreis, zu teuer. Hier können Kunden nur durch Ausprobieren nach dem Kauf die Eigenschaften oder die Qualität des Produktes kennenlernen. Beispiele sind die WLAN-Geschwindigkeit einer Airbnb-Wohnung, der Besuch eines neuen Restaurants oder der Kraftstoffverbrauch eines Gebrauchtwagens.  Vertrauensgüter - hier kann weder im Vorfeld des Kaufs noch beim Konsum die Produktqualität geprüft werden. Dies gilt für Airbags im Auto, für Kondome und Bio-Eier von glücklichen Hühnern genauso wie für ärztliche Diagnosen, präventive Medikamente oder Sportprogramme, aber auch für Produkte, die im Zeitablauf ihre Qualität ändern können: Finanzberatung für Anlageprodukte oder Schulbildung. Die Unsicherheit von Produkteigenschaften ist teilweise in den unterschiedlichen Präferenzen und unterschiedliche Konsumgewohnheiten der Kunden begründet, andererseits entsteht Unsicherheit durch unklare und schlecht beschreibbare Produkteigenschaften - Unternehmen können hier versuchen, durch geeignete Marketingmaßnahmen (informative oder suggestive Werbung) die Unsicherheit zu reduzieren. Unternehmen können Unsicherheit aber auch bewusst durch Marketingmaßnahmen schaffen, um die Zahlungsbereitschaft zu erhöhen oder strategisch die Produktqualität zu verschleiern. Dies gilt bei Taxifahrten für Ortsfremde: Häufig nutzen Taxifahrer den Informationsvorsprung gegenüber Kunden für Umwege und erzielen so höhere Umsätze (Balafoutas et al. 2013). In der Tourismusindustrie werden über unvollständig spezifizierte Produkte dagegen Reisen angeboten, bei denen der Kunde erst am Urlaubsort das tatsächliche Hotel erfährt: Hier ist das Ziel, Nachfrageund/ oder Kapazitätsschwankungen auszunutzen und neue Marktsegmente für Kunden mit niedriger Zahlungsbereitschaft zu etablieren (Gönsch 2020). <?page no="88"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 88 Die Unsicherheit der Produkteigenschaften kann verstärkt werden, weil - gerade bei arbeitsteiligen oder importierten Produkten aus Entwicklungsländern - die Herstell- und Arbeitsbedingungen nicht überprüft werden können. Für alle Produktkategorien kann es zu Marktversagen aufgrund von asymmetrischer Information kommen, aber insbesondere durch Test- und Prüfberichte (Stiftung Warentest, Verbraucherzentralen oder reale Bewertungen anderer Kunden in Bewertungsportalen), aber auch durch Zertifikate, Gütesiegel und Produktgarantien oder die Reputation des Verkäufers, kann die Unsicherheit und Informationsasymmetrie deutlich reduziert werden (weiterführend ► Kapitel 7). Marktabgrenzung Aus Managementperspektive ist eine zentrale Fragestellung, den relevanten Markt für ein Unternehmen und dessen Produkte abzugrenzen: Einerseits, um alle Kundengruppen und Marktsegmente für eine Marktanalyse zu erfassen, andererseits um alle Wettbewerber und deren Strategien, Geschäftsmodelle und Produkte für eine Wettbewerbsanalyse zu betrachten. In ► Abbildung 2.19 ist zu sehen, dass die Abgrenzung eines Marktes oder von Marktsegmenten entlang mehrerer Dimensionen erfolgen muss:  Technologische Dimension - im Mittelpunkt stehen materielle, technische oder funktionale Produktähnlichkeit sowie Produktions- und Herstellungsverfahren und Geschäftsmodelle: Aus technologischer Perspektive sind Sportwagen, Kleinwagen und SUVs, aber auch Traktoren, LKW und Busse in einem Markt.  Nachfrageseitige Dimension - alle Produkte, die aus Kundensicht als alternative Problemlösung betrachtet werden, werden in einem Markt zusammengefasst. Dies ist messbar über signifikant positive Kreuzpreiselastizität, da die Kunden hier bei Preisänderungen zu substituten Produkten abwandern: PKW, Fahrräder, öffentlicher Personennahverkehr, Fernbusse oder Mitfahrzentralen sind hier ein Markt. Substitutionslücken bestimmen dann die Grenzen eines Marktes.  Angebotsseitige Dimension - in zahlreichen Industrien erfolgt die Marktabgrenzung auf Basis eines im Zeitablauf entstandenen Wettbewerberverhaltens: Mercedes, BMW oder Lexus sind in einem Markt Wettbewerber, in einem anderen Segment konkurrieren Dacia, Kia oder Lada. Die Marktabgrenzung erfolgt über die strategische Wahrnehmung und das Verhalten der Unternehmen. <?page no="89"?> Marktabgrenzung und Produktkategorien 89 Abbildung 2.19: Marktabgrenzung in verschiedenen Dimensionen. Alle Abgrenzungen entlang dieser drei Dimensionen müssen zudem räumliche oder zeitliche Aspekte berücksichtigen. Räumliche Distanzierung spielt eine große Rolle bei Immobilien - ein Haus in Saarbrücken ist ein anderes Produkt als ein Haus in Hamburg - oder bei Produkten mit hohen Transportkosten, verliert aber bei digitalen oder virtuellen Produkten an Bedeutung. Typischerweise ist dennoch keine eindeutige Abgrenzung möglich: Mehrproduktunternehmen lassen sich nicht eindeutig zuordnen, Kundengruppen stimmen in ihren Kreuzpreiselastizitäten oder der Wechselbereitschaft zu anderen Marken nicht überein. Zudem verändern Produktinnovationen, bspw. die Konvergenz von Produkten wie E-Mail, Stadtplan, Navigationssystem, Hotelkatalog, Telefonie, Fotografie und Musik in ein Smartphone, und insbesondere Digitalisierung (bietet Google Käse an, weil bei Google in den Google Shopping-Suchergebnissen Käse platziert ist? ) bisherige Marktgrenzen immer wieder oder etablieren neue Märkte und Ökosysteme (Schmidt et al. 2016, Fiegenbaum und Thomas 1995, Gambardella und Torrisi 1998, Malhotra und Gupta 2001, vgl. auch ► Kapitel 4). In der Konsequenz ist die Marktabgrenzung situativ und unternehmensspezifisch. Aus wettbewerbspolitischer Perspektive ist die Abgrenzung des relevanten Marktes ebenfalls zentral: Hier muss abgeschätzt werden, ob bspw. ein Unternehmenszusammenschluss in einem Markt zu einem Anstieg der Marktmacht führt (vgl. weiterführend ► Kapitel 7). Die Wettbewerbspolitik verwendet mittlerweile den auf Kreuzpreiselastizitäten basierenden SSNIP-Test (Small but Significant and Nontransitory Increase in Price). Der Test prüft, ob Kunden als Reaktion auf eine angenommene (oder tatsächlich simulierte oder in einem abgegrenzten Testmarkt durchgeführte) kleine, signifikante und dauerhafte Erhöhung der Preise (oft angenommen 5 % oder 10 %) für ein Produkt auf verfügbare Substitute ausweichen. Alle Produkte, auf die ausgewichen wird, gehören dann zum relevanten Markt: Damit sind alle oben genannten Dimensionen empirisch umfasst. technologisch > Produkteigenschaft, Herstellungsverfahren und Materialien > Sportwagen, PKW, LKW, Busse, Traktoren, … nachfrageseitig > Kreuzpreiselastizität > PKW, Fahrräder, Tram, Bahn, … angebotsseitig > Industriegruppen und direkte Wettbewerber > Mercedes, Toyota, Renault räumlich/ zeitlich <?page no="90"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 90 Im Rahmen einer Marktanalyse in der Rasierindustrie wäre bspw. zu ermitteln, ob unterschiedliche elektrische oder Nassrasierer, Enthaarungsmittel oder Elektro- oder Laserepilation zu ein und demselben Markt gehören, d.h. ob Kunden eines dieser Produkte zu anderen Produkten oder Dienstleistungen wechseln würden, wenn der Preis dauerhaft um 5 % bis 10 % erhöht wird. Die Prüfung wird so lange auf verfügbare Produkte angewendet, bis eine Reihe von Produkten identifiziert ist, für die eine Preiserhöhung keinen Substitutionseffekt zur Folge hat - diese Produkte und die anbietenden Unternehmen sind dann außerhalb des relevanten Marktes (Motta 2004, Monteiro und Foss 2017 sowie Filistrucchi et al. 2014). Wenn bei einer bspw. zehnprozentigen dauerhaften Preiserhöhung Kunden nicht von diesem Produkt zu einem anderen wechseln, hat das betrachtete Unternehmen zumindest in diesem Marktsegment Marktmacht oder eine Monopolstellung. Problematisch an der Anwendung des SSNIP- Tests ist, dass er nur funktioniert, wenn positive Preise möglich sind: Bei kostenlosen Dienstleistungen wie Internetsuche oder Social-Media-Mitgliedschaft ist auf diesem Weg keine Marktabgrenzung möglich (weiterführend ► Kapitel 2 zur indirekten Ermittlung der Zahlungsbereitschaft bei Social-Media-Diensten). 2.3 Netzwerkeffekte und mehrseitige Märkte In zahlreichen Märkten und Industrien spielen Netzwerkeffekte für Produkte und Geschäftsmodelle eine wesentliche Rolle. Der Nutzen für Kunden entsteht hier in Teilen aus der Verwendung oder dem Konsum des Produktes, zum überwiegenden Teil aber, weil andere Kunden das Produkt ebenfalls nutzen und man sich mit ihnen vernetzen kann: Kein Kunde wäre gerne oder dauerhaft einziges Mitglied bei Facebook - weil aber alle bei Facebook sind, führt ein selbstverstärkender Effekt dazu, dass mit zunehmender Mitgliederzahl und wachsendem Marktanteil von Facebook alle bei Facebook sein wollen (Rohlfs 1974). Dieser Effekt der Nutzensteigerung auf Basis von Netzwerkeffekten kann zu einer Verdrängung von Wettbewerbern führen: So hat Facebook relativ rasch nach dem Markteintritt die vormaligen Marktführer in Deutschland Wer-kennt-Wen, SchülerVZ, StudiVZ und Stayfriends vom Markt oder in Nischen verdrängt. Netzwerkeffekte können in zwei Formen auftreten:  Direkte Netzwerkeffekte entstehen, wenn der Nutzen eines Kunden mit der Zahl der Mitglieder eines Netzwerkes ansteigt. Der Nutzen entsteht durch die Möglichkeit direkter Kommunikation mit anderen Mitgliedern des Netzwerkes, bspw. in Kommunikationsmärkten (Telekommunikationsnetz, WhatsApp, Skype etc.), aber auch in sozialen Netzwerken wie Facebook, Instagram oder Snapchat - wäre ein Kunde das einzige Mitglied einer dieser Social-Media-Plattformen, würde kein Nutzen entstehen. Märkte, in denen direkte Netzwerkeffekte dominieren, werden als Netzwerkmärkte bezeichnet.  Indirekte Netzwerkeffekte entstehen, wenn durch die wachsende Zahl der Nutzer eines Produktes oder einer Dienstleistung die Entstehung und das Angebot von komplementären Produkten gefördert werden - und damit indirekt der Nutzen, Mitglied des Netzwerkes zu sein, durch die Zahl anderer Kunden ansteigt. Kunden kommunizieren hier nicht direkt miteinander, aber sie verwenden dieselben komplementären Produkte: Je mehr Kunden ein bestimmtes Medienformat (bspw. bei DVDs BluRay vs. HD-DVD, bei Vi- <?page no="91"?> Netzwerkeffekte und mehrseitige Märkte 91 deokassetten Beta vs. Video 2000 vs. VHS) kaufen, desto mehr verschiedene Kauf- und Leihvideos werden angeboten, ähnliches gilt bei Spielekonsolen (bspw. Xbox vs. Playstation vs. Wii) für die Zahl und Vielfalt der angebotenen Spiele oder bei Betriebssystemen für PCs oder Smartphones für die Anwendungssoftware und Apps. Märkte, die von indirekten Netzwerkeffekten geprägt sind, werden als Systemmärkte bezeichnet. In zahlreichen Industrien und Geschäftsmodellen sind direkte und indirekte Netzwerkeffekte verknüpft: Ein Mobilfunkkunde entscheidet sich aufgrund direkter Netzwerkeffekte eines Family-and-Friends-Preismodells und kostenloser Gespräche innerhalb eines Netzes (sogenannter On-Net-Tarife) für einen Mobilfunkanbieter, aufgrund indirekter Netzwerkeffekte wird für Android oder iOS als Betriebssystem entschieden, um entweder bestimmte Apps aus Google Play oder AppStore nutzen zu können oder Kompatibilität mit bereits vorhandenen Endgeräten oder Datenformaten herzustellen. Entscheidungen zum Beitritt in ein einzelnes Netzwerk Die Entscheidungen von Kunden und Unternehmen in Netzwerk- oder Systemmärkten weichen deutlich von den Entscheidungen in normalen Produktmärkten ab, da der Nutzen eines Kunden jetzt aus zwei Komponenten besteht: Einem Stand-alone-Nutzen aus der Verwendung einer bestimmten Technologie oder eines Produktes und dem eigentlichen Netzwerkeffekt, der in Abhängigkeit der Zahl der Mitglieder den Nutzen steigert. In ► Abbildung 2.20 links ist eine Situation skizziert, in der ein einzelnes Netzwerk (welches nicht in unmittelbarem Wettbewerb zu anderen Netzwerken steht) bereits existiert, aber aktuell noch wenige Mitglieder hat - typische Beispiele sind das Faxgerät kurz nach der Markteinführung (zunächst unter den Produktnamen Bildtelegraph oder Hellschreiber) im Jahr 1930 oder die Minidisc von Sony im Jahr der Markteinführung 1992. Abbildung 2.20: Entscheidung für ein einzelnes Netzwerk. Zeit Zahl der Mitglieder kritische Masse Netzwerkeffekt dominiert Stand-alone- Effekt dominiert Faxgeräte Minidisc 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 ? <?page no="92"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 92 Ein potenzieller neuer Kunde wird vor seiner Entscheidung zum Beitritt zu einem Netzwerk neben den Kosten des Beitritts (bspw. den Anschaffungskosten des Faxgerätes und dem Erlernen der Bedienung) insbesondere Erwartungen über die künftige Größe des Netzwerkes bilden und den Stand-alone-Nutzen des Gerätes bewerten. Offensichtlich ist der Standalone-Nutzen eines Faxgerätes nicht vorhanden, denn der Nutzen entsteht nur durch andere Kunden, mit denen über das Faxgerät kommuniziert werden kann. Dagegen hat ein Minidisc- Player auch einen Stand-alone-Nutzen, denn für private Musikaufzeichnungen oder Sicherheitskopien sind keine anderen Nutzer der Technologie notwendig. In einem frühen Stadium eines Marktes mit geringer Zahl an Mitgliedern eines Netzwerkes werden sich nur Kunden mit einer hohen Stand-alone-Bewertung das Gerät, und damit den Zugang zum Netzwerk, beschaffen, in späteren Phasen - nach Erreichen einer kritischen Masse an Kunden und entsprechender Marktdurchdringung oder Verbreitung der Technologie - dominiert dagegen, wie in ► Abbildung 2.20 rechts skizziert, der Netzwerkeffekt (Economides 1996). Erwartungen der Kunden an die Mitgliederzahl eines Netzwerkes sind ausschlaggebend dafür, ob sich ein Netzwerk etablieren kann:  Erwartungen einer geringen Mitgliederzahl - wenn die überwiegende Zahl potenzieller Kunden erwartet, dass ein Netzwerk langfristig nur wenige Mitglieder haben wird, werden sie nicht beitreten. In der Konsequenz werden nur Kunden mit hoher Stand-alone- Bewertung das Produkt kaufen - meist wird dann die kritische Masse nicht erreicht und das Produkt verschwindet vom Markt. Dieser Fall ist bei der Minidisc eingetreten: Im Jahr 2013 stellte Sony endgültig die Produktion und den Vertrieb von Minidisc-Playern ein.  Erwartungen einer hohen Mitgliederzahl - wenn eine große Zahl potenzieller Kunden erwartet, dass ein Netzwerk langfristig eine hohe Mitgliederzahl haben wird, werden viele auf Basis dieser (sich dann selbst erfüllenden) Erwartung beitreten. Damit steigt (unabhängig der Stand-alone-Bewertungen) tatsächlich die Zahl der Mitglieder an und viele andere Kunden sehen ihre Erwartung steigender Mitgliederzahlen bestätigt - die kritische Masse wird erreicht und das Netzwerk etabliert sich im Markt. Nach Erreichen der kritischen Masse wächst die Mitgliederzahl des Netzwerkes dann häufig exponentiell. Dieser Fall ist bei CDs und CD-Playern eingetreten - zahlreiche Kunden erkannten den überlegenen Nutzen der CD gegenüber LPs (längere Laufzeit, bessere Haltbarkeit, geringeres Gewicht und kleineres Format) und haben (richtigerweise) erwartet, dass sich die CD inkl. CD-Player gegen LP und Plattenspieler durchsetzt und als Systemmarkt etabliert.  In der Konsequenz existieren langfristig auch nur große Netzwerke - bei Nichterreichen der kritischen Masse kollabiert das Netzwerk, bei Überschreiten der kritischen Masse (oft auch als Tipping Point bezeichnet) stabilisiert es sich aufgrund selbstverstärkenden Wachstums bei großer Mitglieder- oder Nutzerzahl. Netzwerkeffekte spielen aber nicht nur für Entscheidungen von Endkunden eine Rolle: Auch Unternehmen müssen über den Beitritt zu Netzwerken entscheiden, bspw. betreffend IT- Betriebssystemen in Abhängigkeit der Vielfalt an Software, Banken bei Geldautomaten-Netzwerken oder Hotels für Buchungssysteme.  In Märkten mit Netzwerkeffekten entsteht ein Henne-Ei-Problem: Die kritische Masse beschreibt die notwendige Zahl an Mitgliedern, damit das Netzwerk für weitere Kunden attraktiv ist - ist das Netzwerk klein, tritt aufgrund aktueller Größe niemand dem Netzwerk bei. So hat auch das Faxgerät lange die kritische Masse nicht erreicht, <?page no="93"?> Netzwerkeffekte und mehrseitige Märkte 93 weil potenzielle Kunden aufgrund der geringen Zahl an angeschlossenen Geräten keine Zahlungsbereitschaft entwickelten. Das Erreichen der kritischen Masse bei Faxgeräten hat bis in 1960er-Jahr gedauert: Der Erfolg wurde eingeleitet, als Xerox 1964 Druckern eine Fax-Funktionalität hinzufügte - die Verbreitung an Faxgeräten in Multifunktionsdruckern nahm schnell zu, die kritische Masse wurde erreicht und nachfolgend war das Henne-Ei-Problem gelöst. Entscheidungen zum Beitritt bei konkurrierenden Netzwerken Wenn mehrere Plattformen oder Netzwerkbetreiber konkurrieren, sind die Entscheidungen der Kunden komplexer. In ► Abbildung 2.21 ist eine Wettbewerbssituation skizziert, in der zwei Plattformbetreiber (bspw. Social-Media-Plattformen A und B oder aktuell die Karrierenetzwerke Xing und LinkedIn) mit unterschiedlicher Kundenzahl bereits auf dem Markt etabliert sind. Eine Anzahl potenzieller Neukunden hat unterschiedliche Präferenzen: Einige haben eine Präferenz für Plattform A, andere für Plattform B. Zudem prüft eine weitere Plattform C - für die sich ggfs. auch Kunden interessieren - den Markteintritt. Abbildung 2.21: Entscheidungen von Kunden und Unternehmen in Netzwerkmärkten. In einer anfänglichen Situation geringer Mitgliederzahl und ähnlicher Marktanteile beider Plattformen A und B werden alle Kunden entsprechend ihrer originären Präferenzen, auf Basis ihrer jeweiligen Stand-alone-Bewertung, über den Beitritt zu einem der Netzwerke entscheiden - bei Xing und LinkedIn werden diese Stand-alone-Bewertungen neben der Funktionalität der Plattformen natürlich durch den unmittelbaren Kollegen- oder Freundeskreis geprägt. Wenn die Präferenzen der potenziellen Neukunden gleichverteilt sind, dann werden in der Konsequenz die Marktanteile beider Plattformen zufällig schwanken, so dass bei zwei Plattformen die Marktanteile um 50 % pendeln, wie in ► Abbildung 2.22 links zu sehen. A B ? ? C Neukunden Wettbewerb zwischen Plattformen Markeintritt neuer Plattformen 👤👤 👤👤 A 👤👤 B 👤👤 C 👤👤 A 👤👤 A 👤👤 B 👤👤 👤👤 👤👤👤👤👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 <?page no="94"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 94 Abbildung 2.22: Wettbewerb zwischen inkompatiblen Netzwerken. Wenn allerdings eine Plattform - zufällig aufgrund der Reihenfolge des Beitritts neuer Mitglieder - einen relevanten Vorsprung beim Marktanteil erreicht, treten neben die Standalone-Bewertungen jetzt Netzwerkeffekte aufgrund der relativen Marktanteile. Sobald der Netzwerkeffekt den Stand-alone-Effekt dominiert, werden zahlreiche potenzielle neue Mitglieder nicht mehr entsprechend ihrer eigenen Präferenzen, sondern zugunsten des größeren Netzwerkes entscheiden (► Abbildung 2.22 rechts). In der Folge wird der Marktanteil des Marktführers gegen 100 % streben (Winner-takes-it-all-Märkte), der Wettbewerber verliert zunehmend Marktanteile: Wettbewerbsprozesse dieser Art erklären die Verdrängung von Wer-kennt-Wen durch Facebook, den überragenden Marktanteil von Microsoft DOS und nachfolgend Windows gegenüber allen anderen Betriebssystemen in den 1990er- und 2000er-Jahren, und dass VHS sich gegenüber den konkurrierenden Videoformaten Beta und Video 2000 durchsetzen konnte (Arthur 1989, David 1985 sowie Liebowitz und Margolis 1995). Hat sich eine kritische Masse von Kunden für ein Netzwerk entschieden, kann es zu einem Lock-in-Effekt kommen. Die Kunden sind dann aufgrund von Investitionen in Endgeräte, Lern- oder Gewöhnungseffekten stark an ihre Entscheidung gebunden, und beeinflussen auch die Entscheidungen anderer Kunden. Wenn Netzwerkeffekte den Stand-alone-Effekt nicht eindeutig dominieren oder Kunden stark heterogene Präferenzen haben, können konkurrierende Netzwerke auch dauerhaft koexistieren: Dies ist - zumindest aktuell - der Fall bei Spielekonsolen oder bei Betriebssystemen für Smartphones. Netzwerkeffekte führen häufig zu einem De-facto-Standard der verwendeten Technologie mit einer Tendenz zu einem natürlichen Monopol (vgl. weiterführend ► Kapitel 7). Diese marktbeherrschende Stellung des Unternehmens ist häufig durch zufällige oder kleine Ereignisse in der Vergangenheit begründet, welche über Pfadabhängigkeiten die künftige Entwicklung eines Marktes Technologie und Marktführerschaft festschreiben (Arthur 1989). Eine <?page no="95"?> Netzwerkeffekte und mehrseitige Märkte 95 Pfadabhängigkeit schränkt mögliche künftige Strategien aufgrund der bisher erfolgten Entscheidungen und Investitionen ein oder macht einen Wechsel zeitaufwendig oder kostspielig - künftige Entscheidungen sind also nicht unabhängig vom Status quo und bisherigen Entscheidungen. Zudem entstehen signifikante strategische Eintrittsbarrieren (vgl. weiterführend ► Kapitel 4), so dass die dominante Technologie durch einen Lock-in-Effekt alternative technologische Entwicklungen verhindert oder versperrt - Kunden können dann dauerhaft nicht auf andere IT-Plattformen oder Medienformate ausweichen und sind an ein Unternehmen oder eine Technologie gebunden. Eine dauerhafte Koexistenz mehrerer Netzwerke ist nur dann möglich, wenn die Netzwerke untereinander vollständig oder teilweise kompatibel sind - die Kunden müssen sich dann weder dauerhaft noch eindeutig entscheiden und können ggfs. auch gleichzeitig bei mehreren Plattformen Kunde sein (sogenanntes Multihoming). Strategien in Märkten mit Netzwerkeffekten Aus Managementperspektive sind bei Wettbewerb in Netzwerk- und Systemmärkten zahlreiche Besonderheiten für strategische Entscheidungen zu beachten, die wechselseitig voneinander abhängen (Farrell und Klemperer 2007, Katz und Shapiro 1986 und 1994, Shy 2011 sowie Koski und Kretschmer 2004):  Aufbau der Kundenbasis und Erreichen der kritischen Masse - in Netzwerk- und Systemmärkten muss durch geeignete Strategien schnelles Wachstum der Kundenzahl zur Etablierung der kritischen Masse oder sogar eines Lock-in-Effektes erreicht werden. In zahlreichen Fällen geschieht dies durch Freemium-Modelle, in denen eine kostenlose Variante des Produktes angeboten (Adobe Acrobat Reader, Skype oder Spotify) wird, durch dauerhaft kostenlose Angebote (Facebook, Google Search oder Android) oder durch präzise Adressierung von Frühadoptern in Nischenmärkten, die dann für die Entscheidungen der Spätadopter maßgeblich sind.  Erwartungsmanagement - da die Erwartungen der Kunden für die Etablierung eines Netzwerkes resp. eines großen Marktanteils wesentlich sind, versuchen Unternehmen durch Marketinginvestitionen die Erwartungsbildung der Kunden betreffend der tatsächlichen oder künftigen Größe eines Netzwerkes zu beeinflussen: Parship als Marktführer bei Partnervermittlung in Deutschland signalisiert den Kunden direkt den größten Nutzen und zieht so weitere Kunden an.  Komplementäre Produkte - das Offenlegen von Schnittstellen unterstützt die Entstehung und Verbreitung komplementärer Produkte und Dienstleistungen, die wiederum den Nutzen einer Plattform erhöhen und neue Mitglieder anziehen - so konnte Google den Vorsprung bei der Vielfalt an Apps seit 2015 von 1,3 Mio. gegenüber 1,2 Mio. bei Apple auf 2,8 Mio. gegenüber 2,2 Mio. im Jahr 2017 aufgrund des offenen Betriebssystems Android ausbauen - im gleichen Zeitraum ist der Marktanteil von Android von 76 % auf 82 % gestiegen, der Marktanteil von iOS ging von 18 % auf 14 % zurück (Daten weltweit; Quelle  idc.com und  statista.com).  Wechselkosten (Switching Costs) - wenn Kunden in Endgeräte einer bestimmten Technologie investiert haben oder zeitaufwendig über Jahre hinweg ihr Facebook-Profil gepflegt haben, verhindern technische, monetäre oder soziale Wechselkosten, dass zu einem leistungsfähigeren Netzwerk oder einer besseren Technologie gewechselt wird. Wenn Unternehmen bei großem Marktanteil die Wechselkosten zu einer konkurrierenden <?page no="96"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 96 Lösung erhöhen können, wird der Marktanteil stabilisiert. Wechselkosten sind durch Inkompatibilität bedingt. So erhöht Apple die Wechselkosten seiner Kunden jährlich durch neue Steckersysteme, Ladegeräte oder notwendige Softwareupgrades, Banken erschweren bewusst den Wechsel der Kontoführung und Mobilfunkunternehmen haben über lange Jahre die Mitnahme der Rufnummer verhindert oder verzögert. Wechselkosten sind umso höher, je ausgeprägter der Lock-in-Effekt und je geringer die Kompatibilität ist.  Standard Wars versus koordinierte Standardisierung - die Unternehmen müssen entscheiden, ob sie (ggfs. mit hohen Investitionen) versuchen, ihre Technologie oder ihr Produkt als Standard im Markt zu etablieren (wie im Fall VHS gegen Beta gegen Video 2000), oder ob sie (unter Verzicht auf Marktdominanz und hohe Marktanteile) mit anderen Unternehmen einen gemeinsamen Standard etablieren (wie im Fall CDs und CD-Player durch Sony und Philips auf Basis des Redbook-Standards).  Grad an Kompatibilität - wenn andere Unternehmen bereits relevante Marktanteile gewonnen haben, dann kann durch teilweise oder vollständige Kompatibilität der verwendeten Technologie Zugang zu deren Kundenbasis hergestellt werden. Umgekehrt kann ein marktführendes Unternehmen Kompatibilität einschränken oder unterbinden. In Deutschland versuchen bspw. die Sparkassen durch hohe Gebühren (d.h. begrenzte Kompatibilität) an den Geldausgabeautomaten ihre Marktanteile zu stabilisieren, Mobilfunkunternehmen haben über lange Jahre durch Terminierungs- und Roamingentgelte ihre Marktanteile stabilisiert - beide Strategien wurden wettbewerbspolitisch mittlerweile eingeschränkt.  Wettbewerb im Markt oder um den Markt - da Netzwerkeffekte zu Marktdominanz bei Technologie oder Marktanteilen führen können, müssen Unternehmen entscheiden, ob sie „im Markt“ oder „um den Markt“ konkurrieren. Diese Entscheidung wird maßgeblich von Wechselkosten, Kompatibilität und dem bereits erreichten Marktanteil anderer Netzwerke beeinflusst. Die Relevanz und die wechselseitigen Abhängigkeiten dieser Fragestellungen werden deutlich, wenn man den Markteintritt von Paydirekt (dem Onlinebezahlverfahren deutscher Banken und Sparkassen) im Jahr 2016 analysiert. Ein Onlinebezahlsystem basiert auf direkten und indirekten Netzwerkeffekten: Je mehr Kunden das Bezahlsystem nutzen, desto mehr Händler haben ein Interesse, das Bezahlsystem ebenfalls zu implementieren, so dass selbstverstärkende Netzwerkeffekte stattfinden. Paydirekt konkurriert unter anderem mit PayPal, Amazon Payments und SofortÜberweisung, die alle bereits eine kritische Masse erreicht haben, sowohl die angebundenen Shops wie auch die Endkunden haben umfangreiche Wechselkosten und insbesondere PayPal und Amazon Payments verhindern Kompatibilität zu ihren Netzwerken - in der Folge blieb der Markterfolg von Paydirekt aus und das Unternehmen wurde in 2020 mit Wettbewerber Giropay fusioniert (Nestler 2016 und Atzler 2017). Plattformen als zwei- und mehrseitige Märkte Warum versuchen viele Unternehmen, Werbung bei Facebook zu platzieren, weshalb bietet Amazon anderen Unternehmen auf Amazon Marketplaces die Möglichkeit, Produkte zu verkaufen? Die Erklärung ist, dass indirekte Netzwerkeffekte auch entstehen können, weil der Nutzen einer Gruppe von Marktteilnehmern durch die Existenz und Größe einer anderen <?page no="97"?> Netzwerkeffekte und mehrseitige Märkte 97 Gruppe von Marktteilnehmern ansteigt. Unternehmen, die Plattformen betreiben, führen mehrere Nutzer- oder Kundengruppen derart zusammen, dass Kommunikation oder Transaktionen nur aufgrund der Existenz der Plattform möglich werden, wobei die Plattform - anders als bspw. ein Supermarkt - nicht als Zwischenhändler tätig wird, sondern lediglich den Marktplatz in Form eines mehrseitigen Marktes bereitstellt. Amazon Marketplaces kann als zweiseitige Plattform auf Basis indirekter Netzwerkeffekte betrachtet werden: Je mehr Endkunden die Amazon Plattform besuchen oder nutzen, desto mehr Shops werden eröffnet, desto attraktiver wird die Plattform für beide Marktseiten - je mehr Teilnehmer auf der einen Marktseite sind, desto mehr Teilnehmer werden auf der anderen Marktseite angezogen et vice versa. Das wechselseitige Zusammenspiel indirekter Netzwerkeffekte über mehrere Marktseiten oder Kundengruppen führt oftmals zu Plattformgeschäftsmodellen, die als zwei- oder mehrseitige Märkte bezeichnet werden (Evans et al. 2006, Rysman 2009 sowie Rochet und Tirole 2003). Die allgemeine Logik eines zwei- oder allgemeiner mehrseitigen Marktes ist in ► Abbildung 2.23 gezeigt:  Es gibt zwei (oder mehr) komplementäre und interagierende Marktseiten A und B oder Nutzergruppen - Mitglieder von Facebook und werbetreibende Unternehmen oder Spieleentwickler,  beide Marktseiten profitieren von der Plattform durch wechselseitige indirekte Netzwerkeffekte mit Wachstum und Größe der jeweils anderen Gruppe - je mehr Mitglieder Facebook hat, desto attraktiver ist die Plattform für Spieleentwickler und werbetreibende Unternehmen,  innerhalb einer oder beider Marktseiten existieren starke direkte oder indirekte Netzwerkeffekte, um eine kritische Masse an Kunden oder Anbietern zu erzielen - im Fall von Facebook starke positive direkte Netzwerkeffekte der Mitglieder untereinander,  es gibt eine kostenlose oder subventionierte Marktseite A, die zahlreiche Mitglieder auf Basis signifikanter direkter (und teilweise auch indirekter) Netzwerkeffekte anzieht - wenngleich mit absolut niedriger Zahlungsbereitschaft und relativ hoher Preiselastizität der Nachfrage - für Mitglieder ist Facebook dauerhaft kostenlos,  eine zweite bezahlte oder hoch bepreiste Marktseite B, auf der aufgrund der großen Mitgliederzahl auf Marktseite A Dienstleistungen bereitgestellt oder entwickelt werden - typischerweise subventioniert die Marktseite mit relativ schwachen Netzwerkeffekten die Marktseite mit stärkeren Netzwerkeffekten bei entsprechend geringerer Preiselastizität der Nachfrage - Spieleentwickler zahlen an Facebook Lizenzgebühren, um Spiele an Mitglieder verkaufen zu können, ebenso werden Werbeplätze gebucht,  und eine Plattform oder ein Plattformunternehmen, welche Interaktionen oder Transaktionen zwischen und den wechselseitigen Zugang zu den Marktseiten auf Basis indirekter und direkter Netzwerkeffekte ermöglicht (Evans und Schmalensee 2016 sowie Bolt und Tieman 2008). <?page no="98"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 98 Abbildung 2.23: Zweiseitige Märkte, Netzwerkeffekte und Preise. Zur Veranschaulichung sind in ► Abbildung 2.24 die Plattformen von Facebook und Google dargestellt. Eine Marktseite von Facebook besteht aus Mitgliedern, die aufgrund direkter Netzwerkeffekte Mitglied bei Facebook werden oder geworden sind. Je größer die Zahl der Mitglieder, desto größer ist der Nutzen jedes einzelnen Mitglieds. Mit zunehmender Mitgliederzahl entstehen für Unternehmen Anreize, auf der Facebook-Plattform Produkte für die Mitglieder von Facebook anzubieten - in Form von Spielen, Apps, Werbung oder durch Nutzung der Mitgliederdaten: Diese Produkte sind komplementär zur eigentlichen Plattform und stellen indirekte Netzwerkeffekte für alle Facebook-Mitglieder dar. Abbildung 2.24: Geschäftsmodelle von Facebook und Google als mehrseitige Märkte. Marktseite A Marktseite B Plattform indirekte Netzwerkeffekte zwischen den Marktseiten direkte Netzwerkeffekte innerhalb einer Marktseite Preis p B Preis p A Facebook Produkte für Mitglieder Produkte für/ von Unternehmen indirekte Netzwerkeffekte (Werbung, Apps, Big Data, B2B2C etc.) zweiseitiger Markt je mehr Mitglieder, desto größere Vielfalt an Produkten direkte Netzwerkeffekte (p2p Kommunikation) je mehr Mitglieder, desto größerer Nutzen Google 1998 Suche Google 2016 search operating system ... Advertisements Big Data Videos ... Unternehmen/ bepreister Markt Endkunden/ kostenloser Markt ecosystem Maps Traffic Information A B 👤👤👤👤👤👤👤👤👤👤 👤👤 👤👤 👤👤 👤👤 👤👤👤👤 <?page no="99"?> Netzwerkeffekte und mehrseitige Märkte 99 Analog kann das Geschäftsmodell von Google als mehrseitiger Markt in ► Abbildung 2.24 rechts dargestellt werden. Die Kunden nutzen Suchfunktionen, Stadt- und Routenplaner, die Videoplattform, das Smartphone-Betriebssystem und viele weitere Funktionalitäten kostenlos. Durch zunehmende Nutzerzahl der Plattform entstehen selbstverstärkende indirekte Netzwerkeffekte: Der Google-Suchalgorithmus wird durch eine wachsende Zahl an Suchanfragen verbessert und zieht mehr Kunden an, so dass jetzt mehr Unternehmen Interesse daran haben, ihre Website für Suchanfragen bei Google zu optimieren - dies führt wiederum zu besseren Suchergebnissen für Kunden. Zudem entstehen weitere indirekte Netzwerkeffekte, weil Unternehmen Anreize bekommen, weitere Apps oder Dienstleistungen für Google-Nutzer zu entwickeln. Je vielfältiger und qualitativ hochwertiger wiederum die angebotenen Dienstleistungen sind, umso stärker werden neue Mitglieder angezogen, so dass erneut ein sich selbst verstärkender Effekt entsteht. In der Folge entsteht ein Ökosystem auf Basis indirekter Netzwerkeffekte, für das eine eindeutige Marktabgrenzung schwierig ist (Filistrucchi et al. 2014.) In der gleichen Geschäftsmodell-Logik funktionieren auch andere zwei- oder mehrseitige Plattformen - wie OpenTable, eBay, LinkedIn, booking.com, wirkaufendeinauto.de, Flixbus, Delivery Hero, Parship, Uber, Airbnb oder TripAdvisor - aber diese Geschäftsmodelle sind in keiner Weise auf digitale Plattformen beschränkt, wie in ► Tabelle 2.3 zu sehen ist: Auch Kreditkartensysteme wie Visa oder Master, Zeitungen wie die FAZ oder die Süddeutsche Zeitung, klassische Einkaufszentren wie das Main-Taunus-Zentrum oder Spielekonsolen wie die xBox oder Playstation sind mehrseitige Plattformen. Plattformgeschäftsmodelle Plattform Marktseite 1 Marktseite 2 kostenlose/ niedrig bepreiste Marktseite bezahlte/ hoch bepreiste Marktseite Beispiel Spielekonsolenhersteller Endkunden Spieleentwickler Konsole Spiele xBox, Playstation, Wii Smartphone- Betriebssysteme Endkunden App- Entwickler Betriebssystem Apps Android Kreditkartenanbieter Endkunden Händler Kartennutzung Nutzung der Terminals und Zahlungsabwicklung Visa, Mastercard Formate für Dokumentenaustausch Endkunden Unternehmen PDF Reader PDF Writer Adobe Dating- Portale Endkunden werbetreibende Unternehmen Frauen Männer Parship, ElitePartner, match.com etc. <?page no="100"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 100 Social-Media- Plattform Mitglieder werbetreibende Unternehmen Mitgliedschaft Werbung Facebook, Instagram etc. Jobportale Arbeitssuchende Arbeitgeber Suchen Anzeigen schalten Monster, Stepstone etc. Zeitungen Zeitlungsleser Inserenten Zeitung Anzeigen FAZ, Süddeutsche Zeitung etc. B2B- Marktplätze Endkunden Shops Mitgliedschaft Abwicklung und Zahlungsverkehr Amazon Marketplaces, Alibaba, Expedia, booking etc. Reisebewertung Endkunden Hotels Bewertungen Hotelbuchung TripAdvisor etc. Tabelle 2.3: Plattformgeschäftsmodelle auf Basis mehrseitiger Märkte und indirekter Netzwerkeffekte. Wettbewerb und Strategien bei mehrseitigen Plattformen Die Zahl der konkurrierenden Plattformen und die Wettbewerbssituation wird wesentlich dadurch bestimmt, ob die Kunden nur bei einer der Plattformen (Singlehoming) oder bei mehreren Plattformen gleichzeitig (Multihoming) Mitglied sind, und ob über die Plattformgrenzen hinweg Kommunikation möglich und zumindest teilweise Kompatibilität gegeben ist. Ist Multihoming möglich und sind die zusätzlichen Kosten für die Nutzung mehrerer Plattformen gering, kann dauerhaft Wettbewerb zwischen Plattformen bestehen - dies ist der Fall bei Buchungsplattformen oder Jobportalen sowie bei der Nutzung von Fahrdienstleistern wie Uber, Lyft oder MyTaxi. In gleicher Weise besitzen viele Kunden verschiedene Kreditkarten und Debitkarten gleichzeitig, wie auch fast alle Händler mehrere Kartensysteme akzeptieren. Sind die Investitionen oder Wechselkosten hoch oder eine der Plattformen hat bereits eine kritische Masse erreicht, ist Singlehoming die Regel - dies ist der Fall bei Social-Media- Plattformen oder Spielekonsolen. Mit zunehmender Produktdifferenzierung zwischen den Plattformen nimmt die Wettbewerbsintensität ab. In Deutschland ist daher der Markt für Partnerschaftsplattformen noch stark in einzelne Marktsegmente fragmentiert, zudem können Menschen kostenlose Apps wie Tinder über Facebook nutzen. Dagegen ist bei Karriereplattformen der Wettbewerb in Deutschland mittlerweile auf LinkedIn und Xing reduziert: Die Produktdifferenzierung ist gering, die Kosten für Multihoming steigen dagegen für jeden Kunden mit zunehmender Zahl an Kontakten insbesondere aufgrund steigender Wechselkosten an. Zentrale Bedeutung kommt der Preisstruktur zwischen und auf beiden Marktseiten zu: Ein Plattformunternehmen muss die Preise für beide Marktseiten so wählen, dass - neben der Erzielung von Gewinnen - insbesondere Anreize für beide Marktseiten entstehen, in großer Zahl Mitglied auf der Plattform zu werden. Empirisch werden hier in Abhängigkeit des Ge- <?page no="101"?> Netzwerkeffekte und mehrseitige Märkte 101 schäftsmodells (► Tabelle 2.3) Preismodelle beobachtet, die grundlegend durch die asymmetrische Preissetzung einer Plattform gegenüber zwei Marktseiten A und B wie folgt erklärt werden können (Rochet und Tirole 2003, Krüger 2009 und Armstrong 2006). Die Nachfrage 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 der Marktseite A und die Nachfrage 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 der Marktseite B ist durch (2.20) 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 = 𝐷𝐷𝐷𝐷 𝐴𝐴𝐴𝐴 (𝑝𝑝𝑝𝑝 𝐴𝐴𝐴𝐴 , 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 ) und (2.21) 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 = 𝐷𝐷𝐷𝐷 𝐵𝐵𝐵𝐵 (𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 , 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 ) gegeben - offensichtlich hängt die Nachfrage einer der Marktseiten jeweils vom Preis der Nutzung der Plattform (vereinfachend in Form einer Mitgliedsgebühr) und der Nachfrage bzw. Mitgliederzahl der anderen Marktseite ab. Die direkte Preiselastizität beider Marktseiten 𝐻𝐻𝐻𝐻 kann dann - bei jeweils unveränderter Zahl der Mitglieder der anderen Marktseite - durch die Ableitung der Nachfragefunktion bei einer Preisänderung (2.22) 𝜀𝜀𝜀𝜀 𝑃𝑃𝑃𝑃 = 𝑝𝑝𝑝𝑝𝑖𝑖𝑖𝑖 𝑞𝑞𝑞𝑞𝑖𝑖𝑖𝑖 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝑖𝑖𝑖𝑖 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝𝑖𝑖𝑖𝑖 für 𝐻𝐻𝐻𝐻 = 𝐴𝐴𝐴𝐴, 𝐵𝐵𝐵𝐵 bestimmt werden. Die wechselseitige Stärke des indirekten Netzwerkeffektes kann durch (2.23) 𝜃𝜃𝜃𝜃 𝐴𝐴𝐴𝐴 = 𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝐴𝐴𝐴𝐴 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 und 𝜃𝜃𝜃𝜃 𝐵𝐵𝐵𝐵 = 𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝐵𝐵𝐵𝐵 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 als Elastizität des Netzwerkeffektes bestimmt werden - je größer bspw. 𝜃𝜃𝜃𝜃 𝐵𝐵𝐵𝐵 , desto stärker wächst die Nachfrage 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 von Marktteilnehmern auf der Marktseite B aufgrund steigender Mitgliederzahlen 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 auf Marktseite A an. Die Preiselastizität beider Marktseiten 𝐻𝐻𝐻𝐻 in Abhängigkeit der Zahl der Mitglieder der anderen Marktseite kann durch das totale Differential der Nachfragefunktion als (2.24) Ε 𝑃𝑃𝑃𝑃 = 𝑝𝑝𝑝𝑝𝑖𝑖𝑖𝑖 𝑞𝑞𝑞𝑞𝑖𝑖𝑖𝑖 𝑛𝑛𝑛𝑛𝑞𝑞𝑞𝑞𝑖𝑖𝑖𝑖 𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝑖𝑖𝑖𝑖 für 𝐻𝐻𝐻𝐻 = 𝐴𝐴𝐴𝐴, 𝐵𝐵𝐵𝐵 beschrieben werden. Differenziert man nun beide Nachfragefunktionen (2.20) und (2.21) nach den Preisen beider Marktseiten (2.25) 𝑛𝑛𝑛𝑛𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝐴𝐴𝐴𝐴 = 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝐴𝐴𝐴𝐴 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝𝐴𝐴𝐴𝐴 + 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝐴𝐴𝐴𝐴 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 𝑛𝑛𝑛𝑛𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝐴𝐴𝐴𝐴 und 𝑛𝑛𝑛𝑛𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝐵𝐵𝐵𝐵 = 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝐵𝐵𝐵𝐵 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝𝐵𝐵𝐵𝐵 + 𝜕𝜕𝜕𝜕𝐷𝐷𝐷𝐷𝐵𝐵𝐵𝐵 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 𝑛𝑛𝑛𝑛𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 𝑛𝑛𝑛𝑛𝑝𝑝𝑝𝑝𝐵𝐵𝐵𝐵 und setzt (2.22) und (2.23) ein, dann ergeben sich die Preiselastizitäten beider Marktseiten in Abhängigkeit beider Preiselastizitäten und der Stärke der Netzwerkeffekte als (2.26) Ε 𝐴𝐴𝐴𝐴 = 𝜀𝜀𝜀𝜀𝐴𝐴𝐴𝐴 1−𝜃𝜃𝜃𝜃𝐴𝐴𝐴𝐴𝜃𝜃𝜃𝜃𝐵𝐵𝐵𝐵 und Ε 𝐵𝐵𝐵𝐵 = 𝜀𝜀𝜀𝜀𝐵𝐵𝐵𝐵 1−𝜃𝜃𝜃𝜃𝐴𝐴𝐴𝐴𝜃𝜃𝜃𝜃𝐵𝐵𝐵𝐵 . Die absolute Preiselastizität Ε 𝐴𝐴𝐴𝐴 der Marktseite A wird bestimmt durch die direkte Preiselastizität 𝜀𝜀𝜀𝜀 𝐴𝐴𝐴𝐴 in Abhängigkeit von der wechselseitigen Elastizität der Netzwerkeffekte 𝜃𝜃𝜃𝜃 𝐴𝐴𝐴𝐴 𝜃𝜃𝜃𝜃 𝐵𝐵𝐵𝐵 und der Zahl der Teilnehmer auf der anderen Marktseite. Wie in ► Kapitel 1 erläutert, ist nun - bei sonst gleichen Bedingungen - die Zahlungsbereitschaft und der Preissetzungsspielraum der Unternehmen umso größer, je kleiner die Preiselastizität ist. Aus (2.26) kann allgemein begründet werden, dass ein Plattformunternehmen asymmetrische Preise gegenüber den Marktseiten in Abhängigkeit der relativen Preiselastizitäten stellt - in Extremfällen werden auf einer Marktseite Preise gleich 0 gesetzt oder sogar Zahlungen für die Teilnahme an einer Plattform geleistet, die andere Marktseite subventioniert dann über entsprechend hohe Preise und steht alleine für die Erlöse (Evans und Schmalensee 2007 und 2016). <?page no="102"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 102 Aus Managementperspektive sind bei mehrseitigen Plattformen zusätzlich zu den Entscheidungen wie bei Netzwerken (Angebot komplementärer Produkte, Aufbau von Wechselkosten oder Kompatibilität vor dem Hintergrund von Singlevs. Multihoming) insbesondere folgende Entscheidungen notwendig:  Preisstrategie und Preisstruktur der Marktseiten - zahlreiche Clubs, Diskotheken und Partnerschaftsplattformen (jeweils zur Anbahnung heterosexueller Partnerschaften) - bieten Frauen kostenlosen oder vergünstigen Eintritt oder Mitgliedschaft, somit wird die Zahlungsbereitschaft von Männern erhöht. Preismodelle müssen nicht nur die Zahlungsbereitschaft einer Marktseite berücksichtigen, sondern insbesondere sicherstellen, dass die andere Marktseite über die Elastizität des Netzwerkeffektes hinreichende Anreize für die Mitgliedschaft oder Teilnahme an der Plattform hat. So zeigen Voigt und Hinz (2015), dass die Erlöse einer Onlinepartnerschaftsplattform maximiert werden, wenn 36,2 % Frauenanteil erreicht wird - die Erlöse sind dann um 17,2 % größer als bei einer 50: 50- Aufteilung zwischen Männern und Frauen.  Anzahl, Zusammenspiel und relative Größe der Marktseiten - bspw. hat eBay mit Käufern und Verkäufern zwei Marktseiten, LinkedIn hat mit Berufstätigen, Arbeitgeber- Unternehmen und Recruiting-Unternehmen drei Marktseiten. Zudem muss das Plattformunternehmen festlegen, welche Transaktionen (bspw. Kommunikation und Produkte) über die Plattform möglich sind, insbesondere um zu verhindern, dass die beiden Marktseiten künftig an der Plattform vorbei ihre Transaktionen abwickeln. Die relativen Größenverhältnisse der Marktseiten müssen die Anreizstruktur zur Mitgliedschaft auf der Plattform sicherstellen. 2.4 Zusammenfassung Rationales Kundenverhalten ist geprägt durch Entscheidungen, die auf Präferenzen basieren, den Nutzen steigern und durch Budgetbeschränkungen limitiert sind. Aus nutzenmaximierendem Verhalten kann auf die Nachfrage eines Kunden oder - in aggregierter Weise - eines Marktsegmentes oder eines gesamten Marktes geschlossen werden. Präferenzen und Nachfrage sind natürlich weder im Zeitablauf stabil, noch exogen vorgegeben: Unternehmen können insbesondere durch Produktqualität und Marketing die Lage der Nachfragekurve beeinflussen und die Zahlungsbereitschaft der Kunden und die Größe des Marktes verändern. Zudem verändert sich die Nachfrage infolge von Einkommensänderungen und relativen Preisänderungen, so dass unterschiedliche Produktkategorien und deren Wechselbeziehung identifiziert werden können. Aus Managementperspektive sind insbesondere die Formen der Produktdifferenzierung und Personalisierung zentral, denn mit steigender, von den Kunden wahrgenommener Produktdifferenzierung reduziert sich die Wettbewerbsintensität. In zahlreichen neuen Geschäftsmodellen - insbesondere bei direkter Kommunikation auf Social-Media-Plattformen - hängt der Nutzen nicht vom Konsum eines Produktes, sondern über Netzwerkeffekte von der Zahl anderer Kunden auf derselben Plattform ab. In zahlreichen von Netzwerkeffekten geprägten Industrien dominieren wenige Unternehmen nach Erreichen einer kritischen Masse. Zudem können Unternehmen Geschäftsmodelle auf Basis <?page no="103"?> Zusammenfassung 103 indirekter Netzwerkeffekte realisieren, indem mehrere Marktseiten auf Plattformen zusammengeführt werden.  Literaturtipps Wer tiefer in die Nutzentheorie einsteigen möchte, kann gut zu Perloff, J.M., Microeconomics - theory and applications with calculus, Harlow 2018, greifen. Eine umfassende Darstellung zu Kundenverhalten aus betriebswirtschaftlicher Sicht mit dem Anwendungsschwerpunkt Marketing findet sich bei Solomon, M.G, Consumer Behavior: Buying, Having, and Being, New York 2016. Einen einfachen und gut lesbaren Einstieg zum Thema Plattformen und mehrseitige Märkte findet man bei Evans, D.S. und Schmalensee, R., Matchmakers - the new economics of multisided platforms, Boston 2016.  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von Kundenverhalten aus mikroökonomischer Perspektive sowie deren Grenzen, Vor- und Nachteile! [2] Definieren Sie knapp Nutzen, was ist Grenznutzen? Was ist eine Budgetbeschränkung, wovon hängt sie im Wesentlichen ab? [3] Beschreiben Sie knapp den Unterschied zwischen normalen und inferioren Gütern und geben Sie zwei Beispiele! Was sind substitute und komplementäre Güter, wie kann man deren Beziehung messen? [4] Erläutern Sie unterschiedliche Grade an Unsicherheit bei Produkteigenschaften und nennen Sie je drei Beispiele! [5] Was beschreibt die Einkommenselastizität der Nachfrage, was kann man aus ihrer Höhe ablesen? [6] Erläutern Sie das Konzept des Produktlebenszyklus! Erklären Sie an drei Beispielen, das Produkte von anderen Produkten verdrängt wurden! [7] Wie kann man einen Markt abgrenzen, welche Möglichkeiten haben Unternehmen, die Nachfragefunktion zu beeinflussen? [8] Nennen Sie Ziele, Formen und Effekte unterschiedlicher Formen der Produktdifferenzierung! [9] Was sind typische Besonderheiten von Netzwerk- und Systemmärkten? [10] Definieren Sie direkte und indirekte Netzwerkeffekte und geben Sie jeweils zwei Beispiele! [11] Wovon hängt das Zustandekommen eines Netzwerkes ab? Welche Rolle spielen hier Erwartungen? Beschreiben Sie typische Strategien von Unternehmen in Netzwerkmärkten! [12] Erläutern Sie die Grundidee von Plattformen als mehrseitige Märkte! Worauf basiert der Wettbewerbsvorteil? Nennen und erläutern Sie drei aktuelle Beispiele digitaler Plattformen unter Bezug auf Single-/ Multihoming sowie Asymmetrie der Preisstruktur! <?page no="104"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 104  Literatur Abraham, M., Mitchelmore, S., Collins, S., Maness, J., Kistulinec, M., Khodabandeh, S., Hoenig, D. und Visser, J., Profiting from personalization, BCG Perspectives 2017. Allcott, H., Braghieri, L., Eichmeyer, S. und Gentzkow, M, The welfare effects of social media, American Economic Review, 2020, 110, 3, 629-676. Anderson, C.R. und Zeithaml, C.P., Stage of the product life cycle, business strategy, and business performance, Academy of Management Journal, 1984, 27, 1, 5-24. Armstrong, M., Competition in two-sided markets, Rand Journal of Economics, 2006, 37, 3, 668-691. Arthur, W.B., Competing technologies, increasing returns, and lock-in by historical events, Economic Journal, 1989, 99, 394, 116-131. Ashley, R., Granger, C. W. und Schmalensee, R.H., Advertising and aggregate consumption: an analysis of causality, Econometrica, 1980, 48, 5, 1149-1167. Atzler, E., Paydirekt droht erneut verkorkstes Jahr, Handelsblatt, 31. Mai 2017, 8. Bagwell, K., The economic analysis of advertising, in: Armstrong, M. und Porter, R. (Hrsg.), Handbook of Industrial Organization, Volume 3, 2007, 1701-1844. Balafoutas, L., Beck, A., Kerschbamer, R. und Sutter, M., What drives taxi drivers? A field experiment on fraud in a market for credence goods, Review of Economic Studies, 2013, 80, 3, 876-891. Berry, S.T., Levinsohn, J. und Pakes, A., Differentiated products demand systems from a combination of micro and macro data: the new car market, Journal of Political Economy, 2004, 112, 1, 68-105. Bolt, T. und Tieman, A.F., Heavily skewed pricing in two-sided markets, International Journal of Industrial Organization, 2008, 26, 5, 1250-1255. Bowles, S. Endogenous preferences: the cultural consequences of markets and other economic institutions, Journal of Economic Literature, 1998, 36, 1, 75-111. Brynjolfsson, E., Collis, A. und Eggers, F., Using massive online choice experiments to measure changes in well-being, Proceedings of the National Academy of Sciences, 2019, 116, 15, 7250-7255. Bundesverband Musikindustrie (Hrsg.), Musikindustrie in Zahlen, Berlin 2019. Chatmi, A und Elasri, K., Competition among vortex firms: Marketing, R&D or pricing strategy, Journal of High Technology Management Research, 2017, 28, 1, 29-46. Clark, K.B. und Fujimoto, T., Automobilentwicklung mit System: Strategie, Organisation und Management in Europa, Japan und USA, Frankfurt-New York 1992. Clark, K.B., Chew, W.B. und Fujimoto, T., Product development in the world auto industry, Brookings Papers on Economic Activity, 1987, 3, 729-771. Cox, W.E., Product life cycles as marketing models, Journal of Business, 1967, 40, 4, 375-384. Datta, H., Knox, G. und Bronnenberg, B.J., Changing their tune: how consumers’ adoption of online streaming affects music consumption and discovery, Marketing Science, 2018, 37, 1, 5-21. David, P.A., Clio and the Economics of QWERTY, American Economic Review, 1985, 75, 2, 332-337. Deaton, A., Estimating own-and cross-price elasticities from survey data, Journal of Econometrics, 1987, 36, 7-30. Deaton, A., Price elasticities from survey data, Journal of Econometrics, 1990, 44, 281-309. Deaton, A., Understanding consumption, Oxford 1992. Degryse, H., On the interaction between vertical and horizontal product differentiation: an application to banking, Journal of Industrial Economics, 1996, 44, 2, 169-186. <?page no="105"?> Zusammenfassung 105 Dickson, P.R. und Ginter, J.L., Market segmentation, product differentiation, and marketing strategy, Journal of Marketing, 1987, 51, 3, 1-10. Dorfman, R., und Steiner, P.O., Optimal advertising and optimal quality, American Economic Review, 1954, 44, 5, 826-836. Economides, N., The economics of networks, International Journal of Industrial Organization, 1996, 14, 6, 673-699. Evans, D.S und Schmalensee, R., The industrial organization of markets with two-sided platforms, Competition Policy International, 2007, 3, 1. Evans, D.S. und Schmalensee, R., Matchmakers - the new economics of multisided platforms, Boston 2016. Evans, D.S., Hagiu, A. und Schmalensee, R., Invisible engines: how software platforms drive innovation and transform industries, Cambridge 2006. Farrell, J. und Klemperer, P., Coordination and lock-in: competition with switching costs and network effects, in: Armstrong, M. und Porter, R. (Hrsg.), Handbook of Industrial organization, Volume 3, 2007, 1967-2072. Ferreira, R.D.S. und Thisse, J.F., Horizontal and vertical differentiation: the Launhardt model, International Journal of Industrial Organization, 1996, 14, 4, 485-506. Fiegenbaum, A. und Thomas, H., Strategic groups as reference groups: theory, modeling and empirical examination of industry and competitive strategy, Strategic Management Journal, 1995, 16, 461-476. Filistrucchi, L., Geradin, D., van Damme, E. und Affeldt, P., Market definition in two-sided markets: theory and practice, Journal of Competition Law and Economics, 2014, 10, 2, 293-339. Frank, R.H. und Cartwright, E., Microeconomics and behavior, Maidenhead 2013. Fujimoto, T., The long tail of the auto industry life cycle, Journal of Product Innovation Management, 2014, 31, 1, 8-16. Gabszwicz, J.J. und Thisse, J.F., On the nature of competition with differentiated products, Economic Journal, 1986, 96, 381, 160-172. Gali, J., Keeping up with the Joneses: Consumption externalities, portfolio choice, and asset prices, Journal of Money, Credit and Banking, 1994, 26, 1, 1-8. Gambardella, A. und Torrisi, S., Does technological convergence imply convergence in markets? Evidence from the electronics industry, Research Policy, 1998, 27, 5, 445-463. Ghemawat, P., Competition and business strategy in historical perspective, Business History Review, 2002, 76, 1, 37-74. Goldberg, P.K., Product differentiation and oligopoly in international markets: the case of the US automobile industry, Econometrica, 1995, 63, 4, 891-951. Gönsch, J., How much to tell your customer? - A survey of three perspectives on selling strategies with incompletely specified products, European Journal of Operational Research, 2020, 280, 3, 793-817. Gruber, H., Market structure, learning and product innovation: evidence for the EPROM market, International Journal of the Economics of Business, 1995, 2, 87-101. Guajardo, J.A., Cohen, M.A. und Netessine, S., Service competition and product quality in the US automobile industry, Management Science, 2015, 62, 7, 1860-1877. Houthakker, H.S. und Taylor, L., Consumer demand in the United States: analyses and projections, Cambridge 1970. Johnson, J.P. und Myatt, D.P., On the simple economics of advertising, marketing, and product design, American Economic Review, 2006, 96, 3, 756-784. Kahneman, D. und Tversky, A., Experienced utility and objective happiness: a moment-based approach, Psychology of Economic Decisions, 2003, 1, 187-208. Katz, M.L. und Shapiro, C., Systems competition and network effects, Journal of Economic Perspectives, 1994, 8, 2, 93-115. Katz, M.L. und Shapiro, C., Technology adoption in the presence of network externalities, Journal of Political Economy, 1986, 94, 4, 822-841. <?page no="106"?> Kundenverhalten, Marktabgrenzung und Netzwerkeffekte 106 Klepper, S., Entry, exit, growth, and innovation over the product life cycle, American Economic Review, 1996, 86, 562- 583. Koski, H. und Kretschmer, T., Survey on competing in network industries: firm strategies, market outcomes, and policy implications, Journal of Industry, Competition and Trade, 2004, 4, 1, 5-31. Kretschmer, T. und Peukert, C., Video killed the radio star? Online music videos and recorded music sales, Information Systems Research, 2020. Krüger, M., Elasticity rules in two-sided markets, Review of Network Economics, 2009, 8, 271-278. Lancaster, K., Consumer demand: a new approach, New York 1971. Lehman-Wilzig, S. und Cohen-Avigdor, N., The natural life cycle of new media evolution: inter-media struggle for survival in the internet age, New Media & Society, 2004, 6, 6, 707-730. Levin, R.C. und Reiss, P.C., Cost-reducing and demand-creating R&D with spillovers, NBER Working Paper No. 2876, 1989. Levitt, T., Exploit the Product Life Cycle, Harvard Business Review, 1965, 43, 81-94. Liebowitz, S.J. und Margolis, S.E., Path dependence, lock-in, and history, Journal of Law, Economics and Organization 1995, 11, 1 205-226. Luce, R.D., Utility of gains and losses: measurement-theoretical and experimental approaches, Boston 2014. Malhotra, A. und Gupta, A.K., An investigation of firms’ strategic responses to industry convergence, Academy of Management Proceedings, 2001, 1, 1-6. Monteiro, G.F.A. und Foss, N., Resources and market definition: rethinking the “hypothetical monopolist” from a resource-based perspective, Managerial and Decision Economics, 2017, 38, 1, 1-8. Motta, M., Competition policy - theory and practice, Cambridge 2004. Nelson, P., Information and consumer behaviour, Journal of Political Economy, 1970, 78, 2, 311-329. Nenycz-Thiel, M. und Romaniuk, J., The real difference between consumers' perceptions of private labels and national brands, Journal of Consumer Behaviour, 2014, 13, 4, 262-269. Nestler, F., Deutsche Banken versagen mit Paydirekt, FAZ, 13. August 2016, 14. Nichols, W., Advertising Analytics 2.0, Harvard Business Review, 2013, 91, 3, 60-68. o.V., Die Cola, die deinen Namen trägt, FAZ, 16. Januar 2016, 17. Rochet, J.C. und Tirole, J., Platform competition in two-sided markets, Journal of the European Economic Association, 2003, 1, 4, 990-1029. Rohlfs, J., A theory of interdependent demand for a communications service, Bell Journal of Economics and Management Science, 1974, 5, 1, 16-37. Rysman M., The economics of two-sided markets, Journal of Economic Perspectives, 2009, 23, 3, 125-143. Schmidt, J., Makadok, R. und Keil, T., Customer-specific synergies and market convergence, Strategic Management Journal, 2016, 37, 5, 870-895. Shaked, A. und Sutton, J., Product differentiation and industrial structure, Journal of Industrial Economics, 1987, 36, 2, 131-146. Shy, O., A short survey of network economics, Review of Industrial Organization, 2011, 38, 2, 119-149. Siegel, E., Predictive analytics: the power to predict who will click, buy, lie, or die, in: Siegel, E. (Hrsg.), Predictive analytics, Hoboken 2013, 103-110. Simon, H., Dynamics of price elasticity and brand life cycles: an empirical study, Journal of Marketing Research, 1979, 16, 4, 439-452. <?page no="107"?> Zusammenfassung 107 Solomon, M.R. Consumer behavior: buying, having, and being, Upper Saddle River 2014. Sridhar, S., Narayanan, S. und Srinivasan, R., Dynamic relationships among R&D, advertising, inventory and firm performance, Journal of the Academy of Marketing Science, 2014, 42, 3, 277-290. Starbucks, Starbucks Fiscal Annual Report, Seattle 2017. Statistisches Bundesamt, Statistisches Jahrbuch 2017 - Kapitel 6: Einkommen, Konsum, Lebensbedingungen, Wiesbaden 2017. Taylor, L. und Halvorsen, R., Energy substitution in US manufacturing, Review of Economics and Statistics, 1977, 59, 4, 381-388. van Alstyne, M.W., Parker,G.G. und Choudary, S.P., Pipelines, platforms and the new rules of strategy, Harvard Business Review, April 2016, 2-9. Vesanen, J., What is personalization? A conceptual framework, European Journal of Marketing, 2007, 41, 5/ 6, 409-418. Voigt, K., Murawski, C., Speer, S. und Bode, S., Hard decisions shape the neural coding of preferences, Journal of Neuroscience, 2019, 39, 4, 718-726. Voigt, S. und Hinz, O., Network effects in two-sided markets: why a 50/ 50 user split is not necessarily revenue optimal, Business Research, 2015, 8, 1, 139-170. Ward, F. und King, G.A., Interfiber competition with emphasis on cotton, US Department of Agriculture, Economic Research Service, Washington 1973. Wiecek-Janka, E., Papierz, M., Kornecka M. und Nitka, M., Apple products: a discussion of the product life cycle, International Conference on Management Science and Management Innovation (MSMI 2017). Wold, H. und Jureen, L., Demand analysis, New York 1953. Yamada, A., Fukuda, H., Samejima, K., Kiyokawa, S., Ueda, K., Noba, S. und Wanikawa, A., The effect of an analytical appreciation of colas on consumer beverage choice, Food Quality and Preference, 2014, 34, 1-4. Zeithaml, V.A., Consumer perceptions of price, quality, and value: a means-end model and synthesis of evidence, Journal of Marketing, 1988, 52, 3, 2-22. <?page no="109"?> 3 Entscheidungen bei Risiko und Behavioral Economics In vielen Unternehmen werden Entscheidungen auf Basis eines Business Cases (einer strategischen Planungsrechnung) vorbereitet, in dem Erlöse und Kosten geplant und mögliche Gewinne ermittelt werden - häufig fordert das Management in diesem Zusammenhang einen Base Case, einen Best Case und einen Worst Case, um die möglichen Effekte unsicherer Rahmenbedingungen einer Entscheidung besser abschätzen zu können. Kunden kaufen sich ein neues Auto oder einen Flachbildfernseher und erwerben zusätzlich eine Garantie oder sogar eine Garantieverlängerung, Menschen schließen Versicherungen ab für Bestattungskosten, Hochzeitsrücktrittskosten oder für ihr Mobiltelefon. Begründet ist dieses Verhalten durch Risiko: Menschen ist klar, dass künftige Entwicklungen nicht vollständig absehbar sind und möchten sich dagegen absichern oder zumindest mögliche Auswirkungen kennen, bevor eine Entscheidung getroffen wird. Entscheidungen bei Risiko und Unsicherheit drehen sich immer um die Frage, wieviel Risiko ein Mensch bereit ist einzugehen, und ob und in welcher Weise sich dieses Risiko lohnt - Menschen lassen hier vor dem Hintergrund ihrer individuellen Risikoeinstellung und Risikoaversion die Erwartungen über wahrscheinliche künftige Entwicklungen in ihre Entscheidungen einfließen. Menschen, die vermeintlich kein Risiko eingehen wollen, halten an bestehenden Lösungen oder Strategien fest - gerade in Unternehmen werden häufig Routinen („das haben wir schon immer so gemacht“) angewendet. Dieser sogenannte Status-quo-Effekt beschreibt, dass Menschen bspw. Strategien, Kaffeetassen oder Angewohnheiten stärker wertschätzen, wenn sie diese besitzen oder schon länger verwenden. Derartiges Verhalten wird oft als irrational beschrieben und im Rahmen von Behavioral Economics analysiert. Behavioral Economics - verhaltenswissenschaftliche Erklärungen für ökonomische Entscheidungen - wurde wesentlich begründet durch die Arbeiten von Simon (1955) zu begrenzt rationalen Entscheidungen in Unternehmen und Tversky und Kahneman (1971 ff.) in Form von Experimenten zu Risikoeinstellung, Präferenzen und Entscheidungen. Menschen weichen offenbar - nicht immer, aber regelmäßig und vorhersagbar - systematisch von maximierendem Verhalten ab. So beschreiben zahlreiche empirische Studien und Experimente zu Framing, dass Präferenzen nicht absolut stabil sind, sondern durch eine veränderte Anordnung von Produkten beeinflusst werden können. Emotionen, Wahrnehmungsverzerrungen und Verlustängste bestimmen mit, wie entschieden wird - und zwar sowohl als begrenzt rationaler Kunde bei Kaufentscheidungen, wie auch als begrenzt rationaler Manager bei strategischen Entscheidungen (DellaVigna 2009 und Powell et al. 2011). Eine Entscheidungssituation, die das typische Zusammenspiel beider Aspekte - Risiko und Behavioral Economics - verdeutlicht, ist die Situation eines Fußballtorwarts vor dem Elfmeter. Ein Torwart kennt meist die Wahrscheinlichkeitsverteilung der Schüsse und die Stärken des Schützen, gleichzeitig erwarten die Zuschauer und Mitspieler nicht, dass der Torwart den Ball hält - dies geschah zumindest in der Bundesliga von 1963 bis 2004 nur in 18,9 % der Fälle (Dohmen 2008). Vom Schützen wiederum wird allgemein erwartet, dass er trifft. Zunächst wird der Torwart einen Erwartungswert bilden und eine Entscheidung bei gegebenen Wahr- <?page no="110"?> Entscheidungen bei Risiko und Behavioral Economics 110 scheinlichkeiten treffen - ebenso wägt der Schütze alle denkbaren Strategien vor den möglichen Wahrscheinlichkeiten des Verhaltens des Torwarts ab: Beide treffen eine Entscheidung unter Unsicherheit. Wenn der Torwart bei seiner Entscheidung allerdings an die letzten Elfmeter zurückdenkt, um eine optimale Entscheidung abzuleiten, unterliegt er der Gambler’s Fallacy (Spielerfehlschluss): Wahrscheinlichkeiten basieren auf dem Gesetz der großen Zahl und stellen sich, aufgrund der Unabhängigkeit nacheinander eintretender Ereignisse bei fehlender serieller Korrelation, nicht unmittelbar ein oder gleichen sich bereits in kleinen Stichproben aus - auch im Spielcasino kommt nicht „endlich“ eine ungerade Zahl, weil zuvor eine Reihe gerader Zahlen gekommen ist, da Zufälle keine Erinnerung haben (Tversky und Kahneman 1971). Darüber hinaus wird die Situation von Emotionen und Erwartungen überlagert: Schützen schießen zu etwa 28 % in die Mitte - dort bleibt der Torwart aber nur in etwa 10 % der Fälle stehen. Ein Torhüter könnte - vielleicht - seine Chancen erhöhen, indem er einfach stehen bleibt. Trifft dann allerdings der Schütze, wird der Torwart aufgrund des offensichtlichen Nichtstuns ausgepfiffen. Damit unterliegt der Torwart einem emotionalen Action Bias (Handlungsdrang), der ihm einen Anreiz gibt, in eine der Ecken zu springen und maßgeblich von Spielstand und Spielsituation beeinflusst wird (Bar-Eli et al. 2007, Dohmen 2008 sowie Misirlisoy und Haggard 2014). Einem ähnlichen Handlungsdrang unterliegen Manager aufgrund von Quartals-, Monats- oder Wochenberichten - typischerweise kann man als Vorstand dem Aufsichtsrat nicht mitteilen, dass im letzten Quartal ‚nichts‘ unternommen wurde (Cyert und March 1963, Gavetti und Rivkin 2007 sowie Brunsson 1982). Was Torwart und Schütze aus strategischer und spieltheoretischer Perspektive tun sollten, wird in ► Kapitel 9 fortgeführt.  Lernziele Dieses Kapitel beschäftigt sich mit  Entscheidungen unter dem Einfluss von Risiko und Unsicherheit, der Rolle von Risikoeinstellung und Risikoaversion und der Wahrnehmung von Risiken,  Abweichungen von optimierendem oder maximierendem Verhalten aufgrund begrenzter Rationalität von Kunden und Managern und  psychologischen Effekten und verhaltenswissenschaftlichen Regelmäßigkeiten wie Verlustaversion und der Auswirkung in Form von Besitzstandseffekt oder Framing. 3.1 Entscheidungen bei Risiko und Unsicherheit Nahezu alle menschlichen Entscheidungen finden unter dem Einfluss von Risiko und Unsicherheit statt. Die Ursache dafür liegt in der eingeschränkten Möglichkeit, sowohl die Gegenwart in ihren Zuständen vollständig zu erfassen, als auch alle möglichen Aktionen aller Marktteilnehmer zu antizipieren und die Zukunft in allen denkbaren Ausprägungen perfekt vorherzusehen:  Umwelt-/ Rahmenbedingungen - typischerweise können weder Manager in Unternehmen noch Kunden für ihre Entscheidungen alle aktuellen Rahmenbedingungen und Um- <?page no="111"?> Entscheidungen bei Risiko und Unsicherheit 111 weltzustände - bspw. im Rahmen einer PEST-Analyse - und deren Veränderungen erfassen. Diese sind entweder nicht verfügbar, oder die Informationsbeschaffung und -verarbeitung dauert zu lange oder ist zu kostspielig.  Wettbewerberverhalten - zahlreiche Entscheidungen von Unternehmen müssen das aktuelle Verhalten der relevanten Wettbewerber berücksichtigen, aber auch deren künftige Entscheidungen antizipieren - dies gelingt nur in Teilen (vgl. auch ► Kapitel 9 zu Spieltheorie und ► Kapitel 10 zu strategischem Wettbewerb).  Rückwirkungen eigener Entscheidungen - eigene Entscheidungen können beabsichtigte und erwartete oder aber unbeabsichtigte und unerwartete Auswirkungen haben oder Reaktionen bei anderen hervorrufen.  Zufälle - zahlreiche Entwicklungen erscheinen in Entscheidungssituationen tatsächlich zufällig, weil eine Abhängigkeit von Ereignissen, Strategien oder Handlungen (auch in der Rückschau) entweder tatsächlich nicht vorliegt oder nicht festgestellt werden kann und so keine kausale Erklärung möglich ist. Manager in Unternehmen oder Kunden müssen aber trotzdem entscheiden - in der Konsequenz werden in Unternehmen Annahmen über mögliche künftige Entwicklungen getroffen und diese Prognosen oder Planungen mit Wahrscheinlichkeiten in Szenarien hinterlegt. In der Zukunft wird sich dann eine der möglichen Entwicklungen als tatsächliche Realität konkretisieren. Toner et al. (2015) haben aus Managementperspektive die Kernrisiken und Einflussfaktoren für strategische Entscheidungen entlang der vier Dimensionen makroökonomisches Umfeld, Technologie, Wettbewerbsumfeld und Kunden aufgelistet: Ein Unternehmen muss mindestens 80 sich wechselseitig beeinflussende und mit Unsicherheit behaftete Entwicklungen im Blick behalten und bei Entscheidungen berücksichtigen. Aus ökonomischer Perspektive liegt unvollständige Information vor, die bei Entscheidungen berücksichtigt werden muss. Zusammenfassend kann man die Rahmenbedingungen, das Wettbewerberverhalten, Rückwirkungen eigener Entscheidungen sowie Zufälle als mögliche Ereignisse beschreiben, die mit Wahrscheinlichkeiten eintreten. Die Art und der Grad an unvollständiger Information wird nachfolgend Knight (1921) klassifiziert:  Risiko - beschreibt eine Entscheidungssituation, für die alle möglichen künftigen Ereignisse bekannt sind und jeweils objektive Wahrscheinlichkeiten vorliegen. Entscheidungen können dann anhand von Erwartungswerten abgeleitet werden.  Unsicherheit - beschreibt eine Entscheidungssituation, in der entweder nicht alle möglichen Ereignisse bekannt sind und/ oder keine objektiven Wahrscheinlichkeiten vorliegen. Entscheidungen unter Risiko und somit objektive Wahrscheinlichkeiten liegen bspw. bei Glücksspielen wie Roulette oder Würfeln vor - mit der Wahrscheinlichkeit von 1/ 6 wirft ein Spieler mit einem Würfel eine Eins - und dort, wo aufgrund empirischer Daten aus der Vergangenheit oder wiederholbarer Situationen die Schätzung von Wahrscheinlichkeiten oder einer Wahrscheinlichkeitsverteilung möglich ist. Entscheidungen bei Unsicherheit sind dann typisch, wenn Ereignisse nur einmalig auftreten oder aber lediglich subjektive Wahrscheinlichkeiten (bspw. auf Basis von Einschätzungen oder Vermutungen eines Managers) vorliegen. <?page no="112"?> Entscheidungen bei Risiko und Behavioral Economics 112 In der Realität lassen sich beide Fälle schwer trennen - zum einen scheint die Fähigkeit von Menschen, mit Risiko und Wahrscheinlichkeiten umzugehen, generell begrenzt und die Wahrnehmung von Wahrscheinlichkeiten ist durch psychologische Effekte verzerrt, zum anderen gelten auch objektive Wahrscheinlichkeiten nur bei Vorliegen des Gesetzes der großen Zahl und struktureller Stabilität der Wahrscheinlichkeitsverteilung (Tversky und Kahneman 1971, 1973 und 1974, Gigerenzer 1990, March und Shapira 1987 sowie Taleb et al. 2009). Wird anhand von Experimenten untersucht, ob Menschen lieber auf Basis subjektiver Wahrscheinlichkeiten und Unsicherheit oder auf Basis objektiver Wahrscheinlichkeiten und Risiko entscheiden, wird regelmäßig Risiko - mit bekannter Wahrscheinlichkeitsverteilung - gegenüber Unsicherheit bevorzugt, selbst bei identisch wahrgenommenen Wahrscheinlichkeiten (Ellsberg 1961 sowie Camerer und Weber 1992). Erwartungswert und Varianz Eine erste Möglichkeit, Entscheidungen unter Risiko zu treffen, ist, über alle möglichen Ereignisse, unter Berücksichtigung der Wahrscheinlichkeitsverteilung, den Erwartungswert zu bestimmen und anhand der Varianz das Risiko zu beurteilen:  Ereignisse - beschreiben vollständig alle denkbaren zukünftigen Situationen - bei sechsseitigen Würfeln bspw. die Zahlen 1 bis 6.  (Eintritts-)Wahrscheinlichkeit - beschreibt die relative Häufigkeit, dass ein bestimmtes Ereignis auftritt oder eintritt. Wahrscheinlichkeiten können als Verteilungen oder diskrete Werte gegeben sein - im Fall des Würfels betragen die Wahrscheinlichkeiten je 1/ 6 je Ereignis und addieren sich in Summe zu 1.  Erwartungswert - entspricht dem mit Eintrittswahrscheinlichkeiten 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑃𝑃𝑃𝑃 (Probability) gewichteten Wert der Auszahlungen ( 𝑥𝑥𝑥𝑥 1 bis 𝑥𝑥𝑥𝑥 𝑝𝑝𝑝𝑝 ) aller 𝑆𝑆𝑆𝑆 möglichen Ereignisse: 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑥𝑥𝑥𝑥) = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 1 ⋅ 𝑥𝑥𝑥𝑥 1 + 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 2 ⋅ 𝑥𝑥𝑥𝑥 2 + ⋯ + 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝 ⋅ 𝑥𝑥𝑥𝑥 𝑝𝑝𝑝𝑝 - im Fall eines sechsseitigen perfekten Würfels 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑥𝑥𝑥𝑥) = 1 6 ⁄ ⋅ 1 + 1 6 ⁄ ⋅ 2 + 1 6 ⁄ ⋅ 3 + 1 6 ⁄ ⋅ 4 + 1 6 ⁄ ⋅ 5 + 1 6 ⁄ ⋅ 6 = 3,5 .  Varianz - misst als ein typisches Maß für Risiko die quadrierten und gewichteten Abweichungen zwischen Erwartungswert und tatsächlich eingetretenen Ereignissen: 𝜎𝜎𝜎𝜎 2 = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 1 [𝑥𝑥𝑥𝑥 1 − 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑥𝑥𝑥𝑥)] 2 + 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 2 [𝑥𝑥𝑥𝑥 2 − 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑥𝑥𝑥𝑥)] 2 + ⋯ + 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝 [𝑥𝑥𝑥𝑥 𝑝𝑝𝑝𝑝 − 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑥𝑥𝑥𝑥)] 2 - im Fall des sechsseitigen Würfels 𝜎𝜎𝜎𝜎 2 = 1/ 6[1 − 3,5] 2 + 1/ 6[2 − 3,5] 2 +. . . +1/ 6[6 − 3,5] 2 = 2,92 . Je niedriger die Varianz ist, desto geringer sind die Abweichungen vom Erwartungswert, umso geringer ist das Risiko. Hohe Werte der Varianz zeigen dagegen an, dass die Ereignisse weit gestreut vom Erwartungswert liegen und ein hohes Risiko besteht. Strategische Entscheidungen unter Risiko - die Investition in einen neuen Flughafen und dessen Fertigstellungsdatum, die Festlegung einer globalen Marketingstrategie eines Konsumgüterherstellers oder die Ausrichtung auf Elektromobilität eines Automobilherstellers - sind strukturell Spielsituationen auf Basis von Zufällen (Münzwurf, Lotterien, Würfeln oder Roulette) nicht unähnlich. In ► Abbildung 3.1 sind drei Glücksspiele abgebildet: In Abhängigkeit von Kopf und Zahl entstehen mit je 50 %-Wahrscheinlichkeiten die angegebenen Auszahlungen. <?page no="113"?> Entscheidungen bei Risiko und Unsicherheit 113 Abbildung 3.1: Glücksspiele mit Kopf oder Zahl. Bietet man Studierenden eine jeweils einmalige Teilnahme an den drei Spielen an, so nimmt eine überwiegende Mehrheit von etwa 85 % an Spiel 1 teil, bei Spiel 2 geht die Bereitschaft stark zurück und an Spiel 3 wollen nur noch etwa 5 % der Studierenden teilnehmen. Betrachtet man in ► Tabelle 3.1 den Erwartungswert und die Varianz der drei Spiele, wird eine erste Erklärung für diese Entscheidungen deutlich. Zwar steigt der Erwartungswert von Spiel 1 über Spiel 2 zu Spiel 3 an, aber das wahrgenommene Risiko ausgedrückt durch die Varianz nimmt deutlich zu und dominiert offenbar die Entscheidungen der potenziellen Mitspieler - das Risiko, einen relativen hohen Betrag von 2.500 EUR zu verlieren, schreckt von der Teilnahme an Spiel 3 ab. Münzwurf Glücksspiele Spiel 1 Spiel 2 Spiel 3 Kopf 199 300 5000 Zahl -1 -100 -2500 Erwartungswert 99 100 1250 Varianz 10.000 40.000 14.062.500 erwarteter Nutzen bei 3.000 EUR Vermögen 24,913 24,907 24,211 Tabelle 3.1: Münzwurf Glücksspiele, Erwartungswert und Varianz. Spiel 1: Bei Kopf gewinnen Sie 199 EUR, bei Zahl verlieren Sie 1 EUR. Spiel 2: Bei Kopf gewinnen Sie 300 EUR, bei Zahl verlieren Sie 100 EUR. Spiel 3: Bei Kopf gewinnen Sie 5.000 EUR, bei Zahl verlieren Sie 2.500 EUR. 15 % nein 95 % nein 5 % ja 45 % nein 85 % ja 55 % ja <?page no="114"?> Entscheidungen bei Risiko und Behavioral Economics 114 Nutzenfunktion und Risikoaversion Die Entscheidung über die einmalige Teilnahme an diesen Spielen wird aber (in den allermeisten Fällen) nicht getroffen, nachdem die Spieler explizit Erwartungswerte und Varianzen berechnet haben. Die Entscheidung basiert vielmehr auf einer Abwägung des Nutzens an diesem Spiel teilzunehmen und der daraus möglichen Veränderung des Vermögens. Abbildung 3.2: (Erwarteter) Nutzen und (Erwartungswert des) Vermögens. In ► Abbildung 3.2 links ist eine Situation anhand einer Nutzenfunktion skizziert, in der zwei Personen - eine mit einem bisherigen Vermögen von 100 EUR, eine andere mit einem bisherigen Vermögen von 100.000 EUR - jeweils 100 EUR geschenkt bekommen. Die Person mit dem geringen Vermögen wird sich über die Verdopplung des Vermögens und einen Zuwachs von 100 % sicher stärker freuen als die vermögende Person, deren Vermögen um 0,1 % ansteigt. Dahinter liegt als Begründung, dass Vermögen (in nahezu allen Gesellschaften) einen Nutzen erbringt, aber der Grenznutzen mit zunehmendem Vermögen abnimmt (von Neumann und Morgenstern 1944) - gleiches gilt bei Entscheidungen von Managern für den Gewinn in Unternehmen. In ► Abbildung 3.2 rechts ist zu sehen, dass der Grenznutzen einer Erhöhung des Vermögens umso größer ist, je geringer das Vermögen ist - die Nutzenfunktion 𝑢𝑢𝑢𝑢 des Vermögens 𝑊𝑊𝑊𝑊 verläuft dann typischerweise konkav und kann allgemein anhand von (3.1) 𝑢𝑢𝑢𝑢 = 𝑢𝑢𝑢𝑢(𝐸𝐸𝐸𝐸𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙ö𝑆𝑆𝑆𝑆𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙) = 𝑊𝑊𝑊𝑊 𝜔𝜔𝜔𝜔 beschrieben werden, in der 𝜔𝜔𝜔𝜔 < 1 zunächst die Krümmung der Nutzenfunktion einer Person beschreibt. Anhand der Nutzenfunktion (3.1) kann jetzt der erwartete Nutzen der Teilnahme an den Glücksspielen aus ► Abbildung 3.1 überprüft werden. Eine Studentin hat aktuell ein Gesamtvermögen W von 3.000 EUR bei einem zunächst willkürlich angenommenen Wert 𝜔𝜔𝜔𝜔 = 0,4 , so dass ihr aktuelles Nutzenniveau (3.2) 𝑢𝑢𝑢𝑢 = 𝑊𝑊𝑊𝑊 𝜔𝜔𝜔𝜔 = 3000 0,4 = 24,595 beträgt. Der erwartete Nutzen 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 bei der Teilnahme an einem Glücksspiel kann allgemein als (3.3) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 = 𝑝𝑝𝑝𝑝𝑙𝑙𝑙𝑙 1 (𝑊𝑊𝑊𝑊 + 𝑥𝑥𝑥𝑥 1 − 𝑝𝑝𝑝𝑝) 𝜔𝜔𝜔𝜔 + 𝑝𝑝𝑝𝑝𝑙𝑙𝑙𝑙 2 (𝑊𝑊𝑊𝑊 + 𝑥𝑥𝑥𝑥 2 − 𝑝𝑝𝑝𝑝) 𝜔𝜔𝜔𝜔 + ⋯ + 𝑝𝑝𝑝𝑝𝑙𝑙𝑙𝑙 𝑝𝑝𝑝𝑝 (𝑊𝑊𝑊𝑊 + 𝑥𝑥𝑥𝑥 𝑝𝑝𝑝𝑝 − 𝑝𝑝𝑝𝑝) 𝜔𝜔𝜔𝜔 0 100 100.000 200 100.100 (erwarteter) Nutzen (Erwartungswert des) Vermögens A B W 1 W 2 EU 1 EU 2 W 1 + x A‘ W 2 + x B‘ U (erwarteter) Nutzen (Erwartungswert des) Vermögens U <?page no="115"?> Entscheidungen bei Risiko und Unsicherheit 115 beschrieben werden, wobei 𝑝𝑝𝑝𝑝 den Preis der Teilnahme am Glücksspiel bezeichnet und 𝑥𝑥𝑥𝑥 1 bis 𝑥𝑥𝑥𝑥 𝑝𝑝𝑝𝑝 die möglichen risikobehafteten Gewinne oder Verluste. Nimmt die Studentin kostenlos, mit 𝑝𝑝𝑝𝑝 = 0 , an einem der drei Spiele aus ► Abbildung 3.1 teil, wird ihr Vermögen mit jeweils 50 % Wahrscheinlichkeit um 𝑥𝑥𝑥𝑥 1 ansteigen oder um 𝑥𝑥𝑥𝑥 2 zurückgehen, so dass sich (3.4) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑆𝑆𝑆𝑆𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 1) = 0,5(3.000 + 199) 0,4 + 0,5(3.000 − 1) 0,4 = 24,913 (3.5) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑆𝑆𝑆𝑆𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 2) = 0,5(3.000 + 300) 0,4 + 0,5(3.000 − 100) 0,4 = 24,907 und (3.6) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑆𝑆𝑆𝑆𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 3) = 0,5(3.000 + 5.000) 0,4 + 0,5(3.000 − 2.500) 0,4 = 24,211 ergeben. Hier lassen sich zwei Beobachtungen machen:  Die Bewertung auf Basis der Reihenfolge des erwarteten Nutzens weicht vom Erwartungswert der Spiele ab (siehe auch ► Tabelle 3.1) und  die Studentin würde aus dem Vergleich ihres aktuellen Nutzenniveaus (3.2) mit den möglichen erwarteten Nutzen aus (3.4) bis (3.6) an den Spielen 1 oder 2 teilnehmen, nicht aber an Spiel 3. Wenn die Studentin frei entscheiden kann, nimmt sie an Spiel 1 teil - es hat für sie bei gegebenem Ausgangsvermögen den höchsten erwarteten Nutzen - Spiel 3 würde sie definitiv ablehnen, da der erwartete Nutzen geringer ist als der Nutzen ihres aktuellen Vermögens. Die Ursache für diese Entscheidung ist, dass die Studentin offenbar vor dem Risiko des Verlustes von 2.500 EUR zurückschreckt. Allgemein wird dieses Verhalten als Risikoaversion mit einer Präferenz für sichere gegenüber unsicheren Vermögenssituationen gleicher Erwartungswerte beschrieben:  Bei Entscheidungen zwischen mehreren alternativen Strategien mit identischen Erwartungswerten wird immer die Strategie mit dem niedrigsten Risiko gewählt,  bei Entscheidungen zwischen mehreren alternativen Strategien mit identischen Risiken wird immer die Strategie mit dem höchsten Erwartungswert gewählt,  bei Entscheidungen zwischen mehreren alternativen Strategien mit unterschiedlichen Erwartungswerten wird immer die Strategie mit dem höchsten erwarteten Nutzen gewählt,  die Nutzenfunktion von Menschen mit Risikoaversion verläuft konkav, der Grenznutzen nimmt mit zunehmendem Vermögen unterproportional zu und 𝜔𝜔𝜔𝜔 < 1 beschreibt den Grad der Risikoaversion - je kleiner 𝜔𝜔𝜔𝜔 , desto größer die Risikoaversion. Empirische Messung von Risikoeinstellung Ein experimentelles Verfahren zur Messung der Risikoneigung oder -aversion ist, potenziellen Spielern in zehn aufeinander folgenden Spielrunden die Teilnahme an zwei Lotterien anzubieten, deren Attraktivität (gemessen durch die Erwartungswerte) sich sukzessiv von Lotterie A zu Lotterie B verschiebt (Holt und Laury 2002). <?page no="116"?> Entscheidungen bei Risiko und Behavioral Economics 116 Holt-Laury-Lotterie zur empirischen Ermittlung der Risikoneigung Lotterie A Lotterie B Differenz der Erwartungswerte bei der Lotterien Spielrunde Wahrscheinlichkeit Auszahlung Wahrscheinlichkeit Auszahlung Erwartungswert Wahrscheinlichkeit Auszahlung Wahrscheinlichkeit Auszahlung Erwartungswert pr x pr y EV(A) pr x pr y EV(B) Δ EV = EV(A) - EV(B) 1 0,10 2,00 0,90 1,60 1,64 0,10 3,85 0,90 0,10 0,48 1,17 2 0,20 2,00 0,80 1,60 1,68 0,20 3,85 0,80 0,10 0,85 0,83 3 0,30 2,00 0,70 1,60 1,72 0,30 3,85 0,70 0,10 1,23 0,50 4 0,40 2,00 0,60 1,60 1,76 0,40 3,85 0,60 0,10 1,60 0,16 5 0,50 2,00 0,50 1,60 1,80 0,50 3,85 0,50 0,10 1,98 -0,18 6 0,60 2,00 0,40 1,60 1,84 0,60 3,85 0,40 0,10 2,35 -0,51 7 0,70 2,00 0,30 1,60 1,88 0,70 3,85 0,30 0,10 2,73 -0,85 8 0,80 2,00 0,20 1,60 1,92 0,80 3,85 0,20 0,10 3,10 -1,18 9 0,90 2,00 0,10 1,60 1,96 0,90 3,85 0,10 0,10 3,48 -1,52 10 1,00 2,00 0,00 1,60 2,00 1,00 3,85 0,00 0,10 3,85 -1,85 Tabelle 3.2: Holt-Laury-Lotterie, Zahlenwerte teilweise gerundet Vgl. Holt und Laury 2002, S. 1645. In ► Tabelle 3.2 sind die Lotterien A und B beschrieben. Lotterie A hat eine dauerhaft geringere Varianz als Lotterie B und bis zur vierten Spielrunde ist der Erwartungswert von A größer als der Erwartungswert von B. Ein risikoneutraler Teilnehmer sollte die Lotterie mit dem höchsten Erwartungswartungswert ohne Berücksichtigung der Varianz wählen, so dass bis Runde 4 Lotterie A und ab Runde 5 Lotterie B gewählt wird - wechselt ein Teilnehmer früher zur Lotterie B, ist er offenbar risikofreudig - je später ein Teilnehmer zu Lotterie B wechselt, desto höher ist sein Grad an Risikoaversion. Tatsächlich ergibt sich - wie in ► Tabelle 3.3 dargestellt - über zahlreiche Experimente und Studien hinweg kein eindeutiges Bild. Im Durchschnitt zeigen etwa zwei Drittel der Teilnehmer an derartigen Holt-Laury-Lotterien risikoaverses Verhalten, etwa 20 % sind risikoneutrale Entscheider und ca. 15 % zeigen risikofreudiges Entscheidungsverhalten, aber die Ergebnisse der einzelnen Studien variieren stark. Daneben ist inkonsistentes oder sogar irrationales Verhalten zu beobachten. <?page no="117"?> Entscheidungen bei Risiko und Unsicherheit 117 Empirische Risikoeinstellungen Studie risikofreudig risikoneutral risikoavers irrational sonstige Teilnehmer Holt und Laury 2002 7,1 % 23,0 % 58,3 % 13,2 % Studierende Anderson und Mellor 2009 4,7 % 20,8 % 74,5 % Studierende Mascalet et al. 2009 2,7 % 10,2 % 87,1 % Studierende, Selbstständige und Angestellte Pennings und Smidts 2000 61,0 % 4,0 % 35,0 % Unternehmenseigentümer Bellemare und Shearer 2006 17,6 % 13,7 % 37,3 % 31,4 % Mitarbeiter eines Holzunternehmens Günther und Detzner 2012 18,7 % 17,0 % 29,4 % 35,0 % Geschäftsführer Günther und Detzner 2012 18,0 % 27,0 % 26,0 % 29,0 % Mitarbeiter im Controlling Tabelle 3.3: Empirische Risikoeinstellungen in Holt-Laury-Lotterien Vgl. weiterführend auch Vanini 2016. Risikoaversion und Risikoprämie Menschen, die risikoavers entscheiden, lehnen faire Spiele ab. Faire Spiele haben einen Erwartungswert von Null: Die Gewinn- und Verlustchancen sind gleich groß. In diesem Fall kann ein aktuell vorhandenes sicheres Vermögen mit einem unsicheren Erwartungswert in gleicher Höhe verglichen werden. Ein solches faires Spiel ist in ► Abbildung 3.3 links abgebildet. Einem potenziellen Spieler mit einer Nutzenfunktion 𝑢𝑢𝑢𝑢 = 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊) = 𝑊𝑊𝑊𝑊 0,5 wird angeboten, 50 EUR in einem Glücksspiel zu setzten, das über einen Münzwurf und jeweils 50 % Wahrscheinlichkeit bei 10 EUR oder 90 EUR für ihn endet. Die Gewinnchance und das Verlustrisiko sind mit (3.7) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑥𝑥𝑥𝑥) = 0,5 ⋅ (+40) + 0,5 ⋅ (−40) = 0 gleich groß, so dass der Erwartungswert des Vermögens (3.8) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 0,5 ⋅ (50 − 40) + 0,5 ⋅ (50 + 40) = 50 exakt dem Einsatz entspricht, d.h. ein faires Spiel darstellt. Es gibt drei mögliche Entscheidungen des Spielers:  Er lehnt das faire Spiel ab - damit bewertet er die sicheren 50 EUR höher als den riskanten Erwartungswert von 50 EUR - der Spieler ist risikoavers und setzt seine 50 EUR nicht für das Spiel ein. <?page no="118"?> Entscheidungen bei Risiko und Behavioral Economics 118  er nimmt das faire Spiel an - er bewertet die sicheren 50 EUR geringer als den riskanten Erwartungswert von 50 EUR - dieser Spieler ist risikofreudig und setzt seine 50 EUR für das Spiel ein und hat nach dem Münzwurf entweder 10 EUR oder 90 EUR.  er ist indifferent gegenüber der Teilnahme am fairen Spiel - die sicheren 50 EUR werden offensichtlich genauso hoch bewertet wie der riskanten Erwartungswert von 50 EUR - dieser Spieler ist risikoneutral. Abbildung 3.3: Faires Spiel und Risikoprämie. Aus ► Abbildung 3.3 links ist zu erkennen, dass ein risikoaverser Spieler mit der Nutzenfunktion 𝑢𝑢𝑢𝑢 = 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊) = 𝑊𝑊𝑊𝑊 0,5 dieses faire Spiel ablehnt. Die beiden möglichen Ereignisse, Verlust von 40 EUR und Gewinn von 40 EUR, ergeben auf der Nutzenfunktion die Punkte A und B. Deren jeweiliges Nutzenniveau beträgt 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊 = 10) = 10 0,5 = 3,16 und 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊 = 90) = 90 0,5 = 9,49 , allerdings jeweils mit einer Wahrscheinlichkeit von 50 %. Der erwartete Nutzen des fairen Spiels kann dann auf der Verbindungslinie AB der unsicheren Ereignisse auf Höhe des Erwartungswertes 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 50 bei Punkt C abgelesen werden als (3.9) 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 0,5 ⋅ 10 0,5 + 0,5 ⋅ 90 0,5 = 6,32 . Dieser erwartete Nutzen ist allerdings geringer als der Nutzen aus dem vorhandenen Vermögen von 50 EUR, (3.10) 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊) = 50 0,5 = 7,07 , so dass der Spieler das Spiel wegen 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 6,32 < 7,07 = 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊) ablehnt. In der ► Abbildung 3.3 links ist dies auch daran zu erkennen, dass der Punkt C unterhalb Punkt B liegt, da die Verbindungslinie AB der unsicheren Ereignisse unterhalb der konkaven Nutzenfunktion der sicheren Vermögen liegt. Eine risikoaverse Person ist allgemein bereit, für den Ausschluss oder die Reduktion von Risiken zu bezahlen. Dieser Betrag wird als Risikoprämie bezeichnet: Die Risikoprämie ist der Differenzbetrag zwischen einer sicheren und einer unsicheren Vermögenssituation bei gleichem Nutzen. In ► Abbildung 3.3 rechts ist die Risikoprämie als Verbindung von Punkt C als 6,32 Erwartungswert des Vermögens W erwarteter Nutzen U 0 A B 10 90 C D 3,16 9,49 7,07 = erwarteter Nutzen U 0 A B 10 90 50 C E 39,9 6,32 3,16 9,49 Erwartungswert des Vermögens W 50 % 50 % 50 U = U(W) = W 0,5 U = U(W) = W 0,5 <?page no="119"?> Entscheidungen bei Risiko und Unsicherheit 119 horizontale Linie bis zum Punkt E auf der Nutzenfunktion eingezeichnet. Am Punkt E ist offenbar der Nutzen gleich groß wie bei Punkt C, allerdings ist der Nutzen hier sicher - anders als bei Punkt C. Der sichere Nutzen bei E basiert auf dem sicherheitsäquivalenten Vermögen 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 , das den gleichen Nutzen wie die Teilnahme am fairen Spiel ergibt. Die Risikoprämie RP ergibt sich über (3.11) 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 ) = 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 0,5 = 6,32 und das sicherheitsäquivalente Vermögen (3.12) 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 = 6,32 2 = 39,90 als (3.13) 𝑅𝑅𝑅𝑅𝑃𝑃𝑃𝑃 = 𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 − 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 = 50 − 39,90 = 10,10 , d.h. der Spieler wäre bereit, bis 10,10 EUR zu bezahlen, um nicht am riskanten Spiel teilnehmen zu müssen. Diese Überlegung ist nicht nur abstrakt richtig: Viele Menschen schließen Versicherungen ab, um Vermögensrisiken zu begrenzen oder auszuschließen - der Versicherungsbeitrag entspricht einem Teil der Risikoprämie. Ebenso kaufen Menschen Fahrscheine für den öffentlichen Nahverkehr, um den Schaden zu begrenzen, falls man ohne Ticket erwischt wird. Gleiches gilt für Parkgebühren - es wird das Risiko eines Strafzettels und den damit verbundenen Kosten gegenüber dem Preis des Parkens abgewogen. Abbildung 3.4: Grad der Risikoaversion und Höhe der Risikoprämie. Die Höhe der Risikoprämie hängt vom Grad der Risikoaversion ab. Je höher die Risikoaversion, desto größer ist der Betrag, den ein risikoaverser Entscheider aufwenden würde, um ein Risiko zu begrenzen oder zu eliminieren - umgekehrt gilt natürlich auch, dass ein geringerer Grad an Risikoaversion zum Falschparken und Schwarzfahren verleitet. In ► Abbildung 3.4 ist eine Situation abgebildet, die durch die riskanten Vermögenssituation 𝑊𝑊𝑊𝑊 𝐴𝐴𝐴𝐴 und 𝑊𝑊𝑊𝑊 𝐵𝐵𝐵𝐵 , und den 0 A B C E EV(W) EU 0 A‘ B‘ C‘ E‘ EV(W) W A W B W R W A W B W S ‘ W R W S RP‘ RP EU schwache Risikoaversion starke Risikoaversion <?page no="120"?> Entscheidungen bei Risiko und Behavioral Economics 120 risikobehafteten Erwartungswert des Vermögens 𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 vollständig beschrieben ist - die Abbildungen unterscheiden sich aufgrund unterschiedlicher Risikoaversion zweier Entscheider lediglich durch die Krümmung der Nutzenfunktion. Ist die Risikoaversion links relativ gering ausgeprägt, ist die Risikoprämie geringer als im Fall relativ starker Risikoaversion rechts, da der Grad der Risikoaversion sich auf das sicherheitsäquivalente Vermögen niederschlägt, so dass (3.14) 𝑅𝑅𝑅𝑅𝑃𝑃𝑃𝑃 = 𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 − 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 < 𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 − 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 ′ = 𝑅𝑅𝑅𝑅𝑃𝑃𝑃𝑃‘ .  Case Study | Wer wird Millionär In zahlreichen Ländern läuft seit Jahrzehnten sehr erfolgreich die Gameshow Wer wird Millionär - ein Kandidat kann hier 15 Fragen beantworten, mehrere Joker einsetzen und in Deutschland bis zu 1 Mio. EUR gewinnen (vgl. zu den Regeln  wikipedia.org/ wiki/ Wer_wird_Millionär). Das Spiel basiert zwar in Teilen auf Wissen, aber üblicherweise entstehen Situationen, in denen der Kandidat nicht mehr weiterweiß und - unter Risiko - abwägen muss, ob er das Spiel beendet und den bisherigen Gewinnbetrag behält, oder ob er zufällig eine der verbleibenden Antworten wählt. Wenn der Kandidat richtig liegt, steigt seine Gewinnstufe an und er kann weiterspielen, wenn er falsch liegt, fällt sein Gewinn auf eine darunter liegende Stufe und er scheidet aus. Zahlreiche Studien haben das Spiel zum Anlass genommen, die Risikoaversion und das Entscheidungsverhalten der Kandidaten empirisch zu untersuchen: Männer und Frauen unterscheiden sich nicht signifikant in ihrer Risikoeinstellung, jüngere Kandidaten sind risikoaverser als ältere Kandidaten und die relative Risikoaversion bleibt während des Spiels mit zunehmender Gewinnhöhe konstant (Hartley et al. 2014, Daghofer 2007 sowie Franzen und Pointner 2009). Um künftig Wer wird Millionär mit mikroökonomischem Blick zu verfolgen, kann man strukturell folgende Situation betrachten:  Eine Teilnehmerin bei Wer wird Millionär hat eine Nutzenfunktion 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊) = 𝑊𝑊𝑊𝑊 0,6 . Sie steht bei 64.000 EUR und kann bei einer falschen Antwort zurückfallen auf 16.000 EUR.  Bei zwei verbleibenden Antwortalternativen hat sie keine Ahnung betreffend der 125.000 EUR Frage und keinen Joker mehr - was wird sie tun?  Wie hoch ist die Risikoprämie, was sagt sie in diesem Fall aus? Überträgt man zunächst das aktuelle Gewinnniveau von 64.000 EUR sowie die beiden möglichen zufälligen Ereignisse 16.000 EUR oder 125.000 EUR auf eine gekrümmte Nutzenfunktion, kann die Situation anhand von ► Abbildung 3.5 analysiert werden. Der Nutzen beträgt für die Kandidatin 𝑢𝑢𝑢𝑢(𝑊𝑊𝑊𝑊) = 64.000 0,6 = 765,08 auf der Gewinnstufe 64.000 EUR. Zwar ist der Erwartungswert des Weiterspielens 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 1 2 ⁄ ⋅ 16.000 + 1 2 ⁄ ⋅ 125.000 = 70.500 größer als die gegenwärtig erreichte Gewinnstufe, dagegen sinkt aber der erwartete Nutzen, wenn sie zufällig einer der beiden verbleibenden Antworten wählt, auf 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 ) = 1 2 ⁄ ⋅ 16.000 0,6 + 1 2 ⁄ ⋅ 125.000 0,6 = 738,14 . Bei der gegebenen Risikoaversion würde die Kandidatin nicht Zocken, sondern das Spiel mit 64.000 EUR beenden wollen. <?page no="121"?> Entscheidungen bei Risiko und Unsicherheit 121 Abbildung 3.5: Entscheidung bei Wer wird Millionär. Wenn der Moderator die Kandidatin auffordert und drängt weiterzuspielen, dann widerspricht dies der Risikopräferenz der Kandidatin - in letzter Konsequenz wäre sie bereit, eine Risikoprämie zu bezahlen, damit sie aufhören darf. Diese ergibt sich aus ► Abbildung 3.5 als Abstand zwischen den Punkten E und F und über 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 ) = 738,14 mit (3.15) 𝑊𝑊𝑊𝑊 𝑆𝑆𝑆𝑆 = 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊 𝜕𝜕𝜕𝜕 ) 1 0,6 = 60.288,32 mit (3.16) 𝑅𝑅𝑅𝑅𝑃𝑃𝑃𝑃 = 64.000- 60.288,32 = 3.711,68 . Fernsehsender könnten mit einer kleinen Regeländerung Teile der Gewinnsumme von den Kandidaten in Form der Risikoprämie zurückbekommen. Risikoprämie, Kapitalmärkte und Unternehmenswert Eine Risikoprämie kann auch in einem zweiten grundlegenden Fall auftreten: Als notwendige Zahlung an einen Entscheider, so dass dieser ein Risiko übernimmt oder eingeht. Diese Erklärung ist bspw. zentral für die Analyse von Portfolioentscheidungen in Finanz- und Kapitalmärkten, in denen zwischen einer vermeintlich risikolosen Anlage (Tagesgeld oder Festgeld mit niedriger, aber stabiler Rendite) gegenüber riskanteren Anlageformen (Aktien mit höherer, aber schwankender Rendite) entschieden werden muss. Die Risikoprämie drückt in diesem Fall die notwendigerweise erwartete Überschussrendite der risikobehafteten Anlage gegenüber der risikolosen Anlage aus, so dass ein privater oder institutioneller Anleger bereit ist, das Risiko zu tragen. Diese Überlegung ist grundlegend für das Capital-Asset-Pricing- Modell zur Bestimmung des Wertes risikobehafteter Investitionen oder der Kurse risikobehafteter Wertpapiere - und indirekt der Kapitalkosten und des Wertes eines Unternehmens. Unternehmerisches Handeln bedeutet Risikoübernahme sowie Eigenkapitaleinsatz und erfolgt insbesondere dann, wenn gegenüber anderen Handlungsalternativen eine positive Risikoprämie erzielt werden kann (Markowitz 1952, Sharpe 1964). Bonuszahlungen an Manager, F erwarteter Nutzen 0 A B 16.000 125.000 64.000 C 333,02 1143,26 U = U(W) = W 0,6 D erwartete Gewinnhöhe 765,08 60.288,32 70.500 738,14 E 50 % = 50 % <?page no="122"?> Entscheidungen bei Risiko und Behavioral Economics 122 die an den Aktienkurs eines Unternehmens gekoppelt sind, sind Anreize auf Basis einer Risikoprämie. Risikoeinstellung und Managerverhalten Nahezu alle Menschen sind in vielen Entscheidungssituationen risikoavers - d.h. nicht, dass keine riskanten Sportarten betrieben werden, dass Menschen nicht Lotto spielen oder dass Manager keine Risiken eingehen: Risikoaversion beschreibt lediglich die Grundeinstellung, Risiken vor dem Hintergrund eines abnehmenden Grenznutzens des Vermögens abzuwägen. Menschen unterscheiden sich interpersonell in ihrer Risikoaversion und diese erscheint im Zeitablauf nicht stabil. Zahlreiche Studien zeigen, dass die Risikoaversion mit absoluter und relativer Höhe des Einkommens zunimmt, dass demographische Merkmale wie Alter oder Größe der Familie die Risikoaversion steigen lassen und insbesondere die Erfahrung (Erfolg und Misserfolg) in bestimmten Risikosituationen, Rahmenbedingungen der Entscheidung und natürlich die absolute Höhe des Risikos und der maximalmögliche Verlust die Einschätzung des Risikos beeinflussen (March und Shapira 1987, Pratt 1964, Holt und Laury 2002 sowie Kahneman und Tversky 1979). Zudem wird das Verhalten in Risikosituationen durch die Möglichkeit, Risikomanagement zu betreiben oder sich gegen die Risiken zu versichern, beeinflusst. Aus Managementperspektive ist eine zentrale Frage, welchen Grad an Risikoaversion Entscheider im Unternehmen haben, in welcher Weise riskante und unsichere Entscheidungen beeinflusst werden, und welche Rahmenbedingungen der Organisation eines Unternehmens und insbesondere Vergütungssysteme das Verhalten von Managern in Risikosituationen beeinflussen. Ziel ist hier immer, durch das Design der Organisation und der Entscheidungsprozesse Risiken zunächst transparent zu machen und dann Entscheidbarkeit zu erzielen. In zahlreichen Organisationen und Unternehmen sind Risikomanagement und -kultur sowie die Abgrenzung zu Unsicherheit allerdings unterentwickelt: So werden bspw. variable Anreize in Vergütungssystemen (erfolgsabhängige Bonuszahlungen als Form einer Risikoprämie) als erklärend für zu große Risikoübernahme durch Manager und als einen indirekten Treiber der Finanz- und Staatsschuldenkrise ab 2007 angesehen. Empirisch ist der Zusammenhang bislang nicht eindeutig geklärt. Einige Untersuchungen zeigen einerseits einen positiven Zusammenhang zwischen Risikoneigung von Managern und Unternehmenserfolg, da eine niedrigere Risikoaversion dazu führt, dass riskantere Investitionen mit höheren Renditen durchgeführt werden, andererseits nimmt die Varianz des Unternehmenserfolgs zu. Die Bereitschaft, größere Risiken einzugehen, hängt neben den positiven Anreizen bei Erfolgen insbesondere auch von negativen Sanktionen (Rückzahlung von Gehältern oder Einbehalt von Boni) und der Haftung für unternehmerisches Handeln bei Misserfolgen ab. Insbesondere die Wahrnehmung und Einschätzung potenzieller Risiken und deren symmetrische oder asymmetrische Rückwirkung auf das eigenen Einkommen haben einen wesentlichen Einfluss auf Risikoeinstellung und -verhalten von Managern (Ross 2004, Holmström 1999, Carpenter 2000 sowie Coles et al. 2006). <?page no="123"?> Entscheidungen bei Risiko und Unsicherheit 123 Risikomanagement und die Reduktion von Risiko und Unsicherheit Unternehmen betreiben strategisches Risikomanagement, um Entscheidungen unter Risiko und Unsicherheit zu optimieren. Im Mittelpunkt steht die Identifikation und Analyse möglicher Risiken und die Bewertung über Erwartungswerte, Varianzen und Simulationsrechnungen, ob das Risiko akzeptabel erscheint oder durch geeignete Maßnahmen reduziert werden soll. Daneben gibt es zahlreiche gesetzliche Vorschriften, um Risiken zu managen oder zu reduzieren: Bspw. ist ein Risikomanagementsystem für kapitalmarktnahe Unternehmen in Deutschland im Gesetz zur Kontrolle und Transparenz im Unternehmensbereich vorgeschrieben, Banken und Finanzdienstleister müssen zudem die Mindestanforderungen an das Risikomanagement der Bundesanstalt für Finanzdienstleistungsaufsicht im Abgleich mit der jeweiligen Unternehmensstrategie erfüllen. Alle Methoden und Maßnahmen zur Reduktion von Risiken zielen zunächst auf eine bessere Einschätzung der Wahrscheinlichkeiten oder das Ausnutzen des Gesetzes der großen Zahl. Dies kann bei Unternehmen entweder unternehmensintern erfolgen, durch Inanspruchnahme des Marktes in Form von Versicherungen oder dem Kapitalmarkt oder durch Signaling:  Information - Beschaffung zusätzlicher und ergänzender Information ermöglicht eine bessere Einschätzung von Wahrscheinlichkeiten und möglichen Ereignissen sowie ggfs. die Umwandlung von Unsicherheit zunächst in Risiko oder sogar in Sicherheit. Typischerweise erfolgt dies durch Beobachtung von Marktpreisen für Risiken (bspw. Risikoaufschläge bei Wertpapieren), durch Unternehmensberater oder Marktforschung. Der maximale Preis für die Information ergibt sich wieder aus der Risikoprämie.  Versicherung - schließt Risiken aus oder reduziert mögliche finanzielle Schäden. Die Möglichkeit der Versicherung basiert auf dem Gesetz der großen Zahl. Zwar werden sich einige Risiken materialisieren, aber durch Pooling aller übernommenen voneinander unabhängigen Risiken kann eine Versicherungsgesellschaft als Unternehmen auf Basis erhobener Risikoprämien existieren und die Risiken tragen und Schadenfälle decken.  Diversifikation - sprichwörtlich „nicht alles auf eine Karte setzen“. Typisch ist Diversifikation (Aufteilung und Streuung des Gesamtrisikos auf ein Portfolio mehrerer Projekte) in allen Märkten mit technologischen Unsicherheiten oder hoher F&E-Intensität sowie allgemein bei Kapitalanlagen. Diversifikation basiert auf negativ korrelierten Ereignissen, d.h. es wird in Projekte mit (erwartet) gegenläufiger Ereignisausprägung investiert, um das absolute Risiko zu reduzieren. Sind unternehmensintern keine derartigen Projekte vorhanden, kann ein Unternehmen alternativ über den Kapitalmarkt indirekt in ein anderes Unternehmen oder direkt in Form einer Unternehmensübernahme investieren, um das Risiko zu streuen und so zu reduzieren (vgl. auch ► Kapitel 6).  Signaling beschreibt eine Möglichkeit, einem anderen Marktteilnehmer oder Wettbewerber glaubwürdig Information zu kommunizieren, die anderweitig nicht beobachtbar oder zu ermitteln ist (Spence 1973 und 2002). Signaling reduziert asymmetrische Information oder den Grad unvollständiger Information und kann eingesetzt werden, um risiko- und unsicherheitsreduzierende Informationen an Kunden oder Zulieferern zu übertragen, dass die Zusammenarbeit und Geschäftsbeziehung keine (oder zumindest besser einschätzbare) Risiken mit sich bringt. Typische Formen sind neben detaillierten Geschäftsberichten zur Risikosituation insbesondere die Beschaffung von Kreditratings oder Zertifikate über die Einhaltung von Umwelt- oder Qualitätsstandards, aber auch indirekte Signale wie Hochhäuser <?page no="124"?> Entscheidungen bei Risiko und Behavioral Economics 124 von Banken im Zentrum der jeweils teuersten Metropolen eines Landes - Banken stellen intangible Dienstleistungen her, aber durch teure Immobilien wird finanzielle Solidität signalisiert. Damit ein Empfänger diese Information als glaubwürdig einordnet, muss die Erstellung oder die Übermittlung des Signals kostspielig oder aufwendig sein, oder aber es muss für Dritte schwierig oder riskant sein, das Signal zu fälschen oder zu imitieren. Signaling ist die wesentliche ökonomische Erklärung für teure Verlobungsringe oder für teure Maßanzüge: Beide helfen, die Unsicherheit der anderen Marktseite über die finanzielle Situation - zum einen eines potenziellen Ehepartners, zum anderen eines potenziell neuen Geschäftspartners - zu reduzieren. Damit hat Signaling auch für Studierende eine unmittelbare Bedeutung, denn die Einstellung eines neuen Mitarbeiters gleicht für den Arbeitsgeber einer Lotterie mit hoher Unsicherheit. Durch einen aufwendig erworbenen und mit Opportunitätskosten verbundenen Studienabschluss, und entsprechenden Fähigkeiten, werden dem künftigen Arbeitgeber risikoreduzierende Informationen für die Bewerberauswahl signalisiert - so fällt die Risikoprämie, im Gegenzug steigen Gehalt und Wahrscheinlichkeit einer Anstellung an. Gewichtung von Risiko und schwarze Schwäne Selbst bei vorliegenden objektiven Wahrscheinlichkeiten entscheiden Menschen teilweise nicht wie oben beschrieben zugunsten eines maximal erwarteten Nutzens. Die Ursache liegt in der eingeschränkten Fähigkeit, alle relevanten Informationen zu verarbeiten, Risiken zu verstehen und Wahrscheinlichkeiten korrekt wahrzunehmen: Geringe Wahrscheinlichkeiten werden subjektiv größer wahrgenommen, große Wahrscheinlichkeiten dagegen verkleinert. So werden Autofahrten und Flugreisen zwar von vielen Menschen als zumindest mit Risiken behaftet betrachtet, aber typischerweise ist die subjektive Angst vor einem Flugzeugabsturz entgegen den Wahrscheinlichkeiten groß, wirklich mit Risiken behaftet ist dagegen die oft als sicher eingeschätzte Auto- oder Taxifahrt zum und vom Flughafen. Abbildung 3.6: Tatsächliche und wahrgenommene Wahrscheinlichkeiten. korrekte (lineare) Einschätzung wahrgenommene Wahrscheinlichkeit 0 100 % tatsächliche Wahrscheinlichkeit 50 % 100 % 30 % 70 % A C B 30 % empirische Einschätzung (weighting function) <?page no="125"?> Begrenzte Rationalität und Behavioral Economics 125 In ► Abbildung 3.6 ist eine Gewichtungsfunktion tatsächlicher und wahrgenommener Wahrscheinlichkeiten zu sehen, die sich in Experimenten bei der Einschätzung oder Beurteilung von Risikosituationen ergibt. Stark vereinfacht kann man drei Bereiche der Wahrnehmung von Risiken benennen: Sehr niedrige Wahrscheinlichkeiten werden überschätzt (Bereich A), moderate Wahrscheinlichkeiten werden deutlich unterschätzt (Bereich B) und für hohe Wahrscheinlichkeiten (Bereich C) wächst die Wahrnehmung schnell an (Kahneman und Tversky 1979 sowie Tversky und Kahneman 1992). Die Gewichtungsfunktion verläuft in der Nähe der Extremwerte von 0 % und 100 % relativ steil, so dass Menschen hier sehr stark auf eine Veränderung der Wahrscheinlichkeit reagieren. So sind Menschen bereit, deutlich höhere Beträge zu bezahlen, um ein Risiko von 1 % auf 0 % zu reduzieren als von 50 % auf 40 %, obwohl die Risikoreduktion im zweiten Fall größer ist. Durch die Überschätzung geringer Wahrscheinlichkeiten lässt sich bspw. die Teilnahme an Lotterien mit geringen Erwartungswerten erklären, aber auch die zu starke Absicherung gegenüber kleinen Risiken in Form von Versicherungen. Entlang des S-förmigen, nichtlinearen Verlaufs der Gewichtungsfunktion verändert sich die Wahrnehmung kleiner Unterschiede in Wahrscheinlichkeiten. So ist eine mögliche Erklärung für das sogenannte Allais-Paradoxon gegeben: Hierbei wird in Experimenten regelmäßig beobachtet, dass Menschen einen Anstieg der Wahrscheinlichkeit von 10 % auf 11 % anders bewerten und Entscheidungen treffen als bei einem Anstieg von 99 % auf 100 % (sog. Certainty Effect). Aus Managementperspektive ist zentral, neben der eigentlichen Risikoaversion auch die Wahrnehmung der Risiken durch Manager zu betrachten. Bietet man Managern - vor dem Hintergrund von Risiko oder Unsicherheit - drei verschiedene Szenarien einer Investitionsrechnung oder der Entwicklung eines Geschäftsmodelles als Base Case, Best Case und Worst Case zur Auswahl an, entsteht aufgrund einer Aversion gegen Extremfälle (Extremness Aversion) eine Tendenz zur Wahl der mittleren Variante und mithin die unbegründete Erwartung, dass dieser Fall auch eintritt. In gleicher Weise wird beobachtet, dass Manager überrascht werden von Ereignissen, die am Rand einer Wahrscheinlichkeitsverteilung liegen. Diese Realisierung vermeintlich unwahrscheinlicher Ereignisse wird mittlerweile auch sprichwörtlich unter dem Begriff schwarze Schwäne geführt, von denen man lange dachte, dass sie nicht existieren (Simonson und Tversky 1992, Garbuio et al. 2014 und Taleb 2007). 3.2 Begrenzte Rationalität und Behavioral Economics In ► Kapitel 2 wurden Entscheidungen von Menschen, egal ob als Kunden oder Manager, als vollständig rational auf Basis von Präferenzen ohne jegliche Emotionen oder Wahrnehmungsverzerrung beschrieben, die ihren Nutzen maximieren. Diese Sicht stellt offenbar ab auf Menschen ähnlich Mr. Spock (perfekte Rationalität ohne jegliche Emotion) aus Star Trek, Sheldon Cooper (stabile Präferenzen) aus Big Bang Theory und Sherlock Holmes (perfekte kognitive Fähigkeiten) in den Romanen von Arthur Conan Doyle - extrem clevere Typen, die ständig maximieren. Mr. Spock, Sheldon Cooper und Sherlock Holmes sind die Prototypen des (oft kritisierten) Homo oeconomicus, allerdings ist Spock Vulkanier, Cooper leidet am Asperger Syndrom und Holmes ist drogenabhängig - zudem sind alle drei Fiktion. <?page no="126"?> Entscheidungen bei Risiko und Behavioral Economics 126 Tatsächlich werden zahlreiche Entscheidungen aber nicht vollständig rational getroffen und weichen signifikant und in systematischen Mustern von maximierendem Verhalten ab. Diese Entscheidungen werden im Rahmen von Behavioral Economics analysiert und Erklärungen basieren insbesondere auf psychologischen und verhaltenswissenschaftlichen Experimenten und Beobachtungen. Eine zentrale Begründung begrenzt rationaler Entscheidungen basiert evolutionsbiologisch auf zwei verschiedenen Funktionsweisen des menschlichen Gehirns - auf schnellem und langsamen Denken (Kahneman 2003 und 2011):  Schnelles Denken (System 1) - Entscheidungen basieren zentral auf Intuition, Instinkt und Routinen. Es fasst schnelle, einfache, automatisierte Entscheidungen und Verhaltensweisen zusammen, die das Überleben sichern und erleichtern. Die Erklärung hierfür sind im Wesentlichen Evolution (es bewährt sich, auf der Straße vor quietschenden Reifen ohne lange Nachzudenken zur Seite zu springen), Emotionen und Routinen (adaptive Wiederholung von in der Vergangenheit getroffenen Entscheidungen). Schnelles Denken fällt Menschen leicht, es kostet wenig Gehirnkapazität (im limbischen System), verbraucht wenig Energie und ist nicht anstrengend.  Langsames Denken (System 2) - Entscheidungen basieren auf Nachdenken und Anwendung von Logik. Es fasst Entscheidungen und Verhaltensweisen zusammen, die mentale Konzentration, detaillierte Verarbeitung von Informationen oder Anwendung komplexer Entscheidungsregeln erfordern. Langsames Denken fällt Menschen schwer, da hier viel Gehirnkapazität (im Frontallappen) und Energie benötigt wird. Das menschliche Gehirn vermeidet langsames Denken aktiv, es schaltet „automatisch“ in schnelles Denken, um Energie zu sparen. Abbildung 3.7: Beobachtete Entscheidungen auf Basis vollständiger und begrenzter Rationalität vs. schnelles und langsames Denken. vollständige Rationalität Irrationalität begrenzte Rationalität beobachtete Entscheidungen ‚langsames‘ Denken ‚schnelles‘ Denken <?page no="127"?> Begrenzte Rationalität und Behavioral Economics 127 Das menschliche Gehirn entscheidet im Wesentlichen alleine, ob eine Aufgabe durch schnelles oder langsames Denken gelöst wird: Viele Menschen können nicht verhindern, dass ihr Gehirn eine Aufgabe wie 4 + 2 automatisch durch schnelles Denken löst, dagegen benötigt eine Aufgabe wie 231 × 86 − 19.865 langsames Denken und viele Menschen empfinden in Anbetracht dieser Aufgabe unmittelbar Anstrengung. Die Neigung zu schnellem Denken schränkt Menschen im Prozess der Informationswahrnehmung, der Informationsverarbeitung und in der eigentlichen Entscheidung ein. In der Folge werden zahlreiche Entscheidungen begrenzt rational getroffen (Simon 1955 und 1957, March und Simon 1958 sowie March 1991):  Unvollständige Erfassung der Situation - zahlreiche Entscheidungssituationen sind komplex, und die möglichen Strategien und deren Wechselwirkungen mit denkbaren Zielen nicht vollständig beschreibbar,  unvollständige Information - zahlreiche Entscheidungssituationen weisen eine Mischung aus Unsicherheit, Risiko und absolut fehlender Information auf,  kognitive Beschränkungen - Menschen besitzen eingeschränkte intellektuelle Fähigkeiten und sind beschränkt oder verzerrt in Wahrnehmung, Lernen, Erinnern und planvollem Vorgehen, und  zeitliche Limitierung in der Entscheidungsfindung - viele strategische Entscheidungen, gerade auch in Unternehmen, können aufgrund begrenzter Zeit nicht vollständig durchdacht werden. Menschen (Entscheider als Kunden oder Manager) erkennen durchaus die Begrenztheit ihrer Rationalität - vor diesem Hintergrund werden nur wenige Alternativen geprüft und die Entscheidungsfindung wird anhand von Heuristiken vorgenommen. Zudem tritt neben das Ziel der Maximierung von Nutzen oder Gewinn die Suche nach Gut-genug-Lösungen (Satisficing), die dann erreicht sind, wenn ein bestimmtes Anspruchs- oder Zufriedenheitsniveau, eine Höhe des geplanten Gewinns oder eine Wahrung des Status quo erreicht sind. Dieses Verhalten ist in gleicher Weise bei Managern, bei der Suche nach einem Job, beim täglichen Weg an die Hochschule und bei der Wahl des Lebenspartners zu beobachten. Grundlegend neue Entscheidungen werden nur getroffen, wenn eine deutliche Abweichung vom Anspruchsniveau festgestellt wird, ansonsten dominieren Routinen, die bisherige Entscheidungen fortschreiben oder inkrementell auf Basis lokaler Suche adaptiv weiterentwickeln, und so den Status quo festigen oder sichern (Lindblom 1959 sowie Levinthal und March 2007). Eine Gut-genug-Lösung kann durchaus konsistent mit maximierendem Verhalten sein: Satisficing kann auch entstehen, wenn in Anbetracht aller Opportunitätskosten einer Alternative, Suchkosten nach besseren Alternativen und insbesondere zeitlichen Beschränkungen entschieden wird - also Maximierung mit zahlreichen Nebenbedingungen. Eine derartige Gut-genug-Lösung kann eine Erklärung für ein zumindest teilweise beobachtetes Verhalten von Taxifahrern in New York bieten. Taxifahrer in New York müssen zwei Tage im Voraus entscheiden, ob Sie einen Wagen anmieten - dann zahlen Sie eine Mietgebühr für 12 Stunden Nutzung und können alle Erlöse behalten. Am betreffenden Tag sind die Mietgebühren entscheidungsirrelevante Sunk Cost und daher ist die einzige wesentliche Entschei- <?page no="128"?> Entscheidungen bei Risiko und Behavioral Economics 128 dung, wie viele Stunden das Taxi genutzt wird. Dabei gibt es zwei mögliche Umweltzustände: Gute Tage (Regen, Schnee, U-Bahn-Ausfälle) mit vielen Fahrgästen und schlechte Tage (Sonne, planmäßiger U-Bahn-Betrieb) mit eher wenigen Fahrgästen. Maximierendes Verhalten der Taxifahrer und eine positive Elastizität des erzielbaren Einkommens liegt vor, wenn - wie in ► Abbildung 3.7 links zu sehen - an guten Tagen die vollen 12 Stunden gearbeitet wird, an schlechten Tagen aber der Wagen frühzeitig an das Taxiunternehmen zurückgegeben wird, weil keine weiteren Erlöse möglich sind. Abbildung 3.8: Schematisches Verhalten von Taxifahrern in New York. Eine empirische Studie von Camerer et al. (1997) zeigt, dass tatsächlich ein Verhalten wie in ► Abbildung 3.7 mitte beobachtet werden kann. Die Erklärung ist, dass ein mental gesetztes Zieleinkommen (als Referenzpunkt) pro Tag angestrebt wird, um die Kosten der Miete des Fahrzeugs zu decken. Sobald dieses übertroffen ist, wird an diesem Tag die Arbeit eingestellt - wird es nicht erreicht, wird die Arbeit fortgesetzt. In einer neueren Untersuchung hat Farber (2015) gezeigt, dass nicht alle Taxifahrer so handeln - insbesondere ältere und erfahrene Fahrer weisen ein stärker maximierendes Verhalten auf und optimieren ihr Einkommen nicht nur tageweise. Heuristiken und Faustregeln Zahlreiche begrenzt rationale Entscheidungen können auf die Anwendung von Heuristiken zurückgeführt werden (Gigerenzer und Selten 2002 sowie Kahneman 2003). Eine Heuristik besteht in der Anwendung meist einfacher Regeln zur Entscheidungsfindung bei begrenztem Wissen, unvollständiger Information oder begrenzter Zeit. Der Schwerpunkt von Heuristiken liegt auf Effizienz (Geschwindigkeit, geringen Kosten und Komplexitätsreduktion), nicht in der Suche bestmöglicher Entscheidung, und oft wird nur eine begrenzte Anzahl an Alternativen oder Strategien geprüft. Auf Basis von Heuristiken getroffene Entscheidungen weichen typischerweise von einer optimalen Entscheidung (und maximierendem Verhalten) ab - die Distanz zu einer theoretisch bestmöglichen Entscheidung bestimmt dann die Qualität der Heuristik. Arbeitsstunden an guten Tagen Arbeitsstunden an schlechten Tagen 12 h gute Tage schlechte Tage Einkommen Arbeitsstunden an guten Tagen Arbeitsstunden an schlechten Tagen 12 h Arbeitszeit Arbeitszeit Zieleinkommen = satisficing Verhalten Vorhersage des Verhaltens tatsächliches Verhalten <?page no="129"?> Begrenzte Rationalität und Behavioral Economics 129 Heuristiken decken den Bereich von systematischen und logischen, aber vereinfachenden Entscheidungsregeln bis hin zu Trial and Error - dem schlichtem iterativen Ausprobieren und Abbruch der Suche nach der Lösung bei Auffinden einer Gut-genug-Lösung - ab. Vereinfachende Entscheidungsregeln basieren auf Faustregeln: Es erfolgt eine systematische oder willkürliche Vereinfachung des Entscheidungsproblems und die Anwendung einer in der Vergangenheit funktionalen Entscheidungsregel. So ersetzen viele Menschen die Berechnung von 19 × 21 mit 20 × 20 und liegen im Ergebnis nur um 0,25 % falsch, andere Menschen lesen keine Bedienungsanleitungen und können so mit einer Waschmaschine keine optimalen, aber durch „alles zusammen bei 40 Grad und immer maximale Schleuderdrehzahl“ eine Gutgenug-Lösung erreichen. Wahrnehmungsverzerrungen und Entscheidungen Die Experimente und Untersuchungen von Tversky, Kahneman und Thaler legen einen Schwerpunkt auf das Verständnis von verhaltensbedingten Heuristiken. Diese haben sich über evolutorische Prozesse entwickelt und Menschen unterliegen psychologisch bedingten Wahrnehmungsverzerrungen (Cognitive Biases), auf deren Basis Einschätzungen vorgenommen und die eigentliche Entscheidung in komplexen Situationen getroffen wird - typischerweise mit dem Ergebnis von Gut-genug-Lösungen, die zumindest teilweise in Widerspruch zu maximierendem Verhalten stehen. Verhaltensbedingte Heuristiken liefern Erklärungen für systematische Abweichungen von optimalen Entscheidungen. Aus mikroökonomischer Perspektive sind für die Wahrnehmung und Verarbeitung von Informationen, und die darauffolgende Entscheidung, insbesondere folgende - wenngleich nicht trennscharf abzugrenzende und sich wechselseitige beeinflussende - Wahrnehmungsverzerrungen relevant (DellaVigna 2009, Camerer et al. 2011, Kahneman 2011 und Thaler 2015):  Confirmation Bias (Bestätigungsverzerrung oder selektive Wahrnehmung) - Informationen werden so ausgewählt und interpretiert, dass eigene Überzeugungen und Annahmen bestätigt, erklärt und verstärkt werden. Im Gegenzug werden unpassende Informationen ausgeblendet oder unterdrückt (kognitive Dissonanz), so dass entlang Routinen an bisherigen Entscheidungen oder Strategien festgehalten wird und Pfadabhängigkeiten begründet sind. Dies ist häufig bei Marktforschung und Wettbewerbsanalyse zu beobachten: Marktforschung wird häufig verwendet, um bestehende Annahmen zu bestätigen und ggfs. Mitarbeiter und Manager von eigenen Annahmen zu überzeugen. Auch rein stochastischen Ereignissen wird Bedeutung zugeschrieben, so dass Manager - je nach Blickwinkel - bestätigende oder widerlegende Informationen in zufällige Muster hinein interpretieren. Die Qualität einer Entscheidung kann dagegen verbessert werden, indem bewusst nach widerlegenden Informationen gesucht wird (Nickerson 1998).  Availability Bias (Verfügbarkeitsheuristik) - die Beurteilung eines Sachverhalts oder einer Information wird dominiert von leicht verfügbaren Daten, deutlicher Erinnerung an bestimmte Fakten (an was sich erinnert wird, muss offenbar wichtig sein) oder Analogieschlüssen, auch wenn diese in keinem Zusammenhang mit der Frage oder Entscheidung stehen. Damit entsteht eine Tendenz, dass singuläre Ereignisse oder kürzlich gemachte Erfahrungen systematisch überbewertet werden. Auf die Frage, ob die Bevölkerung von Manchester oder Leicester größer ist, ziehen viele deutsche Studierende die völlig irrele- <?page no="130"?> Entscheidungen bei Risiko und Behavioral Economics 130 vante, aber einfach verfügbare Information heran, dass es in Manchester zwei bekannte Fußballvereine gibt - und antworten zufällig richtig. Britische Studierende dagegen besitzen zu beiden Städten sehr viele Informationen und können diese Frage zu einem geringeren Prozentsatz richtig beantworten (Tversky und Kahneman 1973). Abbildung 3.9: Verfügbarkeitsheuristik und Städtegrößen (eigene Daten aus diversen Vorlesungen in Saarbrücken, München, Hatfield und London von 2014 bis 2017).  Representativeness (Repräsentativheuristik) - bei der Einordnung von Information dominieren ‚offensichtliche Fakten‘ - man erachtet diese Fakten fälschlicherweise als statistisch repräsentativ. Die Repräsentativheuristik basiert darauf, dass Menschen aufgrund einer aufmerksamkeitsbedingten Übergewichtung bestimmter Ausprägungen eines beobachteten Ereignisses oder einer Falschzuordnung auf die Grundgesamtheit möglicher Ereignisse die Bayes-Regel bedingter Wahrscheinlichkeiten verletzen (Kahneman und Tversky 1972 sowie Tversky und Kahneman 1974).  Case Study | Tilman der Lastwagenfahrer Wird eine Person als „Tilman ist ein asketischer Mann, 42 Jahre alt, trägt eine randlose Brille, hört gerne Mozart und spielt regelmäßig Schach“ beschrieben und daneben ein Foto eines, augenscheinlich stereotypen Schönheitsidealen entsprechenden, weißen Mannes gezeigt, dann wird die überwiegende Mehrzahl befragter Menschen die Frage „Ist Tilman a) Lastwagenfahrer oder b) Professor für Schönheitschirurgie? “ mit b) beantworten. Allerdings beträgt die Wahrscheinlichkeit, dass er Schönheitschirurg ist, nur etwa 0,8 % - in 99, 2 % der Fälle ist er Lastwagenfahrer: Welche Stadt hat mehr Einwohner: Leicester oder Manchester? Frage 1 Welche Stadt hat mehr Einwohner: Saarbrücken oder Mönchengladbach? Frage 2 ca. 72 % aller Deutschen beantworten diese Frage richtig, nur 53% der Briten ca. 81 % aller Briten beantworten diese Frage richtig, nur 48 % der Deutschen Leicester 343.000 Manchester 395.000 Saarbrücken 177.000 Mönchengladbach 255.000 <?page no="131"?> Begrenzte Rationalität und Behavioral Economics 131 Bei in Deutschland ca. 1 Mio. Lastwagenfahrern im Alter von 25 bis 65 Jahren und ca. 40 Professoren für Schönheitschirurgie zwischen 40 und 60 Jahren, gibt es im Alter von 42 Jahren eine Grundgesamtheit von ca. 25.000 Lastwagenfahrern und ca. 2 Professoren für Schönheitschirurgie. Selbst wenn man unterstellt, dass die Kombination randloser Brillen, Mozart und Schach bei Professoren für Schönheitschirurgie bspw. 100-fach überrepräsentiert ist, d.h. bei Professor für Schönheitschirurgie in 50 % der Fälle, bei Lastwagenfahrern nur in 0,5 % der Fälle vorkommt, ergeben sich 0,5 % · 25.000 = 125 Lastwagenfahrer, die zur Beschreibung passen, aber nur 50 % · 2 = 1 Professoren für Schönheitschirurgie. Diese (und einige weitere) Heuristiken in der Wahrnehmung und Verarbeitung von Information prägen und verzerren signifikant Entscheidungen von Menschen (in gleicher Weise von Kunden und Managern).  Overconfidence (Selbstüberschätzung) - beschreibt die systematische Überschätzung eigener Fähigkeiten und Kenntnisse und insbesondere der Präzision resp. Richtigkeit ihrer Entscheidung. Zahlreiche Experimente zeigen, dass Menschen glauben, besser als der Durchschnitt Auto zu fahren, bessere Aktienanlageentscheidungen als andere treffen zu können, die Gewinnchancen beim Lotto durch Auswahl eigener Zahlen zu erhöhen oder sogar zufällige Münzwürfe vorherzusagen. In weniger ‚zufälligen‘ Situationen verstärkt sich diese Tendenz zu Überoptimismus und der Kontrollillusion noch deutlicher und wird wesentlich von einer Bestätigungsverzerrung verstärkt: In der Konsequenz zeigen empirische Studien, dass Manager Erfolge auf ihre eigenen Fähigkeiten zurückführen, Misserfolge werden dagegen mit Pech und unerwarteten Strategien der Wettbewerber oder ‚Ungerechtigkeit des Marktes‘ begründet (Svenson 1981, Russo und Shoemaker 1992, Klayman et al. 1999, Garbuio et al. 2014 sowie Malmendier und Tate 2005). Die Selbstüberschätzung und der Überoptimismus von Managern steigt insbesondere an, wenn in den Vorjahren die Unternehmensgewinne oder Aktienkursentwicklung überdurchschnittlich war (Malmendier und Tate 2015, Chen et al. 2015 und Ben-David et al. 2007). Zwei Geschäftsmodelle, die auf Selbstüberschätzung und Überoptimismus basieren und die Zahlungsbereitschaft der Kunden steigern, sind Fitnessclubs und aktiv gemanagte Investmentfonds. Einerseits überschätzen Menschen ihre Disziplin (die Fähigkeit, sich im Zeitablauf an getroffene Entscheidungen zu halten), regelmäßig trainieren zu gehen, und zahlen zu viel, andererseits behaupten Fondsmanager implizit immer wieder, zufällige Entwicklungen auf effizienten Kapitalmärkten vorhersagen zu können. Empirisch ist allerdings immer wieder nachgewiesen, dass Aktienkursentwicklungen einem (komplizierten) Random Walk entsprechen - also im Kern rein zufällig sind (DellaVigna und Malmendier 2006 sowie Pütz und Ruenzi 2011).  Herd Behavior (Herdenverhalten) - beschreibt konvergentes soziales Verhalten oder Entscheiden, bei welchem Beurteilungen oder Verhaltensweisen von Individuen in einer Gruppe ohne zentralisierte Koordination angeglichen werden: Jeder tut was alle tun, selbst wenn eigene Präferenzen oder private Information eine andere Entscheidung nahelegen (Banjeree 1992). Herdenverhalten entsteht und wird gefördert, wenn Unsicherheit <?page no="132"?> Entscheidungen bei Risiko und Behavioral Economics 132 betreffend eigener Entscheidungen besteht, wenn die Entscheidungen anderer gut beobachtbar und adaptierbar sind, und wenn aus konformen oder angleichendem Verhalten ein Nutzen entsteht oder erwartet wird. Herdenverhalten umfasst das Adaptieren von Trends und Moden im Kauf- oder Konsumverhalten, das Verhalten von Anlegern auf dem Kapitalmarkt, aber gerade auch das Bestätigen und Übernehmen von Meinungen oder Aussagen auf Social-Media-Plattformen (Leibenstein 1950, Asch 1956, Shiller 1990, Ngai et al. 2015, Bayer et al. 2020 und Pavlovic 2020). Je stärker der Einfluss sozialer Medien - sei es für Konsumentscheidungen beeinflusst durch Freunde oder Influencer auf Instagram, Facebook oder Pinterest, sei es für berufliche Entscheidungen in Karriere- Netzwerken wie LinkedIn oder Xing - zudem durch Netzwerkeffekte verstärkt wird, desto stärker ist der Effekt auf Wahrnehmung und Verzerrung von Information sowie Entscheidungsverhalten.  Group Think (Gruppendenken) - Entscheidungen werden maßgeblich davon beeinflusst, ob sie alleine und unabhängig oder in Gruppen getroffen werden: Häufig kommt es - gerade in Gruppen gut informierter Individuen - zur Zustimmung zu Entscheidungen, die sich als falsch herausstellen. Zwei Ursachen erscheinen ausschlaggebend: Die Vermutung betreffend der Kompetenz der anderen und fehlende Energie, jede Diskussion zu führen - beides führt, verstärkt durch eine Bestätigungsverzerrung, zu falschem Übereinkommen auf gemeinsame Entscheidungen („Go-with-the-Flow”). Oftmals wächst Herdenverhalten mit der Zahl der Manager oder Größe des Vorstandes sowie der Aufspaltung von Verantwortung an. Eine Lösungsmöglichkeit bei Fluggesellschaften und in Unternehmensberatungen ist das sogenannte „Obligation-to-Dissent“-Prinzip, d.h. die Verpflichtung, auch in großen Gruppen oder gegenüber hierarchisch Vorgesetzten begründet zu widersprechen (Esser 1998).  Sunk Cost Fallacy (Sunk-Cost-Denkfehler) - rationale Entscheidungen erfordern, dass Sunk Costs bei künftigen Entscheidungen unberücksichtigt bleiben (► Kapitel 2). In zahlreichen Entscheidungssituationen halten sich Menschen aber nicht daran: So hat Thaler (1980) in einem Experiment gezeigt, dass die Anzahl an Pizzastücken, die in einem „All- You-Can-Eat“-Restaurant gegessen werden, davon abhängig ist, ob und wieviel die Menschen bezahlt haben. Gibt man einer Gruppe A von Kunden unmittelbar nach Betreten des Restaurants und deren Bezahlung am Eingang das Geld zurück, essen diese, bis sie satt sind. Mitglieder einer Kontrollgruppe, die das Geld nicht zurückerhalten, essen dagegen solange weiter, bis das Gefühl entsteht, dass mindestens Nutzen im Wert der Bezahlung erreicht ist - im Durchschnitt etwa 40 % mehr. Just und Wansik (2011) bestätigen dies: Bei einer Preisreduktion von 50 % essen die Kunden 27,9 % weniger in einem „All- You-Can-Eat“-Restaurant - im Widerspruch zu Sunk Costs. <?page no="133"?> Begrenzte Rationalität und Behavioral Economics 133 Ebenso stapeln sich in Schuhschränken Schuhe, die entweder aus der Mode gekommen sind oder nicht passen - die Tatsache, dass diese Schuhe in der Vergangenheit viel Geld gekostet haben, verhindert, dass diese Schuhe weggeben werden. Sunk Costs sind aber in der Vergangenheit angefallene Kosten, die nicht zurückgewonnen werden können, d.h. diese Kosten sind irrelevant für künftige Entscheidungen - Menschen halten aber irrational an vergangenen Entscheidungen fest, sehen sich schlechte Filme im Kino zu Ende an (nicht aber zu Hause, weil dort nicht bezahlt wurde), lesen gekaufte schlechte Bücher zu Ende, aber nicht geliehene oder geschenkte (weil wiederum nicht bezahlt wurde) - so dass grundsätzlich die mentale Rechtfertigung eines in der Vergangenheit bezahlten Kaufpreises den Grund für die Nichtbeachtung der Sunk Costs darstellt (vgl. auch ► Kapitel 6 zu Managemententscheidungen). Verlustaversion und die Asymmetrie von Risiken Neben den Wahrnehmungs- und Entscheidungsverzerrungen zeigt sich in Experimenten, dass Menschen Risiken und Unsicherheit asymmetrisch beurteilen - potenzielle Verluste wiegen regelmäßig stärker als potenzielle Gewinne - und zur Bewertung Referenzpunkte heranziehen, die den aktuellen Status quo oder eine Ausgangsituation in die Entscheidung einbeziehen. Die Grundüberlegung kann man anhand folgender Entscheidungssituationen nachvollziehen (Tversky und Kahneman 1981):  Situation 1 - Spieler haben die Wahl zwischen den folgenden Optionen: [A] ein sicherer Gewinn von 240 EUR. [B] ein Gewinn von 1.000 EUR mit einer Wahrscheinlichkeit von 25 % oder ein Gewinn von 0 EUR mit einer Wahrscheinlichkeit von 75 %. In Situation 1 wählten 84 % der Teilnehmer Option A - den sicheren Gewinn von 240 EUR gegenüber einem unsicheren Erwartungswert von 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 0,75 ⋅ 1000 + 0,25 ⋅ 0 = 250 und damit ein Hinweis auf die Risikoaversion der Teilnehmer.  Situation 2 - Spieler haben die Wahl zwischen den folgenden Optionen: [C] ein sicherer Verlust von -750 EUR [D] ein Verlust von -1.000 EUR mit einer Wahrscheinlichkeit von 75 % oder ein Verlust von 0 EUR mit einer Wahrscheinlichkeit von 25 %. In Situation 2 haben sich 87 % der Teilnehmer für Option D entschieden - es gibt offenbar eine Präferenz, einen riskanten Erwartungswert von 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 0,75 ⋅ (−1000) + 0,25 ⋅ 0 = −750 einem sicheren Ereignis in gleicher Höhe vorzuziehen. Dieses Ergebnis ist nicht konsistent mit Risikoaversion, sondern beschreibt eine Verlustaversion: Bei möglichen Verlusten steigt die Risikoneigung an und ein unsicheres Ereignis wird einem sicheren Ereignis bei gleichem Erwartungswert vorgezogen - offenbar dominiert die Hoffnung, mit 25 % Wahrscheinlichkeit gar keinen Verlust zu erleiden. <?page no="134"?> Entscheidungen bei Risiko und Behavioral Economics 134 Abbildung 3.10: Verlustaversion vs. Risikoaversion anhand der Wertfunktion. In ► Abbildung 3.10 ist die Grundüberlegung der Prospect Theory anhand einer Wertfunktion (in Analogie zur Nutzenfunktion) gezeigt. Sie beschreibt unter der Grundbeobachtung einer Verlustaversion (Loss Aversion), wie Menschen bei gegebenen Anfangsausstattungen (Referenzpunkten) Gewinne und Verluste bewerten. Kahneman und Tversky haben über zahlreiche Experimente den Verlauf der Wertfunktion 𝑣𝑣𝑣𝑣 als (3.17) 𝑣𝑣𝑣𝑣(𝑥𝑥𝑥𝑥) = � 𝑥𝑥𝑥𝑥 𝜔𝜔𝜔𝜔 𝑓𝑓𝑓𝑓ü𝑟𝑟𝑟𝑟 𝑥𝑥𝑥𝑥 > 0 − 𝜇𝜇𝜇𝜇(−𝑥𝑥𝑥𝑥 𝜔𝜔𝜔𝜔 ) 𝑓𝑓𝑓𝑓ü𝑟𝑟𝑟𝑟 𝑥𝑥𝑥𝑥 < 0 mit Werten von 𝜔𝜔𝜔𝜔 = 0,88 und 𝜇𝜇𝜇𝜇 = 2,25 geschätzt - natürlich unterscheiden sich auch hier, ähnlich einer Nutzenfunktion, die Parameter und so die Präferenzen der Menschen. Allgemein wird, ausgehend von einem Referenzpunkt, ein möglicher Gewinn positiv bewertet, ein Verlust in gleicher Höhe aber nicht - entlang der gestrichelten Linie - gleich stark, sondern etwa 2,25-fach stärker negativ. Kommt eine Kundin in einen Kiosk, um ihren Lottogewinn vom vergangenen Wochenende einzulösen, und erhält 40 EUR, freut sie sich zunächst - wenn sie dann allerdings unmittelbar danach an ihrem Auto einen Strafzettel in Höhe von 40 EUR vorfindet, ist in Summe die Emotion und so die Bewertung der Gesamtsituation negativ - obwohl die absolute Höhe des Vermögens gleich geblieben ist. Um den negativen Nutzen des Strafzettels von 40 EUR zu kompensieren, wäre entsprechend (3.17) ein Lottogewinn von etwa 90 EUR notwendig gewesen. Die Bewertung von Gewinnen und Verlusten wird relativ zu einem Referenzpunkt vorgenommen, der die aktuelle Situation eines Kunden und Managers beschreibt. Die Verlustaversion erklärt indirekt den Status-quo-Bias: Menschen bevorzugen den Erhalt von Vermögen, der Reputation oder der aktuellen Tätigkeit und Position gegenüber einer riskanten Veränderun- Gewinne Wert Verluste -100 +100 + v v ~ - 2,25 v - - + + Verlustaversion Risikoaversion Referenzpunkt <?page no="135"?> Begrenzte Rationalität und Behavioral Economics 135 gen weg von diesem Referenzpunkt, da selbst bei gleichen Wahrscheinlichkeiten positiver oder negativer Veränderungen mögliche Verluste einer veränderten Situation stärker bewertet werden als mögliche Gewinne. Dies gilt insbesondere auch für Kunden: Aufgrund eines Default-Effekt (Voreinstellungsüberzeugung) wird ein Produkt- oder Ausstattungsvariante präferiert, die bereits vom Unternehmen angeboten wird - tatsächlich fällt es Menschen schwer, Sonderausstattung nach einer Autoprobefahrt abzuwählen. Der Default-Effekt hat wesentlichen Einfluss auf die Auswahl eines Produktes und erhöht systematisch die Zahlungsbereitschaft der Kunden (Brown und Krishna 2004 sowie Johnson et al. 2012). Insbesondere auch staatliche Institutionen versuchen durch das Setzten von Default- Optionen (Standardvorgaben) mit entsprechender Positionierung oder Beschreibung von Produktalternativen den Kunden zu einer - aus wirtschaftspolitischer Perspektive bevorzugten - Entscheidung „anzustupsen“ (Nudging). Dies erfolgt durch symbolische Hinweise auf Lebensmitteln (Ampelsysteme) zur Unterstützung einer gesunden Lebensweise ebenso wie die Positionierung gesunder und ungesunder Lebensmittel in einer Kantine oder durch die automatisierte Voreinstellung (Widerspruchslösungen) zur Organspende oder betrieblicher Altersvorsorge, die aktiv abgewählt werden muss (Sunstein und Thaler 2008, Bruttel et al. 2014 und Dams et al. 2015). Framing und die Darstellung von Entscheidungssituationen Aus der Prospect Theory ergeben sich zahlreiche Implikationen für Geschäftsmodelle und Marketing-Strategien. Viele basieren darauf, dass durch Framing (die Beschreibung oder Anordnung sowie der Kontext eines Entscheidungsproblems) die Entscheidung beeinflusst werden kann. Entscheidungen von Menschen lassen sich zunächst maßgeblich durch die Darstellung und Anordnung (sowie den Wortlaut) einer Entscheidungssituation beeinflussen. Tversky und Kahneman (1981) haben dazu folgende Situation in zwei Varianten beschrieben: Stellen Sie sich vor, dass sich die USA auf den Ausbruch einer ungewöhnlichen asiatischen Krankheit vorbereiten, von der erwartet wird, dass 600 Personen daran sterben werden. Es wurden zwei alternative Programme entwickelt, die Krankheit zu bekämpfen. Nehmen Sie an, dass die Folgen der beiden Programme genau bekannt sind: Variante 1  Wenn Programm A umgesetzt wird, werden 200 Personen gerettet.  Wenn Programm B umgesetzt wird, besteht eine Wahrscheinlichkeit von einem Drittel, dass 600 Personen gerettet werden, und eine Wahrscheinlichkeit von zwei Dritteln, dass niemand gerettet wird. Variante 2  Wenn Programm C umgesetzt wird, werden 400 Personen sterben.  Wenn Programm D umgesetzt wird, besteht eine Wahrscheinlichkeit von einem Drittel, dass niemand sterben wird, und eine Wahrscheinlichkeit von zwei Dritteln, dass 600 Menschen sterben werden. Offensichtlich sind die Programme A und C sowie B und D identisch - allerdings hat in Variante 1 mit 72 % die Mehrheit Programm A gewählt, in Variante 2 aber nur 22 % das äquivalente <?page no="136"?> Entscheidungen bei Risiko und Behavioral Economics 136 Programm C. Die Ursache liegt in positiven vs. negativen Framing. Menschen entscheiden zugunsten der positiv dargestellten sicheren Variante und gegen eine unsicher dargestellte negative Variante. Framing spielt auch für Kauf- und Nachfrageentscheidungen eine zentrale Rolle. In ► Abbildung 3.11 links sind in einem Experiment zwei Studentenapartments A und B positioniert, die bei Studierenden zu 50 % den Präferenzen entsprechen (Simonson und Tversky 1992) - A ist näher am Campus, hat aber eine höhere Miete, bei B ist es umgekehrt. Fügt man nun in ► Abbildung 3.11 rechts ein drittes Apartment C hinzu, dürfte sich nichts ändern: Apartment B dominiert Apartment C bei Kosten und Nähe zum Campus, so dass weiterhin je 50 % der Studierenden entsprechend ihrer Präferenzen A und B wählen müssten - C ist eine irrelevante Alternative. Abbildung 3.11: Framing von Studentenapartments. Tatsächlich nimmt auch niemand C - aber die Existenz von Apartment C beeinflusst die Entscheidung zwischen A und B: Durch die sehr gute Vergleichbarkeit von B und C gewinnt B an Attraktivität und die Nachfrage verteilt sich jetzt A: 30 % und B: 70 %. Dieser Effekt wird als Decoy-Effekt bezeichnet (Ariely und Wallsten 1995 sowie Ariely 2008): Eine irrelevante Entscheidungsoption, die asymmetrisch dominiert wird, beeinflusst die Präferenzen und das Nachfrageverhalten. Dieser Effekt ist umso stärker, je schwächer die ursprünglichen Präferenzen ausgeprägt sind, je größer die Unsicherheit über die Entscheidungssituation ist und je besser die Vergleichbarkeit der irrelevanten Option ist. Der Decoy-Effekt kann in unterschiedlichen Varianten in zahlreichen Geschäftsmodellen beobachtet werden. Aktuell entsteht bspw. ein neuer Markt für Elektrofahrräder. Potenzielle Kunden haben nur eine vage Idee betreffs relevanter Ausstattungsmerkmale (Batteriekapazität, Ladedauer, Gewicht, Reichweite etc.) und entsprechend schwach ausgeprägte Präferenzen. In Märkten dieser Art haben Kunden eine Tendenz, bei zwei angebotenen Fahrrädern - deren Unterschiede eben nicht eindeutig zu erkennen sind - das günstigere zu erwerben, wie in ► Abbildung 3.12 angenommen, A: 80 % und B: 20 %. Fügt man nun ein drittes, besser ausgestattetes, aber auch erheblich teureres Rad hinzu, würden bei vollständigen und konsis- Miete Entfernung vom Campus B A Entfernung vom Campus B A C Miete <?page no="137"?> Begrenzte Rationalität und Behavioral Economics 137 tenten Präferenzen maximal 20 % der Kunden - nur die, die zuvor Rad B gewählt hatten - zu Rad C wechseln: Ein Teil derjenigen, die eine hohe Zahlungsbereitschaft und hohes Qualitätsinteresse haben. Tatsächlich wechseln aber in Experimenten jetzt zahlreiche Kunden weg von Rad A hin zu B und C. Das bedeutet zum einen, dass die Präferenzen nicht stabil und robust gegen Veränderungen der Auswahlmöglichkeiten sind, zum anderen für den Fahrradhändler aber auch eine Erlössteigerung von ca. 40 %. Bike A 1.000 EUR Bike B 1.500 EUR Bike C 3.000 EUR Abbildung 3.12: Framing mit Fahrrädern. In ähnlicher Weise findet sich Framing auch bei Bechergrößen von Starbucks, Speichervarianten von Apple-Endgeräten oder beim Angebot an Weinen eines Winzers - immer wird mit einer teuersten, ggfs. irrelevanten Option, versucht, die Präferenzen zu verzerren, die Zahlungsbereitschaft zu erhöhen und die Entscheidungen zu beeinflussen. Auch Medien und Zeitschriften wenden Framing an. Der Economist hat 2006 die in ► Abbildung 3.13 dargestellten Produktoptionen und Preise angeboten - auf den ersten Blick erscheint es, als ob die digitale Variante kostenlos im Print- und Digital-Paket enthalten ist. Ariely (2008) hat in einem Experiment zunächst überprüft, wie groß die Nachfrage nach den drei Varianten ist, und bestätigt, dass niemand die Print-Variante alleine wählt. experimentelle Ergebnisse für Rad A und B Vorhersage bei Hinzufügen von Rad C experimentelle Ergebnisse bei Hinzufügen von Rad C <?page no="138"?> Entscheidungen bei Risiko und Behavioral Economics 138 Abbildung 3.13: Preisstruktur und Angebote des Economist. Wenn man diese vermeintlich irrelevante Print-Variante jedoch entfernt, dann ist der einfache Vergleich zwischen dem Kombiprodukt Print und Digital einerseits und Digital alleine andererseits nicht mehr möglich. In der Folge verschieben sich die Nachfrageanteile drastisch. Durch das Hinzufügen einer vermeintlich irrelevanten Variante kann der Anteil der teuren Abos von 32 % auf 84 % gesteigert werden, hier gleichbedeutend einem Erlösanstieg von ca. 42 % bei Umstellung von zwei auf drei Varianten. Endowment-Effekt, Tassen, Aufzüge und IKEA Zahlreiche Geschäftsmodelle - Fitnessstudios, Streamingdienste, Softwarepakete oder Zeitungen - bieten sogenannte 30-Tage-kostenlos-Probeabonnements an. Die ökonomische Begründung hierfür ist nicht, dass der Kunde vom Produkt oder der Produktqualität überzeugt werden muss, sondern, dass durch den kostenlosen Zugang ein Endowment-Effekt (Besitzstandseffekt) ausgelöst wird, der die Zahlungsbereitschaft dauerhaft erhöht. Der Endowment-Effekt ist in zahlreichen Experimenten, unter anderem mit Kaffeetassen, nachgewiesen. Er beschreibt, dass die Wertschätzung von Gegenständen davon beeinflusst wird, ob eine Person den Gegenstand aktuell besitzt oder nicht, so dass die Zahlungsbereitschaft beeinflusst wird (Knetsch 1989, Kahneman et al. 1990 und 1991). In Experimenten wurden hier in einer Gruppe von Studierenden willkürlich Tassen an die Hälfte der Teilnehmer verteilt, die andere Hälfte der Gruppe erhielt keine Tassen. Werden die (unfreiwilligen) Besitzer der Tasse nach einer Weile befragt, zu welchem Preis sie die Tasse verkaufen würden, ergibt sich über verschiedene Experimente hinweg ein Mittelwert von etwa 6 USD - befragt man die tassenlosen Teilnehmer nach ihrer Zahlungsbereitschaft für eine der Tassen, ergeben sich im Mittel knapp 3 USD. Ermöglicht man zwischen den beiden Gruppen Käufe und Verkäufe, werden über alle Experimente hinweg nur etwa 15 % bis 20 % der Tassen entsprechend drei Versionen Print und Digital Print Digital zwei Versionen Produktvariante Preis Nachfrageanteil Nachfrageanteil Preis <?page no="139"?> Begrenzte Rationalität und Behavioral Economics 139 der individuellen Zahlungs- und Verkaufsbereitschaft gehandelt - bei zufällig und gleichverteilten Zahlungs- und Verkaufsbereitschaften wäre aber zu erwarten, dass 50 % der Tassen durch Transaktionen ihren Besitzer wechseln (► Kapitel 1 zum Beispiel Wasserflaschenpark: Dort wurden im Marktgleichgewicht 50 % der Wasserflaschen gehandelt). Sobald ein Teilnehmer einen nahezu beliebigen Gegenstand oder ein Produkt besitzt, steigt die Wertschätzung - derartige Experimente sind in der Folge mit Schokoladenstücken, Eintrittskarten, Lotterielosen, Stiften, Legofiguren, Papierwürfeln oder unbekannten Kontakten bei Facebook durchgeführt worden. Der zentrale Grund hierfür liegt wieder in der Verlustaversion, die durch eine zufällige Zuordnung eines Gegenstands erzeugt wird. Die Wertschätzung selbst lässt sich unter anderem durch folgende Faktoren steigern:  Zeit - mit zunehmendem Zeitraum, den ein Teilnehmer mit dem willkürlich zugeteilten Produkt verbringt, steigt die Wertschätzung unterproportional an (Strahilewitz und Loewenstein 1998).  Erlebnisse (Shared Experience) - wenn mit dem zugeteilten Produkt gemeinsame Erfahrungen gemacht werden (bspw. mit der Tasse eine Aufzugfahrt unternommen wird), steigt die Wertschätzung ebenfalls an (Kahneman et al. 1990).  IKEA-Effekt - wird ein Produkt zumindest teilweise vom Kunden selbst zusammengebaut, steigt die Wertschätzung. In Erwartung dieser gesteigerten Wertschätzung steigt die Zahlungsbereitschaft der Kunden bereits im Vorfeld, so dass de facto für selbstzusammengebaute Möbel höhere Preise verlangt werden können als vom Unternehmen zusammengebaute (Norton et al. 2012 und Mochon et al. 2012). Wie stark sich Präferenzen durch den Endowment-Effekt verzerren lassen, zeigt ein weiteres Experiment mit drei getrennten (aber jeweils repräsentativen) Gruppen an Studierenden. Die Teilnehmer in Gruppe 1 - als Vergleichs- und Referenzgruppe - dürfen frei zwischen einer Tasse oder Schokolade im gleichen Wert wählen. 59 % der Teilnehmer entscheiden sich für die Tasse, so dass hiermit eine Prognose für die Präferenzen auch der Gruppe 2 und 3 vorliegt. In Gruppe 2 erhalten alle Teilnehmer zunächst eine Tasse, in Gruppe 3 erhalten alle zunächst Schokolade (die nicht gegessen werden darf). Nach 90 Minuten wird den Teilnehmern der Gruppen 2 und 3 jeweils angeboten, ihre Tassen in Schokolade oder Schokolade in Tassen einzutauschen. 89 % in Gruppe 2 behalten die Tasse, 90 % in Gruppe 3 behalten die Schokolade, die ursprüngliche Verteilung der Präferenzen ist nicht stabil, sondern der ‚zugeordnete‘ Besitz von Kaffeetassen oder Schokolade verzerrt die Präferenzen so stark, dass nicht mehr zum präferierten Produkt gewechselt wird (Knetsch 1989 und List 2004). Gerade die Ausprägung gemeinsamer Erlebnisse - auch nur über einen kurzen Zeitraum - erklärt wesentlich, weshalb Autohändler Probefahrten ermöglichen, teure Lautsprecher ein Wochenende lang zu Hause ausprobiert werden dürfen oder warum Boutiquen das Zurücklegen von Kleidung anbieten - alleine die Gewissheit, dass ein Kleidungsstück auf die Käuferin wartet, erhöht die Kauf- und Zahlungsbereitschaft. In gleicher Weise bewerten Menschen aufgrund des Endowment-Effekts teilweise eigene Vermögensgegenstände - Wertpapiere, Wohneigentum, gebrauchte Autos - deutlich höher als potenzielle Käufer und halten zum einen zu lange an diesen fest, zum anderen können überhöhte Preisvorstellungen entstehen (Barberis und Thaler 2003 sowie Shleifer 2000). Umgekehrt wird der Endowment-Effekt selbst <?page no="140"?> Entscheidungen bei Risiko und Behavioral Economics 140 durch häufige Markttransaktionen (jeder Marktteilnehmer besitzt ein Produkt nur kurz), durch Erfahrung der Käufer und Verkäufer und durch strategische Anreize für effizienten Handel reduziert (List 2003 und Tontrup 2017). Abbildung 3.14: Endowment-Effekt und Loss Aversion am Beispiel Streamingdienstleister. In ► Abbildung 3.14 ist der Effekt eines kostenlosen Probemonats bei Streamingdienstleistern wie AmazonPrime, Netflix, Maxdome oder Watchever zu sehen - alle bieten 2017 einen kostenlosen Probemonat, danach ist ein Basisabonnement für 7,99 EUR erhältlich. Unterstellt man, dass zunächst eine Zahlungsbereitschaft von bspw. 3,50 EUR pro Monat vorliegt, dann verschiebt sich durch den kostenlosen Probemonat der Referenzpunkt eines Kunden. Durch den kostenlosen Probemonat wird ein Endowment-Effekt erzeugt, der die Zahlungsbereitschaft erhöht. Um die Verlustangst zu kompensieren, sind die Kunden jetzt - entsprechend Formel (3.17) - bereit, etwa 8 EUR pro Monat zu zahlen. Ein Streaminganbieter verzichtet auf einmalige 3,50 EUR, um danach pro Jahr statt 12 ⋅ 3,50 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝑅𝑅𝑅𝑅 = 42 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝑅𝑅𝑅𝑅 einen Erlös von 11 ⋅ 7,99 = 87,89 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝑅𝑅𝑅𝑅 zu erzielen - mehr als eine Verdopplung des Umsatzes. Mit dem Endowment-Effekt sind zahlreiche Implikationen für Unternehmensorganisation und Strategie verbunden: Menschen halten zu stark und zu lange an (zufällig entstandenen oder vorgefundenen) Strategien und Organisationen fest und erschweren Veränderungsprozesse. Gerade der IKEA-Effekt bestärkt Manager darin, an einer selbst entwickelten Unternehmensstrategie festzuhalten: Unternehmen halten zu lange an Produktportfolios und Unternehmensbereichen fest und wechselseitig verstärken sich Effekte des Überoptimismus und der Bestätigungsverzerrung. Unternehmen beschäftigen sich tendenziell zu stark mit dem Bestandsstatt mit Neugeschäft und investieren zu viel in die Ausschöpfung vorhandener Zahlungsbereitschaft Wert -3,50 +3,50 + x ~ v - - + + + v +7,99 R‘ A B R Referenzpunkt verschoben durch kostenlosen Probemonat ursprüngliche Zahlungsbereitschaft neue Zahlungsbereitschaft <?page no="141"?> Begrenzte Rationalität und Behavioral Economics 141 Technologien (Exploitation), anstatt in die Erforschung neuer Technologien (Exploration) (Garbuio et al. 2014, Levinthal und March 2003 und Teece 2007). Fairness und Altruismus Nutzenmaximierung eines Menschen beinhaltet implizit Egoismus. Wie stark der Egoismus und indirekt die Nutzenmaximierung eines Menschen ausgeprägt ist, kann experimentell anhand des Ultimatumspiels überprüft werden (Güth et al. 1982, Binmore et al. 1985, Güth und Tietz 1990, Kahneman et al. 1986 sowie Thaler 1988). Das Spiel basiert in seiner einfachsten Form auf folgenden Regeln:  Zwei Spieler - ein Vorschlagender und ein Antwortender, die simultan entscheiden und ihre Entscheidung bekanntgeben.  Geldbetrag - der Vorschlagende erhält einen Geldbetrag 𝑊𝑊𝑊𝑊 , bspw. 10 EUR, der beiden Spielern bekannt ist, zur Aufteilung zwischen beiden Spielern.  Entscheidung des Vorschlagenden - der Vorschlagende muss entscheiden, welchen Anteil 𝑣𝑣𝑣𝑣 𝑉𝑉𝑉𝑉 des Geldbetrags er für sich behält und welchen Anteil (1 − 𝑣𝑣𝑣𝑣 𝑉𝑉𝑉𝑉 ) er bereit ist, an den Antwortenden abzugeben.  Entscheidung des Antwortenden - der Antwortende muss entscheiden, welchen Anteil 𝑣𝑣𝑣𝑣 𝐴𝐴𝐴𝐴 des Geldbetrags er mindestens für sich erwartet oder fordert.  Keine Kommunikation oder Verhandlung - das Spiel ist ein einmaliges Spiel, Informationen können nicht ausgetauscht werden und es können keine Vereinbarungen getroffen werden.  Verteilung des Geldes - beide Spieler erhalten die jeweiligen Beträge 𝑣𝑣𝑣𝑣 𝑉𝑉𝑉𝑉 ⋅ 𝑊𝑊𝑊𝑊 und (1 − 𝑣𝑣𝑣𝑣 𝑉𝑉𝑉𝑉 ) ⋅ 𝑊𝑊𝑊𝑊 , wenn das Angebot des Vorschlagenden mindestens der Forderung oder Erwartung des Antwortenden entspricht, (1 − 𝑣𝑣𝑣𝑣 𝑉𝑉𝑉𝑉 ) ≥ 𝑣𝑣𝑣𝑣 𝐴𝐴𝐴𝐴 - in diesem Fall wird das Geld entsprechend dem Vorschlag verteilt, andernfalls erhält kein Spieler Geld. Abbildung 3.15: Ultimatumspiel. Angebot? Vorschlagender 👤👤 das Geld Antwortender Annehmen oder ablehnen? 👤👤 <?page no="142"?> Entscheidungen bei Risiko und Behavioral Economics 142 Bei vollständiger Rationalität, Nutzenmaximierung und Egoismus sollte folgendes Ergebnis zu beobachten sein:  Der antwortende Spieler erwartet die minimalmögliche Summe, 0,01 EUR, da er hiermit seinen Nutzen gegenüber 0 EUR erhöht und sicherstellt, dass er von jedem Angebot des Vorschlagenden profitiert, das darüber liegt,  der vorschlagende Spieler sollte diese Erwartung und das Verhalten des Antwortenden antizipieren und genau 0,01 EUR anbieten, den Rest des Betrages - bei 10 EUR somit 9,99 EUR für sich behalten und  die Aufteilung des Geldes kommt (immer) entsprechend dem Vorschlag zustande (Rubinstein 1982). In Laborexperimenten bestätig sich dieses Ergebnis nicht. Einerseits erwarten die antwortenden Spieler typischerweise einen Anteil, der deutlich über einer Minimalforderung liegt, andererseits bieten die vorschlagenden Spieler auch deutlich größere Anteile an. Die antwortenden Spieler erwarten Anteile von 20 % bis 50 %, die vorschlagenden Spieler bieten Anteile zwischen 30 % und 50 % an. In derartigen Spielsituationen findet keine vollständige Nutzenmaximierung statt, sondern Spieler erwarten Fairness, bieten diese aber auch an. Wie hoch die Neigung zu Fairness tatsächlich ist und ob eine Verteilung des Geldes zustande kommt, hängt unter anderem von der Anonymität oder der wechselseitigen Kenntnis der Spieler, Rollenverteilung und Rahmenbedingungen (Chef, Mitarbeiter und Geburtstagskuchen), potenziellen Wiederholungen des Spiels und der Möglichkeit zum Aufbau von Reputation im Zeitverlauf sowie der Höhe des Geldbetrags (10 EUR vs. 1 Mio. EUR) ab. Die Aufteilung eines Geldbetrags kann aber - neben Fairness - auch auf Altruismus beruhen. In diesem Fall beziehen Entscheider in einem dynamischen Kalkül den Nutzen anderer in ihre eigene Nutzenfunktion mit ein. Aus Managementperspektive ergeben sich mit Fairness und Altruismus insbesondere Implikationen für Verhandlungssituationen (Gehalts- oder Tarifverhandlungen, Unternehmenszusammenschlüsse oder langfristige Verträge wie Outsourcing) sowie beim Aufbau von Reputation in Organisationen oder gegenüber Wettbewerbern (vgl. auch ► Kapitel 9 zu Spieltheorie und ► Kapitel 10 zu strategischen Wettbewerb). 3.3 Zusammenfassung Entscheidungen und das Verhalten von Menschen werden von Risiko, Unsicherheit und begrenzter Rationalität beeinflusst. Entscheidungen bei unvollständiger Information - Risiko oder Unsicherheit - werden in Abhängigkeit möglicher Umweltzustände von Risikoaversion geprägt: Menschen bevorzugen bei gleichem Erwartungswert sichere gegenüber unsicheren Ergebnissen, lehnen faire Spiele ab und maximieren ihren Erwartungsnutzen. Der Grad an Risikoaversion variiert über Personengruppen und in Anbetracht der Entscheidungssituation. Zudem werden Wahrscheinlichkeiten entsprechend der Gewichtungsfunktion von Kahneman und Tversky verzerrt wahrgenommen. Durch Risikomanagement in Form von <?page no="143"?> Zusammenfassung 143 Versicherung, Diversifikation, Informationsbeschaffung oder Signaling kann eine bessere Einschätzung der Risiken oder eine Risikoreduktion erreicht werden. Zahlreiche empirisch beobachtbare Entscheidungen weichen in systematischen und vorhersagbaren Mustern von maximierendem Verhalten ab. Die Ursache liegt in begrenzter Rationalität und schnellem Denken, die sich in der Anwendung von Heuristiken niederschlägt. Kunden wie Manager suchen hier vor dem Hintergrund begrenzter Information oder beschränkter kognitiver Fähigkeiten nach Gut-genug-Lösungen. Menschen entscheiden regelmäßig unter dem Einfluss von Wahrnehmungsverzerrungen und weisen eine starke Verlustaversion auf, gleichzeitig werden Entscheidungen von Endowment-Effekten (willkürlichen oder zufälligen Anfangsausstattungen) oder durch Framing (Anordnung von Optionen) geprägt und beeinflusst. Sowohl die Beobachtungen der Entscheidungen unter Risiko wie auch bei begrenzter Rationalität zeigen, dass Nutzenmaximierung auf Basis vollständiger Rationalität eher die Ausnahme als die Regel ist. Vielmehr können menschliche Entscheidungen in ökonomischen Situationen dann gut nachvollzogen werden, wenn alle drei Perspektiven - Rationalität, begrenzte Rationalität sowie Risiko und Unsicherheit - auf eine Entscheidungs- oder Wettbewerbssituation integriert eingenommen werden. Aus Managementperspektive ergeben sich vielfältige Implikationen: Einerseits Möglichkeiten, auf Basis begrenzt rationalen Verhaltens der Kunden Geschäfts- und Preismodelle zu entwickeln, um den Gewinn zu steigern, andererseits muss immer eine Einschätzung der Risikoneigung und Rationalität der eigenen Mitarbeiter wie auch der Wettbewerber vorgenommen werden.  Literaturtipps Risiko und Unsicherheit sind hervorragend dargestellt in Gigerenzer, G. und Kober, H., Risiko - wie man die richtigen Entscheidungen trifft, München 2020. Tiefe Einblicke in die Entstehung, in zahlreiche Experimente und psychologische Grundlagen von Behavioural Economics gibt es bei Kahneman, D, Thinking, fast and slow, Princeton 2011. Eher anekdotenreich, aber sehr unterhaltsam ist Ariely, D., Predictably irrational: the hidden forces that shape our decisions, New York 2008.  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von Entscheidungen unter Risiko und begrenzter Rationalität aus mikroökonomischer Perspektive sowie deren Grenzen, Vor- und Nachteile! [2] Ermitteln Sie den ‚risikooptimalen Ticketpreis‘ auf Basis einer Risikoprämie für einen potenziellen Schwarzfahrer mit einer Risikoaversion 𝜔𝜔𝜔𝜔 = 0,8 und einem Vermögen von EUR 200, einer Strafgebühr von EUR 150 und einer Wahrscheinlichkeit, erwischt zu werden, von 3 %. Wie verändert sich der Ticketpreis in Abhängigkeit von Vermögen, Risikoaversion und Wahrscheinlichkeit erwischt zu werden? <?page no="144"?> Entscheidungen bei Risiko und Behavioral Economics 144 [3] Career-Katja und Poker-Pete verdienen aktuell EUR 75.000 fix. Beide erhalten ein Angebot, in den Vertrieb zu wechseln, dort wird das Gehalt allerdings eine variable Komponente in Höhe von EUR 40.000 beinhalten, die nur mit 40 % Wahrscheinlichkeit erreicht werden kann:  Wahrscheinlichkeit Einkommen 0,60 EUR 60.000 0,40 EUR 100.000  Wie hoch ist der Erwartungswert des Einkommens des neuen Jobs? Katja ist stark risikoavers, ihre Nutzenfunktion ist gegeben durch 𝐸𝐸𝐸𝐸 = 𝑊𝑊𝑊𝑊 0,5 - wird sie den neuen Job annehmen? Pete ist weniger risikoavers, seine Nutzenfunktion ist gegeben durch 𝐸𝐸𝐸𝐸 = 𝑊𝑊𝑊𝑊 0,8 - wird er den neuen Job annehmen? [4] Ein Teilnehmer bei „Wer wird Millionär“ hat eine Nutzenfunktion 𝐸𝐸𝐸𝐸(𝑊𝑊𝑊𝑊) = 𝑊𝑊𝑊𝑊 0,8 . Er steht bei 125.000 EUR, kann zurückfallen auf 16.000 EUR und hat noch den 50: 50-Joker. Bei vier verbleibenden Antwortalternativen hat er keine Ahnung betreffend der 500.000 EUR Frage - was wird er tun? Wie hoch ist hier die Risikoprämie, was sagt sie in diesem Fall aus? Sollte der Kandidat den 50: 50-Joker ziehen? Welchen Wert hat der Joker für ihn? Zeichnen Sie beide Fälle und beschreiben Sie die Unterschiede. [5] Definieren Sie Unsicherheit und Risiko! Beschreiben Sie das Phänomen Risikoaversion. Wie lässt sich Risikoaversion messen? Was versteht man unter einer sogenannten Risikoprämie? [6] Wo liegen die wesentlichen Unterschiede zwischen traditioneller Mikroökonomie und Behavioral Economics? Erläutern Sie die Grundüberlegungen von begrenzter Rationalität! [7] Was ist eine Heuristik, wann kommt sie zum Einsatz? Beschreiben Sie drei typische Wahrnehmungsverzerrungen! [8] Wie sehen typische Ergebnisse des Ultimatumspiels aus? Welche Rolle spielt Fairness im einmaligen und im wiederholten Ultimatumspiel? [9] Was ist Framing? Erläutern Sie drei typische Konsumgüterbereiche, in denen Hersteller oder Händler diesen Effekt nutzen, um den Gewinn zu steigern! Was beschreibt der Endowment-Effekt? Erläutern Sie drei typische Konsumgüterbereiche, in denen Hersteller oder Händler diesen Effekt nutzen! [10] Erläutern Sie die Grundaussage der Prospect-Theorie von Kahnemann und Tversky und geben Sie zwei Beispiele!  Literatur Anderson, L.R. und Mellor, J., Are risk preferences stable? Comparing an experimental measure with a validated survey-based measure, Journal of Risk and Uncertainty, 2009, 39, 2, 137-160. Ariely, D. und Wallsten, T.S., Seeking subjective dominance in multidimensional space: an explanation of the asymmetric dominance effect, Organizational Behavior and Human Decision Processes, 1995, 63, 3, 223-232. Ariely, D., Predictably irrational: the hidden forces that shape our decisions, New York 2008. Armstrong, M. und Huck, S., Behavioral economics as applied to firms: a primer, CESifo Working Paper Series, 2010, No. 2937. <?page no="145"?> Zusammenfassung 145 Asch, S.E., Studies of independence and conformity: A minority of one against a unanimous majority, Psychological Monographs: General and Applied, 1956, 70, 9, 1-70. Barberis, N. und Thaler, R.H., A survey of behavioral finance, in: Constantinides, G.M., Harris, M. und Stulz, R.M. (Hrsg.), Handbook of the Economics of Finance, Volume 1, 2003, 1053-1128. Bar-Eli, M., Azar, O.H., Ritov, I., Keidar-Levin, Y. und Schein, G., Action bias among elite soccer goalkeepers: the case of penalty kicks, Journal of Economic Psychology, 2007, 28, 5, 606- 621. Bayer, J.B., Triệu, P. und Ellison, N.B., Social media elements, ecologies, and effects, Annual Review of Psychology, 2020, 71, 471-497. Bellemare, C. und Shearer, B.S., Sorting, incentives and risk preferences: evidence from a field experiment, IZA Discussion Papers, No. 2227, July 2006, IZA Bonn. Ben-David, I., Graham, J.R. und Harvey, C.R., Managerial overconfidence and corporate policies, Working Paper 13711, National Bureau of Economic Research 2007. Binmore, K., Shaked, A. und Sutton, J., Testing non-cooperative bargaining theory: a preliminary study, American Economic Review, 1985, 75, 1178-1180. Brown, C.L. und Krishna, A., The skeptical shopper: A metacognitive account for the effects of default options on choice, Journal of Consumer Research, 2004, 31, 3, 529-539. Brunsson, N., The irrationality of action and action rationality: decisions, ideologies and organizational actions, Journal of Management Studies, 1982, 19, 1, 29-44. Bruttel, L.V., Stolley, F., Güth, W., Kliemt, H., Bosworth, S., Bartke, S., Schnellenbach, J., Weimann, J., Haupt, M. und Funk, L., Nudging als politisches Instrument - gute Absicht oder staatlicher Übergriff? , Wirtschaftsdienst, 2014, 94, 11, 767-791. Camerer, C.F. und Weber, M., Recent developments in modeling preferences: uncertainty and ambiguity, Journal of Risk and Uncertainty, 1992, 5, 4, 325-370. Camerer, C.F., Babcock, L., Loewenstein, G. und Thaler, R.H., Labor supply of New York City cabdrivers: one day at a time, Quarterly Journal of Economics, 1997, 112, 2, 407-441. Camerer, C.F., Loewenstein, G. und Rabin, M., Advances in behavioral economics, Princeton 2011. Carpenter, J.N., Does option compensation increase managerial risk appetite? , Journal of Finance, 2000, 55, 5, 2311-2331. Chen, G., Crossland, C. und Luo, S., Making the same mistake all over again: CEO overconfidence and corporate resistance to corrective feedback, Strategic Management Journal, 2015, 36, 10, 1513-1535. Coles, J.L., Daniel, N.D. und Naveen, L., Managerial incentives and risk-taking, Journal of Financial Economics, 2006, 79, 2, 431-468. Cyert, R.M. und March, J.G., A behavioral theory of the firm, Englewood Cliffs 1963. Daghofer, F., Financial risk-taking on “Who Wants to Be a Millionaire”: a comparison between Austria, Germany, and Slovenia, International Journal of Psychology, 2007, 42, 5, 317-330. Dams, J., Ettel, A., Greive, A, und Zschäpitz, H., Merkel will die Deutschen durch Nudging erziehen, Die Welt, 12. März 2015. DellaVigna, S. und Malmendier, U., Paying not to go to the gym, American Economic Review, 2006, 96, 3, 694-719. DellaVigna, S., Psychology and economics: evidence from the field, Journal of Economic Literature, 2009, 47, 2, 315-372. Dohmen, T.J., Do professionals choke under pressure? , Journal of Economic Behavior and Organization, 2008, 65, 3, 636-653. Ellsberg, D., Risk, ambiguity, and the Savage axioms, Quarterly Journal of Economics, 1961, 75, 4, 643-669. <?page no="146"?> Entscheidungen bei Risiko und Behavioral Economics 146 Esser, J.K., Alive and well after 25 years: a review of groupthink research, Organizational Behavior and Human Decision Processes, 1998, 73, 2, 116-141. Farber, H.S., Why you can’t find a taxi in the rain and other labor supply lessons from cab drivers, Quarterly Journal of Economics, 2015, 130, 4, 1975-2026. Franzen, A. und Pointner, S., Wer wird Millionär? Eine empirische Analyse der Erfolgsdeterminanten in der gleichnamigen Quizshow, Zeitschrift für Soziologie, 2009, 38, 3, 239-256. Garbuio, M., Lovallo, D. und Ketenciouglu, E., Behavioral economics and strategic decision making, The Oxford Handbook of Managerial Economics, Boston-London 2014. Gavetti, G., und Rivkin, J.W., On the origin of strategy: action and cognition over time, Organization Science, 2007, 18, 3, 420-439. Gigerenzer, G. und Selten, R., Bounded rationality, Cambridge 2002. Gigerenzer, G., The empire of chance: how probability changed science and everyday life, Boston 1990. Günther, T. und Detzner, M., Sind Manager und Controller risikoscheu? Ergebnisse einer empirischen Untersuchung, Controlling, 2012, 24, 4/ 5, 247-254. Güth, W. und Tietz, R., Ultimatum bargaining behavior: a survey and comparison of experimental results, Journal of Economic Psychology, 1990, 11, 3, 417-449. Güth, W., Schmittberger, R. und Schwarze, B., An experimental analysis of ultimatum bargaining, Journal of Economic Behavior and Organization, 1982, 3, 4, 367-388. Hartley, R., Lanot, G. und Walker, I., Who really wants to be a millionaire? Estimates of risk aversion from game show data, Journal of Applied Econometrics, 2014, 29, 6, 861-879. Holmström, B., Managerial incentive problems: a dynamic perspective, Review of Economic Studies, 1999, 66, 1, 169-182. Holt, C.A. und Laury, S.K., Risk aversion and incentive effects, American Economic Review, 2002, 92, 5, 1644-1655. Huck, S., Zhou, J. und Duke, C., Consumer behavioral biases in competition - a survey, Office of Fair Trade, 2011. Johnson, E.J., Shu, S.B., Dellaert, B.G., Fox, C., Goldstein, D.G., Häubl, G., Larrick, R.P., Payne, J.W., Peters, E., Schkade, D. und Wansink, B., Beyond nudges: tools of a choice architecture, Marketing Letters, 2012, 23, 2, 487-504. Just, D.R. und Wansink, B., The flat-rate pricing paradox: conflicting effects of “all-you-can-eat” buffet pricing, Review of Economics and Statistics, 2011, 93, 1, 193-200. Kahneman, D. und Tversky, A., Prospect theory: an analysis of decision under risk, Econometrica, 1979, 47, 2, 263-292. Kahneman, D. und Tversky, A., Subjective probability: a judgment of representativeness, Cognitive Psychology, 1972, 3, 3, 430-454. Kahneman, D., Knetsch, J.L. und Thaler, R.H., Anomalies: the endowment effect, loss aversion, and status quo bias, Journal of Economic Perspectives, 1991, 5, 1, 193-206. Kahneman, D., Knetsch, J.L. und Thaler, R.H., Experimental tests of the endowment effect and the Coase theorem, Journal of Political Economy, 1990, 98, 6, 1325-1348. Kahneman, D., Knetsch, J.L. und Thaler, R.H., Fairness and the assumptions of economics, Journal of Business, 1986, 59, 285-300. Kahneman, D., Maps of bounded rationality: psychology for behavioral economics, American Economic Review, 2003, 93, 5, 1449-1475. Kahneman, D., Thinking, fast and slow, Princeton 2011. Klayman, J., Soll, J.B., Gonzalez-Vallejo, C. und Barlas, S., Overconfidence: it depends on how, what, and whom you ask, Organizational Behavior and Human Decision Processes, 1999, 79, 3, 216-247. <?page no="147"?> Zusammenfassung 147 Knetsch, J., The endowment effect and evidence of nonreversible indifference curves, American Economic Review, 1989, 79, 1277-1284. Knight, F.H., Risk, uncertainty and profit, New York 1921. Leibenstein, H., Bandwagon, snob, and Veblen effects in the theory of consumers' demand, Quarterly Journal of Economics, 1950, 64, 2, 183-207. Levinthal, D.A. und March, J.G., The myopia of learning, Strategic Management Journal, 1993, 14, 95-112. Lindblom, C.E., The science of muddling through, Public Administration Review, 1959, 4, 79-88. List, J.A., Does market experience eliminate market anomalies? , Quarterly Journal of Economics, 2003, 118, 1, 41-71. List, J.A., Neoclassical theory versus prospect theory: evidence from the marketplace, Econometrica, 2004, 72, 2, 615-625. Malmendier, U. und Tate, G., Behavioral CEOs: the role of managerial overconfidence, Journal of Economic Perspectives, 2015, 29, 4, 37-60. Malmendier, U. und Tate, G., CEO overconfidence and corporate investment, Journal of Finance, 2005, 60, 6, 2661- 2700. March, J.G. und Shapira, Z., Managerial perspectives on risk and risk taking, Management Science, 1987, 33, 11, 1404- 1418. March, J.G. und Simon, H.A., Organizations, New York 1958. March, J.G., A primer on decision making: how decisions happen, New York 1994. Markowitz, H.M., Portfolio selection, Journal of Finance, 1952, 7, 77-91. Mascalet, D., Colombier, N., Denant-Boemont, L. und Loheac, Y., Group and individual risk preferences: a lotterychoice experiment with self-employed and salaried workers. Journal of Economic Behavior and Organization, 2009, 70, 470-484. Misirlisoy, E. und Haggard, P., Asymmetric predictability and cognitive competition in football penalty shootouts, Current Biology, 2014, 24, 16, 1918-1922. Mochon, D., Norton, M.I. und Ariely, D., Bolstering and restoring feelings of competence via the IKEA effect, International Journal of Research in Marketing, 2012, 29, 4, 363-369. Ngai, E.W.T., Tao, S.S.C. und Moon, K.K.L., Social media research: theories, constructs and conceptual frameworks, International Journal of Information Management, 2015, 35, 1, 33-44. Nickerson, R.S., Confirmation bias: a ubiquitous phenomenon in many guises, Review of General Psychology, 1998, 2, 2, 175-220. Norton, M.I., Mochon, D. und Ariely, D., The IKEA effect: when labor leads to love, Journal of Consumer Psychology, 2012, 22, 3, 453-460. Pavlovic, N., Herd behaviour in consumer buying decisions in the age of social media, Nürnberg 2020. Pennings, J.M.E. und Smidts, A., Assessing the construct validity of risk attitude, Management Science, 2000, 46, 10, 1337-1348. Powell, T.C., Lovallo, D. und Fox, C.R., Behavioral strategy, Strategic Management Journal, 2011, 32, 13, 1369-1386. Pratt, J.W., Risk aversion in the small and in the large, Econometrica, 1964, 32, 122-136. Pütz, A. und Ruenzi, S., Overconfidence among professional investors: evidence from mutual fund managers, Journal of Business Finance and Accounting, 2011, 38, 5-6, 684-712. Ross, S.A., Compensation, incentives, and the duality of risk aversion and riskiness, Journal of Finance, 2004, 59, 1, 207-225. Rubinstein, A., Perfect equilibrium in a bargaining model, Econometrica, 1982, 50, 97-109. <?page no="148"?> Entscheidungen bei Risiko und Behavioral Economics 148 Russo, J.E. und Schoemaker, P.J., Managing overconfidence, Sloan Management Review, 1992, 33, 2, 7-17. Sharpe, W.F., Capital asset prices: a theory of market equilibrium under conditions of risk, Journal of Finance, 1964, 19, 3, 425-442. Shiller, R.J., Speculative prices and popular models, Journal of Economic Perspectives, 1990, 4, 2, 55-65. Shleifer, A., Inefficient markets: an introduction to behavioural finance, Oxford 2000. Simon, H.A., A behavioral model of rational choice, Quarterly Journal of Economics, 1955, 69, 1, 99-118. Simon, H.A., Models of man, social and rational: mathematical essays on rational human behavior in a social setting, New York 1957. Simonson, I. und Tversky, A., Choice in context: tradeoff contrast and extremeness aversion, Journal of Marketing Research, 1992, 29, 3, 281-295. Spence, M., Job market signaling, Quarterly Journal of Economics, 1973, 87, 3, 355-374. Spence, M., Signaling in retrospect and the informational structure of markets, American Economic Review, 2002, 92, 3, 434-459. Strahilevitz, M.A. und Loewenstein, G., The effect of ownership history on the valuation of objects, Journal of Consumer Research, 1998, 25, 3, 276-289. Sunstein, C. und Thaler, R.H., Nudge - the politics of libertarian paternalism, New Haven 2008. Svenson, O., Are we all less risky and more skillful than our fellow driver? , Acta Psychologica, 1981, 47, 2, 143-148. Taleb, N.N., Goldstein, D.G. und Spitznagel, M.W., The six mistakes executives make in risk management, Harvard Business Review, 2009, 87, 10, 78-81. Taleb, N.N., The black swan, New York 2007. Teece, D.J., Explicating dynamic capabilities: the nature and microfoundations of (sustainable) enterprise performance, Strategic Management Journal, 2007, 28, 13, 1319-1350. Thaler, R.H., Anomalies: the ultimatum game, Journal of Economic Perspectives, 1988, 2, 4, 195-206. Thaler, R.H., Misbehaving: the making of behavioral economics, New York 2015. Thaler, R.H., Toward a positive theory of consumer choice, Journal of Economic Behavior and Organization, 1980, 1, 1, 39-60. Toner, M., Ojha, N., de Paepe P. und de Melo, M.S., A strategy for thriving in uncertainty, Bain Brief, Bain&Company, 12. August 2015. Tontrup, S., Does the endowment effect prevail when traders act strategically? , New York University Law and Economics Working Papers 450, 2017. Tversky, A. und Kahneman, D., Advances in prospect theory: cumulative representation of uncertainty, Journal of Risk and Uncertainty, 1992, 5, 297-323. Tversky, A. und Kahneman, D., Availability: a heuristic for judging frequency and probability, Cognitive Psychology, 1973, 5, 2, 207-232. Tversky, A. und Kahneman, D., Belief in the law of small numbers, Psychological Bulletin, 1971, 76, 2, 105-110. Tversky, A. und Kahneman, D., Judgment under uncertainty: heuristics and biases, Science, 1974, 185, 4157, 1124-1131. Tversky, A. und Kahneman, D., The framing of decisions and the psychology of choice, Science, 1981, 4481, 453-458. Vanini, U., Risikoneigung und Unternehmenssteuerung - Ergebnisse empirischer Studien, Working Paper, CARF Luzern 2016. von Neumann, J. und Morgenstern, O., Theory of games and economic behavior, Princeton 1944. <?page no="149"?> 4 Unternehmen, Wettbewerb und Innovationen Seit dem 29. Januar 1886 weist das Kaiserliche Patentamt Carl Benz unter der Nummer 37435 als Erfinder des „Fahrzeugs mit Gasmotorenbetrieb“ aus. Zur gleichen Zeit entwarfen auch Albert Hammel und Knut Johansen in Dänemark, Magnus Volk in Großbritannien, Siegfried Marcus in Österreich und Léon Serpollet in Frankreich motorbetriebene Fahrzeuge - eine Häufung ähnlicher Innovationen begründete die weltweite Automobilindustrie. Das Unternehmen von Carl Benz schloss sich - nahe an der Insolvenz und auf Druck der Deutschen Bank - 1926 mit dem Unternehmen des Konkurrenten Gottlieb Daimler zusammen. Daimler produzierte mit dem Konstrukteur Wilhelm Maybach seit 1889 einen Stahlradwagen und verkaufte diesen seit 1901 unter dem Markennamen Mercedes. Léon Serpollet wechselte 1889 aus der eigenen Werkstatt in die des Fahrradherstellers Armand Peugeot. Daimler-Benz, zwischenzeitlich als DaimlerChrysler und jetzt als Daimler, und Peugeot gehören, nach mehr als 100 Jahren, noch heute zu den führenden Herstellern von Automobilen. Daimler hat 2016 einen Gewinn von 8,8 Mrd. EUR erzielt und beschäftigt weltweit 282.488 Menschen - über den Werdegang von Hammel, Johansen, Volk und Marcus ist weiter nichts bekannt. Geschichte berichtet meist von Gewinnern (Münter 1999). Wachstum und Wohlstand einer Volkswirtschaft, von Nationen, Kulturen und Gesellschaften, werden begleitet und geprägt von der Entstehung von Unternehmen, der Entwicklung und dem Niedergang unterschiedlicher Industrien. Doch der Wandel einer Industrie ist nur das Abbild des Zusammenspiels von Kunden und Unternehmen, vor allem aber des Wettbewerbs der Unternehmen um die Gunst der Kunden und fortwährender Innovationen von Produkten, Prozessen oder Geschäftsmodellen. Wettbewerb ist ein komplexer dynamischer Prozess. Die Dynamik des Prozesses beruht auf der strategischen Interaktion von Unternehmen im Zeitablauf, die einerseits immer wieder neue Chancen ergreifen und andererseits immer wieder aufs Neue mit Wettbewerbern konfrontiert werden, die in irgendeiner Weise Wettbewerbsvorteile besitzen. Unternehmen versuchen - getrieben von der Gefahr, Verluste zu erleiden und ihrer Existenz beraubt zu werden - Gewinne zu erzielen, um ihr Überleben zu sichern. Durch den Wettbewerb zwischen Unternehmen entstehen immer wieder neue Marktstrukturen, in denen sich die veränderten Wettbewerbspositionen der Unternehmen im Zeitablauf widerspiegeln. Geprägt wird der langfristige Wettbewerb von Innovationen, die teilweise in Folge von Forschung und Entwicklung innerhalb einer Industrie zustande kommen, teils aber auch in anderen Industrien entstehen und dann adaptiert werden, oder durch Start-ups hervorgebracht werden. So entstehen - bei Unternehmen wie Google, Tesla oder in wissenschaftlichen Forschungseinrichtungen - Technologien für autonomes Fahren, Elektroantriebe, Vernetzung von Fahrzeugen oder Geschäftsmodelle wie Car Sharing oder Ride Hailing, so dass auch die Existenz etablierter Unternehmen wie Daimler immer wieder durch mögliche disruptive Innovationen bedroht wird. <?page no="150"?> Unternehmen, Wettbewerb und Innovationen 150  Lernziele Dieses Kapitel beschäftigt sich mit  Existenz und den Zielen eines Unternehmens, um ein grundlegendes Verständnis zu entwickeln, wie und in welchen Dimensionen strategische Entscheidungen von Managern getroffen werden,  Wettbewerbsanalyse anhand von Structure-Conduct-Performance- und Five-Forces- Framework zum Zusammenhang von Marktstruktur, Strategie und Gewinn,  Market-based View und Resourced-based View zur Erklärung von Wettbewerbsvorteilen und Gewinn,  dem langfristigen Zusammenspiel und Entwicklungsmustern von Innovationen, Marktstruktur und Wettbewerb in technologischen Regimes. 4.1 Unternehmen, Unternehmensziele und Strategien Die Entstehung eines Unternehmens und der Markteintritt basiert entweder auf der Kombination von neuem Wissen und Gewinnstreben - oft entstehen so neue Märkte oder Industrien wie im Fall von Daimler-Benz - oder auf dem Erkennen von Gewinnmöglichkeiten in bestehenden Märkten oder Industrien, wie mit dem Eintritt von Google 1998 in die damals bereits sechs Jahren bestehende Suchmaschinenindustrie. Das allgemein verfügbare Wissen einer Gesellschaft zu einem Zeitpunkt bestimmt die Entstehung von Märkten, Unternehmen und Industrien. Ursächlich für die Entstehung von neuem Wissen, das schließlich in neuen Produkten, neuen Märkten und neuen Unternehmen verkörpert wird, ist das Streben von Individuen nach Erkenntnis und die Unzufriedenheit mit bestehenden Erklärungen und Problemlösungen - sei es in F&E-Abteilungen von Unternehmen, in Garagen in Kalifornien oder an Hochschulen und Universitäten. Neues Wissen wird dann in Unternehmen umgesetzt, wenn bei gegebenen institutionellen Rahmenbedingungen Unternehmertum (Entrepreneurship) möglich ist und unternehmerisches Handeln die Aneignung von Gewinnen (Appropriierbarkeit) erlaubt (Schumpeter 1911, Kirzner 1973 und Audretsch 1995). <?page no="151"?> Unternehmen, Unternehmensziele und Strategien 151  Fragen │ Unternehmensgründung - sind einige Menschen zum Gründer geboren? Die Gründung eines Unternehmens geht von Individuen aus - einzelnen Gründern oder Teams. Im Kern stellt die Gründung eines Unternehmens immer nur eine berufliche Alternative neben anderen dar, insbesondere gegenüber einer nichtselbständigen Tätigkeit. Die Determinanten von Selbständigkeit sind dabei sowohl externe Rahmenbedingungen - gibt es überhaupt rechtliche und ökonomische Möglichkeiten und Institutionen, ein Unternehmen zu gründen - wie auch intrapersonelle Faktoren, die in den Spezifika der Persönlichkeit des Gründers liegen. Daneben gibt es generelle Faktoren - die Bereitschaft Risiken einzugehen, Unsicherheit zu ertragen, Chancen zu ergreifen und Entscheidungen zu treffen - die immanent mit der Rolle eines Gründers und Unternehmers verbunden sind (Kirzner 1973, Knight 1921, Alvarez und Parker 2009 sowie Münter 2021). Überlagert werden diese individuellen Faktoren auch von makroökonomischen Rahmenbedingungen: In zahlreichen Studien zeigt sich, dass neben konjunkturellen Treibern insbesondere die aus Arbeitslosigkeit heraus entstehende Existenz- oder Unternehmensgründungen eine wesentliche Rolle spielen (Block und Wagner 2010). Gründung und Entrepreneurship sind emergente Phänomene - weder wird man zum Gründer geboren, noch erlernt man ‚Gründen‘ (Rauch und Frese 2012, Simoes et al. 2016 sowie Acs und Audretsch 2006). Vielmehr entstehen sowohl in festen Beschäftigungsverhältnissen, an der Hochschule, in Gesprächen mit Freunden und Familie wie auch auf Basis von Marktgegebenheiten oder technologischen Innovationen immer wieder Konstellationen, die zu Unternehmensgründungen führen können (vgl. auch die in der konkreten Planung einer Gründung befindlichen Unternehmer (‚Nascent Entrepreneurs‘) bei Arenius und Minniti (2005)). Ob es tatsächlich dazu kommt, hängt - neben soziodemografischen Faktoren wie Alter, Geschlecht, Familienstand oder Herkunft - in mehreren Dimensionen von der Gründerpersönlichkeit ab. Im einfachsten Modell zur Erklärung von Entrepreneurship, der Occupational-Choice- Theorie, steht die Entscheidung eines Individuums zwischen beruflicher Selbständigkeit und Nicht-Selbständigkeit in einem bereits existierenden Unternehmen im Mittelpunkt. Die Gründungsentscheidung hängt dann von der subjektiven Einschätzung der wechselseitigen Vor- und Nachteile beider Optionen, insbesondere des Einkommens, des Aufwandes, der Risiken und der Freiheitsgrade des Handelns, ab (Lucas 1978, Kanbur 1979, Parker 2007 sowie Nicolaou und Shane 2010). Die Wahrscheinlichkeit, dass eine unternehmerische oder selbständige Tätigkeit ergriffen wird, steigt mit dem Nutzen (als Differenz aus Einkommen und Aufwand) aus Selbständigkeit gegenüber dem Lohn oder Gehalt einer abhängigen Tätigkeit an. Der Nutzen oder Gewinn aus unternehmerischer Tätigkeit wächst in der Regel wiederum mit (erwarteten) umfangreicheren unternehmerischen Fähigkeiten des Gründers an - je ausgeprägter diese sind, desto wahrscheinlicher ist bei sonst gleichen Rahmenbedingungen eine Gründung. <?page no="152"?> Unternehmen, Wettbewerb und Innovationen 152 Neben diesen monetären Aspekten wird eine Unternehmensgründung und deren Erfolg von den individuellen Fähigkeiten der Gründer beeinflusst. Unternehmerische Fähigkeiten erwachsen aus einer Kombination von Erfahrung, Persönlichkeitsmerkmalen und Qualifikation. Qualifikation beschreibt erlernbare formale oder informelle Kenntnisse und Fähigkeiten, die zu kognitiven Fähigkeiten verdichtet werden können. Qualifikation steigt typischerweise mit der Dauer und Qualität der Ausbildung an, zudem führt oftmals die Breite, Ausgewogenheit und Vernetzung der Fähigkeiten (Skill Balance) zu einem Anstieg der relevanten Qualifikation bei Gründern (Lazear 2004 und Hayward et al. 2006). Theorie der Unternehmung, Transaktionskosten und die Grenzen eines Unternehmens Weshalb existieren Unternehmen? Um eine Antwort auf diese Frage zu finden, betrachtete Coase (1937) ‚den Markt’ und ‚das Unternehmen’ als Alternativen, um Transaktionen zu organisieren. Coase erkannte, dass der Markt nicht kostenlos funktioniert - die Nutzung des Preismechanismus verursacht Transaktionskosten (siehe auch ► Kapitel 1). Transaktionskosten entstehen zwar auch innerhalb eines Unternehmens, doch sind diese typischerweise niedriger als diejenigen des Marktes. Durch die Existenz von Unternehmen werden also die Transaktionskosten reduziert, die im Markt entstehen. Zu einem gewissen Grad - der letztlich die Größe des Unternehmens bestimmt - ist damit ein Unternehmen der Alternative ‚Markt’ überlegen. Neben dem ursprünglichen Ansatz der Transaktionskosten stehen mittlerweile der Resource-Based View und die Principal-Agent-Theorie im Mittelpunkt des Interesses der Theorie der Unternehmung. Die Theorie der Unternehmung (Theory of the Firm) umfasst wirtschaftswissenschaftliche, (organisations-)soziologische und verhaltenswissenschaftliche Modelle zur Entstehung, Strategie und Verhalten eines Unternehmens, um folgende Fragestellungen zu beantworten:  Existenz - warum gibt es überhaupt Unternehmen, warum gründen Menschen ein Unternehmen, was ist ein Unternehmen, was sind Alternativen zu einem Unternehmen, wie unterschiedlich sind Unternehmen?  Grenzen - wo verlaufen die Grenzen eines Unternehmens in vertikaler (bspw. betreffend der Wertschöpfungskette) und horizontaler (bspw. betreffend der Unternehmensgröße) Dimension und wie sind diese begründet?  Organisation - wie sind Unternehmen organisiert, warum gibt es Hierarchien und wie werden Entscheidungen getroffen und umgesetzt, wie wirkt sich in nichteigentümergeführten Unternehmen die Trennung von Eigentum und Management aus?  Strategie - wie bestimmen Unternehmen ihre Strategien, unterscheiden sich diese innerhalb einer Industrie und wenn ja, weshalb? Wie interagiert ein Unternehmen mit Umwelt und Wettbewerbern? Damit verbunden sind Fragen, ob, wie und weshalb sich Start-ups von eigentümergeführten Mittelständlern oder internationalen Aktiengesellschaften mit angestellten Managern unterscheiden, wie sich diese Unterschiede in Finanzierung, Strategie oder Unternehmenserfolg niederschlagen und ob kleine Start-ups systematische Vorteile bei Innovationen gegenüber großen Unternehmen haben. <?page no="153"?> Unternehmen, Unternehmensziele und Strategien 153 Unternehmen lassen sich in zwei Dimensionen erkennen:  Unternehmen als Organisation - ein Unternehmen ist eine Gruppe von Eigentümern, Managern und Mitarbeitern (i.e., Arbeit) kombiniert mit Maschinen, Finanzanlagen, Infrastruktur, Rechten und vor allem Wissen (i.e., Kapital), die so organisiert werden, dass sie Produkte oder Dienstleistungen herstellen können (i.e., Produktion). Unternehmen sind dabei aus institutioneller Perspektive Organisationen in Form von langfristigen Verträgen mit Arbeit und Kapital (i.e., Managern und Mitarbeitern einerseits und Anteilseignern und Kreditgebern andererseits).  Unternehmen als Alternative zum Markt - ein Unternehmen integriert Transaktionen (Funktionen, Tätigkeiten, Bereiche etc.), die alternativ auch im Markt oder über Zulieferer und unternehmensübergreifende Partnerschaften durchführbar wären, da die Koordination unternehmensintern effektiver und/ oder kostengünstiger erfolgen kann. Existenz und Umfang eines Unternehmens sind eine Alternative zur Abbildung von Transaktionen im Markt. Die dauerhafte Existenz eines Unternehmens im Wettbewerb ist nur möglich, wenn das Unternehmen Produkte oder Dienstleistungen herstellen kann, die nicht in alternativen Konstellationen - durch eine Behörde, durch einen Privathaushalt, durch eine beliebige Ansammlung von Menschen in der U-Bahn oder durch einen Sportverein - besser oder kostengünstiger produziert werden können. Die Vorteilhaftigkeit und die Grenzen eines Unternehmens gegenüber anderen Konstellationen ergeben sich daher in einer Kombination aus:  Effizienzvorteilen aus Größe oder Umfang des Unternehmens, insbesondere kostenseitig auf Basis von Economies of Scale oder Scope, aus Arbeitsteilung oder Spezialisierung oder aufgrund von Lernkurveneffekten (weiterführend ► Kapitel 6) - in allen Fällen nehmen die Durchschnittskosten (bspw. Stückkosten) eines Unternehmens mit zunehmender Größe ab.  Transaktionskostenvorteilen in Form geringerer unternehmensinterner Koordinations- oder Überwachungskosten gegenüber alternativer Nutzung des Marktes - Tätigkeiten werden im Unternehmen abgebildet, statt am Markt zugekauft.  Unternehmensspezifischen Fähigkeiten aufgrund von Ressourcen, bspw. in Form von Wissen, Mitarbeitern, Technologie, Patenten und Strategien. Zentrale Bedeutung kommt den Transaktionskosten - Kosten, die mit der Beschaffung, Koordination und Steuerung von Informationen und Ressourcen im Rahmen von Marktbeziehungen, Produktion oder Dienstleistung entstehen - zu, die entweder im Markt oder in Unternehmen entstehen. Wenn Transaktionskosten einer regelmäßig benötigten Ressource innerhalb des Unternehmens geringer sind als über den Markt, wird eine Transaktion (bspw. die Tätigkeit eines Mitarbeiters in der Marketingabteilung) internalisiert, d.h. im Unternehmen abgebildet und eine Stelle geschaffen, sonst wird eine Transaktion über den Markt abwickelt (bei einem Zulieferer wie einer Marketingagentur zugekauft). <?page no="154"?> Unternehmen, Wettbewerb und Innovationen 154 Abbildung 4.1: Transaktionen im Markt vs. Transaktionen in Unternehmen. In ► Abbildung 4.1 sind Transaktionen im Markt (zwischen Individuen) und innerhalb von Unternehmen gegenübergestellt. Je höher die strategische Bedeutung und Regelmäßigkeit einer Transaktion, desto stärker sind die Anreize, sie in einem Unternehmen zu bündeln oder zu kapseln. Innerhalb des Unternehmens finden Transaktionen dann auf Basis von Organisation und Hierarchie statt und ersetzen Suchkosten und Verhandlungen im Markt. Unternehmen wachsen, je besser und stabiler Transaktionen integrierbar sind. Daraus folgt einerseits, dass die Größe eines Unternehmens mit dem relativen Vorteil unternehmensinterner Transaktionskosten der Organisation und Hierarchie gegenüber den Transaktionskosten im Markt anwächst - je höher die Effizienz der eigenen Organisationsstruktur und Prozesse, desto größer schneller kann das Unternehmen wachsen: Wären die unternehmensinternen Transaktionskosten gleich null, würde ein Unternehmen alleine den ganzen Markt abdecken. Faktisch sind aber Transaktionskosten nicht null, und sie steigen mit zunehmender Unternehmensgröße an. In der Folge sind damit die maximale Größe und die Wachstumsdynamik der Unternehmen selbst begrenzt. Höhere Transaktionskosten begrenzen also das Wachstum eines Unternehmens, unterstützen so aber die Entstehung von weiteren Unternehmen in derselben Industrie oder sogar einer Zulieferindustrie. Umgekehrt führen sinkende Transaktionskosten im Markt - bspw. durch Nutzung von neuen Technologien wie Blockchain oder der Vernetzung von Marktteilnehmern auf mehrseitigen Plattformen - zu stärkerer Nutzung von dezentralen Markttransaktionen und Unternehmen werden kleiner: Zahlreiche neue Geschäftsmodelle koordinieren ihre notwendigen Ressourcen (bspw. über Freelancer statt über festangestellte Mitarbeiter) ‚im Markt’ statt ‚im Unternehmen’, so dass die Grenzen des einzelnen Unternehmens enger definiert werden und die Unternehmen kleiner sind (Chen und Kamal 2016 sowie Roy und Sarkar 2016). Die Transaktionskosten umfassen alle Kosten, die mit der Anbahnung, dem Abschluss und der Durchführung der Transaktionen und Verträge verbunden sind. Dies sind vor Vertragsabschluss Kosten für Informationsbeschaffung und Vertragsverhandlungen sowie nach Vertragsabschluss für Koordination, Überwachung und Kontrolle der Dienstleistung und der möglichen Risiken aus dem Vertrag (Coase 1937, Williamson 1975, Foss 2003, Hart und Holmstrom 2010 sowie Voigt 2019). Deutlich wird dies bei Make or Buy und Outsourcing- 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 👤👤 <?page no="155"?> Unternehmen, Unternehmensziele und Strategien 155 Entscheidungen - von strategisch irrelevanten Bereichen wie Kantinenbetrieb, Gebäudemanagement oder Lohn- und Gehaltsabrechnung bis hin zu strategisch wesentlichen Bereichen wie Zahlungsverkehrs- und Wertpapierabwicklung bei Banken, Betrieb von IT-Plattformen oder Software. Der Umfang der Transaktionskosten bestimmt dann mit, welche Tätigkeiten im Unternehmen selbst durchgeführt werden. Aus Managementperspektive ist neben der Höhe der Transaktionskosten zentral, die Qualität der am Markt verfügbaren Dienstleistungen und deren strategische Bedeutung zu beurteilen, insbesondere vor dem Hintergrund der Abhängigkeit von Dienstleistern im Zusammenhang mit eigenen Kernkompetenzen. So sorgt die Fremdvergabe des Kantinenbetriebs vielleicht für kurzfristigen Unmut bei den Mitarbeitern, das Outsourcing der IT eines Telekommunikationsanbieters kann aber mitentscheidend über Überlebensfähigkeit und Gewinn sein. Unternehmensziele Unternehmen können sich bisweilen ihre Ziele frei definieren: „Marktführer“, „höchste Kundenzufriedenheit“, „Wachstum in Asien“ oder auch „beste Unternehmenskultur“. Aus ökonomischer Perspektive sind diese Ziele - wenn überhaupt - Mittel zum Zweck. Unternehmen können dauerhaft nur existieren, wenn Strategien auf das Ziel der Gewinnerzielung ausgerichtet sind. Aus mikroökonomischem Blickwinkel wird daher die  Überlebensfähigkeit eines Unternehmens und dessen Profitabilität  in Abhängigkeit vom Wettbewerbsumfeld (Market-based View)  auf Basis der Ressourcen und Fähigkeiten eines Unternehmens (Resource-based View)  und dessen Innovations- und Entwicklungsfähigkeit betrachtet. Die Überlebensfähigkeit eines Unternehmens ist insbesondere dann gesichert, wenn dauerhaft ökonomische Gewinne erzielt werden und die Eigenkapitalgeber eine, ihren Erwartungen entsprechende, Rendite auf das eingesetzte Kapital erhalten. Aus statischer Perspektive - und ohne Berücksichtigung von Rechnungslegungsvorschriften, Steuern oder Bilanzeffekten - ergeben sich Gewinne 𝜋𝜋𝜋𝜋 eines Unternehmens in jedem Zeitpunkt aus der Differenz von Erlösen 𝑅𝑅𝑅𝑅 abzüglich der Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 als (4.1) 𝜋𝜋𝜋𝜋 = 𝑅𝑅𝑅𝑅 − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 . Die Erlöse 𝑅𝑅𝑅𝑅 entsprechen dem Preis 𝑝𝑝𝑝𝑝 multipliziert mit der Produktionsmenge 𝑞𝑞𝑞𝑞 , die Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 fassen alle Kosten des Unternehmens für Arbeit und Kapital zusammen (vgl. weiterführend ► Kapitel 6). Insbesondere sind in den Gesamtkosten aus ökonomischer Perspektive auch die Eigenkapitalkosten enthalten, welche die Renditeerwartung der Eigentümer (bei kapitalmarktorientierten oder -notierten Unternehmen in Form von Dividenden) widerspiegeln: Betriebswirtschaftlicher Gewinn (vor Opportunitätskosten in Form einer Ausschüttung an die Eigenkapitalgeber) weicht deshalb von ökonomischem Gewinn ab. Langfristig und in dynamischer Sicht sind aus Eigentümerperspektive der Erhalt des Unternehmens zur regelmäßigen Erzielung von Gewinnen und die Maximierung des Unternehmenswertes das übergeordnete Ziel. Der Unternehmenswert 𝐸𝐸𝐸𝐸 entspricht der Summe aller diskontierten künftigen Gewinne 𝜋𝜋𝜋𝜋 𝑝𝑝𝑝𝑝 <?page no="156"?> Unternehmen, Wettbewerb und Innovationen 156 (4.2) 𝐸𝐸𝐸𝐸 = ∑ 𝜋𝜋𝜋𝜋𝑡𝑡𝑡𝑡 (1+𝑝𝑝𝑝𝑝𝑡𝑡𝑡𝑡)𝑡𝑡𝑡𝑡 𝑝𝑝𝑝𝑝=∞ 𝑝𝑝𝑝𝑝=0 = 𝜋𝜋𝜋𝜋 0 + 𝜋𝜋𝜋𝜋1 (1+𝑝𝑝𝑝𝑝1) + 𝜋𝜋𝜋𝜋2 (1+𝑝𝑝𝑝𝑝2)2 +. . + 𝜋𝜋𝜋𝜋𝑛𝑛𝑛𝑛 (1+𝑝𝑝𝑝𝑝𝑛𝑛𝑛𝑛)𝑛𝑛𝑛𝑛 +. . + 𝜋𝜋𝜋𝜋∞ (1+𝑝𝑝𝑝𝑝∞)∞ . Mit zunehmender zeitlicher Entfernung nimmt der diskontierte Beitrag der Gewinne zum aktuellen Unternehmenswert ab. Daraus lässt sich als Faustregel einfach ableiten, dass bei konstanter Gewinnerwartung, 𝜋𝜋𝜋𝜋 0 = 𝜋𝜋𝜋𝜋 1 = ⋯ = 𝜋𝜋𝜋𝜋 ∞ , in der Zukunft und bei gleichbleibendem Diskontierungsfaktor, 𝑟𝑟𝑟𝑟 0 = 𝑟𝑟𝑟𝑟 1 = ⋯ = 𝑟𝑟𝑟𝑟 ∞ , der Unternehmenswert (4.2) auf Basis einer unendlichen Reihe zu (4.3) 𝐸𝐸𝐸𝐸 = 𝜋𝜋𝜋𝜋 0 + 𝜋𝜋𝜋𝜋1 (1+𝑝𝑝𝑝𝑝1) + 𝜋𝜋𝜋𝜋2 (1+𝑝𝑝𝑝𝑝2)2 +. . + 𝜋𝜋𝜋𝜋𝑛𝑛𝑛𝑛 (1+𝑝𝑝𝑝𝑝𝑛𝑛𝑛𝑛)𝑛𝑛𝑛𝑛 +. . + 𝜋𝜋𝜋𝜋∞ (1+𝑝𝑝𝑝𝑝∞)∞ = 𝜋𝜋𝜋𝜋𝑝𝑝𝑝𝑝 umformuliert werden kann. Der Diskontierungsfaktor 𝑟𝑟𝑟𝑟 𝑝𝑝𝑝𝑝 der künftigen Gewinne (4.4) 𝑟𝑟𝑟𝑟 𝑝𝑝𝑝𝑝 = 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸 ⋅ 𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻 + 𝐹𝐹𝐹𝐹𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸 ⋅ 𝑟𝑟𝑟𝑟 𝐷𝐷𝐷𝐷 = 𝑊𝑊𝑊𝑊𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝑝𝑝𝑝𝑝 für jeden Zeitpunkt 𝑡𝑡𝑡𝑡 ergibt sich aus den durchschnittlichen Fremdkapitalkosten 𝑟𝑟𝑟𝑟 𝐷𝐷𝐷𝐷 (bspw. aufgrund der Zinssätze von Krediten und Anleihen) und den Eigenkapitalkosten 𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻 gewichtet mit den jeweiligen Anteilen des Eigenkapitals 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 und des Fremdkapitals 𝐹𝐹𝐹𝐹𝐸𝐸𝐸𝐸 am Gesamtkapital 𝐸𝐸𝐸𝐸 = 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 + 𝐹𝐹𝐹𝐹𝐸𝐸𝐸𝐸 eines Unternehmens. Die Eigenkapitalkosten 𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻 ergeben sich als Opportunitätskoten aus der Renditeerwartungen der Eigenkapitalgeber auf Basis alternativ möglicher Investitionen (bspw. in andere Unternehmen). Der Diskontierungsfaktor entspricht dem WACC (Weighted Average Cost of Capital), der unternehmensspezifisch bestimmt werden kann. Ein Unternehmen erzielt aus dieser Perspektive einen positiven ökonomischen Gewinn (Economic Profit), wenn die Rentabilität des investierten Kapitals (Return on Invested Capital) über den gewichteten durchschnittlichen Kapitalkosten (WACC) liegt. Die gewichteten Eigen- und Fremdkapitalkosten lagen in Deutschland 2015 bei ca. 9,6 % (mit industriespezifischen Unterschieden und in Abhängigkeit der Finanzierungsstruktur des Unternehmens, KPMG 2016), so dass ein Unternehmen unter der Annahme konstanter Gewinne in Höhe von 100 Mio. EUR (in Form eines Free Cashflow) dann entsprechend (4.2) und (4.4) mit (4.5) 𝐸𝐸𝐸𝐸 = 100 (1+0,096)0 + 100 (1+0,096)1 +. . + 100 (1+0,096)20 +. . + 100 (1+0,096)∞ = 100 1 + 100 1,096 +. . + 100 6,255 +. . + 100 ∞ = 100 + 91,241+. . +15,988+. . +0 = 1.041,67 einen indikativen Unternehmenswert von 1,041 Mrd. EUR hat - oder einfacher über (4.3) als 𝐸𝐸𝐸𝐸 = 100/ 0,096 = 1.041,667 . Liegt der tatsächliche Unternehmenswert (bspw. gemessen durch Marktkapitalisierung an der Börse) darüber, dann liegen offenbar am Kapitalmarkt steigende Gewinnerwartungen vor, et vice versa. Steigende Gewinnerwartungen oder fallende Kapitalkosten erhöhen den Unternehmenswert und perspektivisch den Aktienkurs eines kapitalmarktnotierten Unternehmens. Aus langfristiger Perspektive sind alle Managemententscheidungen auf die Steigerung des Unternehmenswertes ausgerichtet. In kapitalmarktorientierten Unternehmen ist dabei eine Trennung von Eigentum und Management die Regel: Anteilseigner delegieren Entscheidungen an angestellte Manager, gleichzeitig werden diese durch geeignete Gremien (Hauptversammlung oder Ausschüsse eines Aufsichtsrates) überwacht. In Unternehmen entstehen so Entscheidungskonflikte über die Gewichtung kurz- und langfristiger Ziele, insbesondere <?page no="157"?> Unternehmen, Unternehmensziele und Strategien 157 weil angestellte Manager kurzfristige Ziele im Rahmen ihrer Bonusregelungen verfolgen, Eigentümer aber allein am langfristigen Unternehmenswert interessiert sind. Gewinnmaximierung und Überlebensfähigkeit Zur analytischen Vereinfachung wird unterstellt, dass Unternehmen kurzfristig Gewinne und langfristig den Unternehmenswert maximieren - so kann sehr einfach ein mathematisches Instrumentarium zur (auch im Wortsinne mathematischen) Ableitung einer bestmöglichen Strategie herangezogen werden. Tatsächlich muss ein Unternehmen dazu vollständige Informationen über alle denkbaren Strategien sowie perfekte Voraussicht besitzen, vollständig rational eine Strategie auswählen und diese auch präzise umsetzen können. Analog zu dieser Argumentation wird das Verhalten der Unternehmen interpretiert, „als ob“ sie den Gewinn maximieren: Es spielt auf kurze Sicht keine Rolle, ob alle Unternehmen ex ante tatsächlich den Gewinn maximieren, denn langfristig bleiben nur solche Verhaltensweisen und Unternehmen überlebensfähig, die tatsächlich optimale Strategien entwickeln und sich an veränderte Wettbewerbs- und Umweltbedingungen anpassen und schließlich ex post gewinnmaximierendes Verhalten aufweisen. Hierfür gibt es empirisch keine eindeutige Bestätigung, zudem können Unternehmen zumindest temporär andere Ziele priorisieren (Marktanteile, Corporate Social Responsibility, Empire-Building durch Unternehmenszusammenschlüsse, Technologieführerschaft und einige mehr). Gegen die Hypothese der Gewinnmaximierung selbst - ob in der absoluten oder abgeschwächten „als ob“-Version - werden zahlreiche empirische Beobachtungen und theoretische Überlegungen angeführt. Für das Überleben eines Unternehmens sind Gewinne notwendig, nicht aber Gewinnmaximierung. Allerdings sind Gewinne nicht hinreichend für das Überleben eines Unternehmens: Beobachten strategische Investoren oder Finanzinvestoren, dass ein Unternehmen sein Gewinnpotenzial nicht ausschöpft, kann es zu einer feindlichen Unternehmensübernahme (Hostile Takeover) kommen. Hier werden Eigentümer und Management des Unternehmens ersetzt, um eine Steigerung des Gewinns und Unternehmenswertes zu erreichen - zumindest der Versuch der Gewinnmaximierung kann also die Chancen auf Eigenständigkeit eines Unternehmens verstärken.  Fragen │ Gewinne und Nachhaltigkeit - schließt sich das nicht aus? Unternehmen - gerade geprägt durch ein zu starkes oder alleiniges Ziel der Gewinnmaximierung - sehen sich durch Gesellschaft und Politik immer wieder herausgefordert, ihre Zielsetzungen zu überprüfen und zu erklären, gerade bei geplantem Stellenabbau oder vor dem Hintergrund des Klimawandels. Für Aktiengesellschaften in Deutschland scheint die Sache zunächst einfach: Im Aktiengesetz, und wiederholt in der Rechtsprechung entschieden, sind Vorstand und Aufsichtsrat verpflichtet, das Unternehmensinteresse zu vertreten und damit Existenz und Weiterentwicklung des Unternehmens sicherzustellen (weiterführend Hutzschenreuter 2019). <?page no="158"?> Unternehmen, Wettbewerb und Innovationen 158 Tatsächlich stehen Unternehmen aber immer in der Schnittmenge von mindestens zwei Anspruchsgruppen: Den Shareholdern und den Stakeholdern. Aus Shareholder- Perspektive (der kollektiven Sicht von Anteilseignern und Management) dominieren zunächst Gewinn- und Überlebensziel einer Organisation oder eines Unternehmens, aus Stakeholder-Perspektive (die alle andere Anspruchs- oder Interessengruppen eines Unternehmens wie Mitarbeiter, Kunden, Zulieferer aber auch Gewerkschaften, Behörden, Städte und Gemeinden, NGOs oder Klimaaktivisten umfasst) sind die Ziele vielfältig - insbesondere sind aber Zielkonflikte zwischen Stakeholdern und Shareholdern die Regel, da typischerweise aufgrund der Erfüllung von Stakeholder-Interessen die Kosten ansteigen und in der Folge die Gewinne reduziert werden. Unternehmerische Entscheidungen müssen dann, in Abhängigkeit der Intensität des Zielkonfliktes und möglicher Konsequenzen, Interessen und Ziele von Stakeholdern und Shareholdern adressieren. Unternehmensintern ist die Beteiligung von Stakeholdern teilweise formalisiert: So ist in Deutschland im Rahmen des Betriebsverfassungsgesetzes und des Mitbestimmungsgesetzes, in Abhängigkeit der Mitarbeiterzahl, eine Einbindung der Mitarbeiter sowie Informations- und Mitbestimmungsrechte vorgeschrieben. Neue Konzepte versuchen hier integrativ einen Shared Value zu identifizieren, der die Verbindungen der Interessen von unternehmensexternen Stakeholdern und Shareholdern innerhalb einer Gesellschaft betont (weiterführend Hillman und Keim 2001 sowie Porter und Kramer 2011). Eine rein altruistische, an den Interessen der Stakeholder ausgerichtete Unternehmensstrategie führt dazu, dass das Eigenkapital verbraucht wird und das Unternehmen in seiner Existenz bedroht ist. Zudem sind Konflikte zwischen Managern und Anteilseignern zwangsläufig. Auch eine regelmäßig argumentierte intrinsische gesellschaftliche Verantwortung von Unternehmen und Managern dient eher der Besitzstandswahrung und Machterhalt, einer reaktiven Abschottung gegenüber stärkeren Interessen sowie meist der gezielten Bevorzugung einzelner Interessengruppen (weiterführend Wagner 2019). Zur Lösung können zwei Ausgleichsmechanismen eingesetzt werden: Überprüfbare ethische Selbstverpflichtung der Unternehmen und strategische Ausrichtung der Corporate Social Responsibility. Gerade über strategische Maßnahmen, die bspw. auch über Reporting-Verpflichtungen nachvollziehbar dokumentiert sind, können Unternehmen Reputation aufbauen. Wenn diese Maßnahmen und Strategien dann - bspw. über erfüllte ESG (Environment, Social and Corporate Governance)- oder CSR (Corporate Social Responsibility)-Kriterien - auch noch die Zielsetzungen der Anteilseigner abdecken, dann schließen sich Gewinne und Nachhaltigkeit nicht aus (Buchanan et al. 2018). Unabhängig davon kann ein Adressieren sozialer Ziele durch strategische CSR-Maßnahmen natürlich auch die Attraktivität eines Unternehmens für Mitarbeiter oder Kunden erhöhen. Unternehmensstrategien In der wissenschaftlichen Diskussion haben sich drei - nicht widerspruchsfreie und ergänzende - Perspektiven auf Zielsetzungen und Strategien von Unternehmen herausgebildet (Alchian 1950, Alchian und Demsetz 1972, Donaldson 1990, Grant 1996, Nelson und Winter 1982, Rumelt et al. 1991 und Hart 1995): <?page no="159"?> Unternehmen, Unternehmensziele und Strategien 159  Industrieökonomische Perspektive und strategisches Management - Unternehmensziel ist es, den Gewinn (kurzfristig) und den Unternehmenswert (langfristig) zu maximieren. Der Fokus der Untersuchungen im Rahmen von Industrieökonomie und strategischem Management liegt auf der Ableitung oder Begründung optimaler Entscheidungen, um Orientierungspunkte und Leitplanken für Unternehmensentwicklung und Strategieauswahl zu geben - Strategien werden rational abgeleitet und zielen auf Gewinnmaximierung.  Verhaltenswissenschaftliche und evolutorische Perspektive - Unternehmen sind komplexe, sozioökonomische Organisationen, innerhalb derer unterschiedliche und auch widersprüchliche Zielsetzungen (bspw. zwischen Managern oder als Silo-Denken zwischen Abteilungen) existieren. Der Fokus der Analysen liegt auf tatsächlich beobachtetem Verhalten: Manager agieren begrenzt rational und betreiben Satisficing, Entscheidungen basieren pfadabhängig auf bisherigen Entscheidungen, innerhalb des Unternehmens wird kontrovers über Zielsetzungen verhandelt - Strategie basiert auf Routinen und wird von Zufällen beeinflusst.  Corporate-Governance-Perspektive - zahlreiche Unternehmen bestehen aus Eigentümern, Managern und Mitarbeitern. Mit diesen getrennten Rollen gehen Interessen- und Zielkonflikte einher. Es kann insbesondere sein, dass Manager - statt den Gewinn oder Unternehmenswert zu maximieren - mit diskretionärem Handlungsspielraum ihren Status quo und ihre Budgets maximieren, ohne dass dies von Eigentümern beobachtet oder sanktioniert werden kann. Der Fokus der Corporate-Governance-Forschung (zu Regeln und Grundsätzen der Unternehmensführung auf Basis einer Unternehmensverfassung) liegt auf diesen möglichen Interessenkonflikten infolge der Trennung von Management und Eigentümern in kapitalmarktorientierten Unternehmen - Strategie wird von Organisationsstruktur, Hierarchien und Entscheidungsmodellen mitbestimmt. Unternehmensorganisation, Corporate Governance und Principal-Agent Probleme In vielen Unternehmen werden strategische Entscheidungen nicht von einzelnen Menschen getroffen, sondern an Gremien (Vorstandssitzung, Management-Board, Lenkungsausschuss, Bereichsleitermeeting etc.) delegiert - zudem werden diese Entscheidungen oft von angestellten Managern getroffen, nicht von den Eigentümern des Unternehmens. Corporate Governance beschreibt die unternehmensinterne Organisation und Regelung von kollektiven Handlungen - dies umfasst Hierarchien, Entscheidungswege und -befugnisse, den Informationsfluss sowie den rechtlichen oder faktischen Ordnungsrahmen zur Steuerung und Kontrolle eines Unternehmens. Konkret befasst sich Corporate Governance damit, wie auf formaler oder informeller Basis in Unternehmen entschieden und geführt wird, wie Ziele für die Organisation abgeleitet und implementiert werden, wie die interne und externe Kontrolle organisiert ist, und wie Shareholder und Stakeholder darüber informiert oder eingebunden werden (Letza et al. 2005). Gerade die wechselseitigen Abhängigkeiten von unterschiedlichen Shareholder- und Stakeholder-Interessen beeinflussen die Entscheidungen und Strategiewahl von Unternehmen, zumal diese nicht nur formalen und logischen Kriterien genügen müssen, sondern oft von ethischen, moralischen oder emotionalen Perspektiven und Erwartungen überlagert sind. So ist ein aus Shareholder-Perspektive motivierter Stellenabbau mit Standortschließung vielleicht <?page no="160"?> Unternehmen, Wettbewerb und Innovationen 160 eine geeignete Maßnahme, Kosten zu reduzieren und Gewinne zu steigern - aber aus Stakeholder-Perspektive wird damit die Glaubwürdigkeit des Unternehmens reduziert und ggfs. wandern Kunden ab. Um die Überlebensfähigkeit eines Unternehmens zu sichern wird Corporate Governance daher als wesentliches strategisches Element eingesetzt. Corporate Governance gewinnt dabei mit zunehmender Größe eines Unternehmens, mit der Komplexität der Stake- und Shareholder-Beziehungen sowie mit dem Grad der Trennung von Eigentum und Management eines Unternehmens an Bedeutung: Eine Eigentümer-geführte Autowerkstatt mit drei Mitarbeitern trifft Entscheidungen grundlegend anders als ein multinationaler Automobilhersteller mit 500.000 Mitarbeitern. Unternehmensorganisation basiert darauf, dass Aufgaben oder Ziele aufgeteilt oder delegiert werden. Diese Organisation erfolgt einerseits funktional oder divisional, anderseits hierarchisch durch Führung und Delegation. Idealerweise führt Organisation dazu, dass alle Mitarbeiter ständig exakt das richtige tun - die regelmäßig in Unternehmen zu beobachtenden Reorganisationen zeigen, dass diese optimale Aufstellung selten gegeben oder von dauerhaftem Bestand ist. Die Ursachen aus mikroökonomischer Perspektive sind im Wesentlichen mit drei Herausforderungen verbunden:  Unvollständige oder asymmetrische Information,  unvollständige Kontrolle und Überprüfbarkeit sowie  unvollständige oder falsche Anreizstrukturen. Diese drei Herausforderungen werden im Rahmen der Principal-Agent-Theorie diskutiert. Ein Principal ist hier der Auftraggeber oder Entscheider, der Agent ist der Auftragnehmer oder Mitarbeiter - damit sind Strukturen wie zwischen Aufsichtsrat und Vorstand genauso beschrieben wie Situationen zwischen Teamleiter und Teammitglied. Zunächst sind mit der Organisationsstruktur von Unternehmen im Zusammenspiel mit unvollständiger Information wesentliche Problemstellungen verbunden, welche die Implementierung von Strategien erschweren oder Kosten verursachen. Jedes größere Unternehmen ist in Teams (Abteilungen oder Bereichen) organisiert. Damit geht einher, dass ein Ergebnis innerhalb eines Teams gemeinsam erzielt wird, aber eine Identifikation und Messung des individuellen Beitrags eines Teammitglieds erschwert wird. Dies voraussehend wird jedes Teammitglied einen nicht-optimalen individuellen Arbeitseinsatz erbringen - in der Erwartung oder Hoffnung, vom Teamergebnis zu profitieren. Unternehmen können diesem Free-Rider Problem durch verbessertes Monitoring der Einzelleistung oder anreizkompatible Kombination aus Team- und Individual-Boni entgegenwirken (Alchian und Demsetz 1976 sowie Grant 2016). Dieses Problem ist nicht auf Produktions- oder Dienstleistungsprozesse beschränkt: Entscheidungen werden auch in Vorständen oder von Geschäftsführern typischerweise in Teams ‚gemeinschaftlich‘ getroffen und abgestimmt, so dass auch hier fehlende Anreize zur Risiko-, Verantwortungs- oder Entscheidungsübernahme vorhanden sind und oftmals Entscheidungen an Gremien und Ausschüsse delegiert werden (Baysinger und Hoskisson 1990 sowie Hillman und Dalziel 2003). Zudem haben Anteilseigner, Manager und Mitarbeiter unterschiedliche Anreizstrukturen und Ziele. Die Anteilseigner sind wesentlich an einem hohen Unternehmenswert und langfris- <?page no="161"?> Unternehmen, Unternehmensziele und Strategien 161 tigem Überleben des Unternehmens interessiert, tragen Risiken und übernehmen Haftung. Manager dagegen fokussieren auf hohes Einkommen und Gestaltungs- und Entscheidungsspielräume, sind nur begrenzt bereit, Risiken und Haftung zu übernehmen - durch die Trennung von Eigentum und Management eines Unternehmens sind also Zielkonflikte begründet. Mitarbeiter dagegen sind auf einen langfristig sicheren Job aus, tragen kein Risiko und keine Haftung, sind aber meist auch mit geringeren Einkommen zufrieden. Bei vollständiger Informationen könnte man die unterschiedlichen Anreizstrukturen und Ziele durch perfekte Vertragskonstellationen abbilden, d.h. eine Kongruenz aller Ziele und Anreize herbeiführen. Allerdings lassen sich die Verträge zwischen Anteilseignern und Managern einerseits und Managern und Mitarbeitern andererseits nicht vollständig spezifizieren - weder sind die Tätigkeiten eindeutig und abschließend beschrieben, noch sind die Ziele vor dem Hintergrund dynamischer und unvorhersehbarer Umweltbedingungen eindeutig und vollständig festgelegt. In der Folge entsteht das sogenannte Principal-Agent-Problem (Jensen und Meckling 1976, Fama 1980, Eisenhardt 1989 und Voigt 2019): Ein Auftragnehmer (der Agent) verfügt typischerweise über umfangreichere oder bessere Informationen als der Auftraggeber (der Principal) - bspw. betreffend den Schwierigkeitsgrad einer Aufgabe oder die tatsächliche Zielerreichung oder Produktivität, und eine vollständige Kontrolle oder Überwachung des Agent ist für den Principal ineffizient oder unmöglich. Diese Informationsasymmetrie verschafft dem Agent diskretionären Handlungsspielraum, den dieser zu seinem Vorteil nutzen kann und dabei zwei Probleme in der Organisation eines Unternehmens verursacht - adverse Selektion und moralisches Fehlverhalten (Moral Hazard) - die nur durch entsprechende Maßnahmen reduziert werden können. Die damit verbundenen Kosten sind sogenannte Agency- Kosten. Adverse Selektion kann entstehen, wenn Auftraggeber oder Arbeitgeber die Fähigkeiten, die Ziele oder die Motivation eines Mitarbeiters vor Vertragsabschluss nicht eindeutig feststellen können. Adverse Selektion basiert auf verborgenen Eigenschaften (Hidden Characteristics) des Agents, die vor Vertragsabschluss nicht erkennbar sind, nach Vertragsabschluss aber sichtbar werden. Das Risiko adverser Selektion bei Einstellungen neuer Mitarbeiter wird in Unternehmen meist durch zwei Maßnahmen reduziert - Mitarbeiter signalisieren (Signaling) durch Abschluss- und bisherige Arbeitszeugnisse ihre individuelle Fähigkeit, Unternehmen prüfen (Screening) die tatsächlichen Fähigkeiten im Rahmen eines aufwendigen Auswahlprozesses und in der Probezeit. Moralisches Fehlverhalten kann nach Vertragsabschluss entstehen, wenn ein Agent bei der Ausübung einer Tätigkeit nicht alle damit verbundenen Kosten oder Risiken tragen muss, weil der Principal nicht in der Lage ist zu beurteilen, in welcher Weise der Agent für das Ergebnis - bspw. die Zielerreichung oder auch die Zielverfehlung - verantwortlich ist. So sind Anteilseigner (die Principals) aufgrund von Informationsasymmetrie meist nicht in der Lage zu beurteilen, ob der Gewinnrückgang eines Unternehmens durch unzureichende Leistung der Manager (der Agenten) oder durch externe Einflüsse wie konjunkturellen Nachfragerückgang oder strategisches Verhalten der Wettbewerber begründet ist. Da die Manager diesen Zusammenhang erkennen, werden sie nur Informationen weitergeben, die ihnen nützt und andere Information zurückhalten (Hidden Information). Zudem werden Manager opportunistisch <?page no="162"?> Unternehmen, Wettbewerb und Innovationen 162 aufgrund der Unmöglichkeit vollständiger Kontrolle durch die Anteilseigner diskretionären Handlungsspielraum (Hidden Action) nutzen, der nicht mit dem Zielen der Anteilseigner kongruent ist: Unternehmens-Offsites in Luxushotels, Beschäftigung von Familienmitgliedern, Abrechnung von Geschäftsessen, Selbstdarstellung in Medien oder private Nutzung von Unternehmensressourcen. Das Risiko von moralischem Fehlverhalten lässt sich reduzieren, wenn eine Zielkongruenz auf Basis geeigneter Anreizstrukturen zwischen Principal und Agent hergestellt werden kann. Dies kann bspw. durch Beteiligung der Manager an Gewinn und Unternehmenswert (Stock Options oder Aktien) erfolgen, ergänzt durch eine Verbesserung der Corporate Governance (der Einhaltung von Leitlinien für gute Unternehmensführung wie bspw. im Deutschen Corporate Governance Kodex, interne und externe Audits, Reportingverpflichtungen und eine adäquate Vorstands- und Aufsichtsratsstruktur) und entsprechenden Sanktionsmöglichkeiten bei Verletzung von Leit- und Richtlinien. Zudem erfolgt eine externe Überwachung: Manager, die nicht hinreichend gute Entscheidungen treffen, werden extern durch den Aktienkurs und durch Analysten von Investmentbanken bewertet. Kommt es dann zu einer Unternehmensübernahme aufgrund schlechter Managementleistung (Market for Corporate Control), bei der die neuen Anteilseigner die Profitabilität des Unternehmens erhöhen wollen, wird das Management ersetzt. Strategie aus evolutorischer Sicht Zusammengenommen ist infrage zu stellen, ob Unternehmen tatsächlich die Zielsetzung verfolgen, den Gewinn zu maximieren (oder andere Größen wie Marktanteil des Unternehmens oder den Status quo und das Gehalt der Manager) und ob ihnen dies generell möglich ist, insbesondere ob alle notwendigen Informationen vorliegen und diese auch für optimale Entscheidungen verwendet werden. In der Regel wird man in Industrien über die Unternehmen hinweg eine Vielfalt an Strategien beobachten können, die zumindest kurzfristig evolutorisch koexistieren, ohne jeweils gewinnmaximierend zu sein (Jovanovic 1982, Malerba und Orsenigo 1996 sowie Münter 1999). Die Wettbewerbsintensität bestimmt dann darüber, ob und wie schnell nicht optimale Strategien aussortiert werden: „If one thinks within the frame of evolutionary theory, it is nonsense to presume that a firm can calculate an actual ‘best’ strategy. […] There are certain characteristics of a firm's strategy, and of its associated structure, that management can have confidence will enhance the chances that it will develop the capabilities it needs to succeed. […] there is a lot of room in between, where a firm (or its management) simply has to lay its bets knowing that it does not know how they will turn out. Thus diversity of firms is just what one would expect under evolutionary theory. It is virtually inevitable that firms will choose somewhat different strategies […]. Inevitably firms will pursue somewhat different paths. Some will prove profitable, given what other firms are doing and the way markets evolve, others not. Firms that systematically lose money will have to change their strategy and structure and develop new core capabilities, or operate the ones they have more effectively, or drop out of the contest.” (Nelson 1991, S. 69). <?page no="163"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 163 In empirischen Studien wird regelmäßig nicht nur Vielfalt der Strategien beobachtet: Tatsächlich zeigt sich sowohl über Unternehmen einer Industrie hinweg, als auch innerhalb eines Unternehmens über unterschiedliche Standorte hinweg große Heterogenität an Management-Methoden, die sich deutlich in Produktivitätsunterschiede niederschlagen (Bloom et al. 2019). 4.2 Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten Der dauerhafte Erfolg von Unternehmen basiert auf einer Kombination der richtigen Strategie und dem Ausnutzen von unternehmens- oder industriespezifischen Wettbewerbsvorteilen. Temporäre oder dauerhafte Wettbewerbsvorteile schlagen sich dabei in relativ höhere Gewinne eines Unternehmens nieder, weil das Unternehmen entweder  höhere Preise als die Wettbewerber aufgrund höherer Zahlungsbereitschaft der Kunden, Qualität der Produkte oder Produktdifferenzierung durchsetzen kann,  geringere Kosten auf Basis von Economies of Scale, Economies of Scope oder kostengünstigerem Zugang zu Arbeits- und Kapitalmarkt hat, oder aufgrund von  Positionierung im Wettbewerbsumfeld oder unternehmensspezifischen Fähigkeiten nicht angreifbar ist. Unternehmen wenden Strategien an, um auf Basis dieser Wettbewerbsvorteile ihre jeweiligen Ziele zu erreichen. Strategie kann allgemein beschrieben werden als  die langfristige Ausrichtung eines Unternehmens und die Leitplanken aller Entscheidungen und Stoßrichtung aller Aktivitäten,  unter Berücksichtigung der Marktstruktur und möglicher Strategien aller Wettbewerber,  um Wettbewerbsvorteile auf Basis und durch Gestaltung der unternehmensspezifischen Fähigkeiten in einem dynamischen Wettbewerbsumfeld auszunutzen oder zu realisieren  mit dem übergeordneten Ziel, robuste Profitabilität und die Überlebensfähigkeit des Unternehmens zu sichern. Strategie stellt immer eine Hypothese dar, die sich in künftiger Entwicklung als richtig oder falsch herausstellt (Porter 1996, Rumelt und Lamb 1997 sowie Rumelt 2011). Auf welcher Basis Unternehmen ihre heterogenen Strategien bestimmen, entwickeln und anwenden, wie die Wettbewerbsvorteile begründet sind und weshalb Gewinne erzielt werden, kann aus zwei - sich wiederum ergänzenden - Perspektiven erklärt werden: Positionierung im Wettbewerb und unternehmensspezifische Fähigkeiten.  Market-based View (marktorientierter Strategieansatz) - der Erfolg eines Unternehmens ist maßgeblich durch die richtige Positionierung innerhalb der Marktstruktur, das strategische Verhalten des Unternehmens und die Attraktivität des Marktes geprägt. Wettbewerbsvorteile ergeben sich daraus, „im richtigen Markt“ zu sein.  Resource-based View (ressourcenorientierter Strategieansatz) - der Erfolg eines Unternehmens ist maßgeblich durch die unternehmensspezifischen Fähigkeiten, die vorhan- <?page no="164"?> Unternehmen, Wettbewerb und Innovationen 164 denen Kernkompetenzen sowie deren Weiterentwicklung geprägt. Wettbewerbsvorteile ergeben sich daraus, „die richtigen Fähigkeiten“ zu besitzen. Market-based View als Erklärung für Wettbewerbsvorteile Wettbewerbsvorteile können durch das Wettbewerbsumfeld unterstützt werden. Im Marketbased View adaptieren Unternehmen Marktchancen, die sie aufgrund der Markt- und Wettbewerbsanalyse erkannt haben. In der Konsequenz existiert ein Unternehmen als Abbildung einer Marktchance und positioniert sich in einem attraktiven Markt oder Marktsegment. Die Gewinne selbst sind wesentlich durch das Wettbewerbsumfeld und die Attraktivität des Marktes bedingt, bspw. eine generell hohe Zahlungsbereitschaft bei geringer Preiselastizität der Nachfrage oder aufgrund vorhandener Trends und Marktwachstum, und Markteintritte neuer Unternehmen finden aufgrund umfangreicher Eintrittsbarrieren nicht statt. Das Wettbewerbsumfeld lässt sich dabei durch makroökonomische, politisch-rechtliche, technologische und soziologische Einflussfaktoren und Rahmenbedingungen beschreiben und bestimmt im Wesentlichen im internationalen Vergleich Unterschiede in der Attraktivität von Märkten. Unternehmen einer Industrie weisen dementsprechend eine ähnliche Profitabilität oder Eigenkapitalrentabilität auf, da diese deutlich durch den Markt sowie das Wettbewerbsumfeld und nur in geringer Weise durch die spezifischen Fähigkeiten der Unternehmen bestimmt werden. So haben 2012 bis 2016 im Großraum München alle privaten Klinikbetreiber von positiven Marktbedingungen infolge von chinesischem und arabischem Medizintourismus profitiert, in gleicher Weise konnte sich in den Jahren 2010 bis 2016 kein deutscher Energieversorger den negativen Markteffekten der Energiewende entziehen. Umgekehrt unterscheidet sich die Profitabilität über verschiedene Märkte und Industrien hinweg - so weisen Unternehmen in der Pharma-, Telekommunikations- oder Finanzdienstleistungsindustrie systematisch höhere Gewinne auf als Fluggesellschaften oder Callcenter. Strategieentwicklung aus Perspektive des Market-based View konzentriert sich darauf, den „richtigen Markt“ zu finden: Durch Analysen zu Wettbewerbs- und Marktposition, Identifikation und Analyse von Chancen und Risiken im Marktumfeld sowie die Existenz und der Aufbau von Markteintrittsbarrieren. In der Folge investieren die Unternehmen bspw. stark in Eintrittsbarrieren, um die eigene Positionierung abzusichern, aber weniger in die Fähigkeiten der eigenen Mitarbeiter durch Fort- und Weiterbildung. Der Market-based View erklärt bspw. die extrem hohe Profitabilität aller Bratwurststände am Nürnberger Christkindlesmarkt in identischer Höhe. Der Markt ist aufgrund hoher Zahlungsbereitschaft der Kunden attraktiv, der Marktzutritt für Wettbewerber ist aufgrund behördlicher Genehmigung unterbunden und die notwendigen Kernkompetenzen (die Beschaffung und das Grillen von Bratwürsten sowie das Entgegennehmen von Bargeld) sind nahezu irrelevant. In gleicher Weise ist ein Bierzelt auf dem Münchner Oktoberfest profitabler, als ein Bierzelt gleich Größe in Saarbrücken. Marktstruktur und Structure-Conduct-Performance-Framework Analysen im Market-based View sind geleitet durch das Structure-Conduct-Perfomance- Framework (Bain 1956, Mason 1939, Porter 1981, Barney 1986 und Geroski 1990), das wesentliche empirische Erkenntnisse der industrieökonomischen Forschung zu Marktstruktur, <?page no="165"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 165 Erfolgsfaktoren von Unternehmen und deren Gewinnen zusammenfasst, wie in ► Abbildung 4.2 dargestellt. Abbildung 4.2: Structure-Conduct-Performance-Framework. Aus SCP-Perspektive beeinflussen exogene Faktoren wie das politische, ökonomische, soziale und rechtliche Wettbewerbsumfeld die allgemeine Nachfragestruktur und Marktgröße sowie technologische Möglichkeiten den Wettbewerb innerhalb einer Industrie. Die Marktstruktur bestimmt dann maßgeblich das Zusammenspiel der Unternehmensstrategien und diese in der Folge das Marktergebnis und den Erfolg einzelner Unternehmen, bspw. die Gewinne der Unternehmen, aber auch deren Wachstum. Damit ist klar, dass aus dem Marktergebnis Rückkopplungen auf Strategien auf Marktstruktur entstehen, so dass das SCP-Framework die wechselseitigen Abhängigkeiten im Wettbewerb beschreibt. Zahl und Größenverteilung der Unternehmen (horizontale Konzentration) Eintrittsbarrieren und industriespezifische Kostenstrukturen Produkteigenschaften und -differenzierung Structure Marktstruktur Conduct Strategien der Unternehmen Performance Profitabilität der Unternehmen Strategische Ausrichtung und Verhalten sowie Organisation der Unternehmen Preismodelle und -strategien Produktstrategie und Marketing F&E-Aufwand und Innovationsziele Gewinne und Profitabilität (RoE, etc.) Unternehmenswachstum Effizienz (ökonomische Wohlfahrt) und Preise technologischer Fortschritt und Innovationsergebnisse (Produkt vs. Prozess) Nachfragestruktur PEST- Umweltbedingungen S C P technologische Möglichkeiten Appropriierungsbedingungen <?page no="166"?> Unternehmen, Wettbewerb und Innovationen 166 Abbildung 4.3: Marktstruktur, Produktdifferenzierung und Wettbewerbsintensität. Marktstruktur beschreibt, wie in ► Abbildung 4.3 zu sehen, die Zahl und Größenverteilung der Unternehmen innerhalb einer Industrie - im einfachsten Fall von einem Unternehmen (einem Monopol) über wenige Unternehmen (in einem Oligopol) bis hin zu vielen Unternehmen (in vollständiger Konkurrenz). Damit sind allerdings weitreichende strategische Implikationen verbunden:  Monopol oder marktbeherrschendes Unternehmen - das Unternehmen befindet sich alleine auf dem Markt oder besitzt einen überragenden Marktanteil. Derartige Unternehmen sind im Prinzip frei in ihrer Strategiewahl, da Rückwirkungen (auch potenzieller) Wettbewerber ausbleiben - die Wettbewerbsintensität ist sehr gering (vgl. weiterführend ► Kapitel 7 und ► Kapitel 8). Unternehmen können sehr hohe Gewinne erzielen, aber aufgrund fehlender Konkurrenz ist oftmals auch Ineffizienz zu beobachten.  Wettbewerb im Oligopol - die Unternehmen stehen in wechselseitiger strategischer Interaktion, so dass jedes Unternehmen bei der Wahl der eigenen Strategie die Strategien der Wettbewerber berücksichtigt - die Wettbewerbsintensität nimmt mit steigender Unternehmenszahl ceteris paribus zu und wird bestimmt von strategischem Verhalten der Unternehmen (vgl. weiterführend ► Kapitel 9 und ► Kapitel 10). Unternehmensgewinne sind typisch, die Höhe hängt aber wesentlich vor der Art des Wettbewerbs ab.  Unternehmen bei vollständiger Konkurrenz - relativ zur Größe des Marktes sind alle Unternehmen klein, die Produkte unterscheiden sich aus Kundenperspektive nicht wahrnehmbar. Durch die Wettbewerbssituation und das Verhalten der Wettbewerber ist das eigene strategische Verhalten eingeengt und vorbestimmt - die Wettbewerbsintensität ist sehr hoch (vgl. weiterführend ► Kapitel 7). Unternehmen erzielen allenfalls temporär Gewinne, die Profitabilität liegt nahe bei Null. Die Rahmenbedingungen des Wettbewerbsprozesses und die Marktstruktur selbst sind wesentliche Determinanten möglicher Strategien und des Verhaltens der Unternehmen - Produktdifferenzierung homogene Produkte Monopol Oligopol vollständige Konkurrenz Automobile, Unterhaltungselektronik, Pharmaunternehmen Restaurants, Musik, Wohnungen, … nationale Fußballligen, Suchmaschinen Transport, Energie, Bahn, Banking, Telekommunikation kostenlose E-Mail-Services, Gemüse, Blumen, … soziale Netzwerke, Börsen, Betriebssysteme Marktstruktur zunehmende Wettbewerbsintensität zunehmende Wettbewerbsintensität <?page no="167"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 167 bspw. nimmt mit der Zahl der Unternehmen die Wettbewerbsintensität zu, mit höherem Grad an Produktdifferenzierung nimmt sie ab. Horizontale Konzentration und Wettbewerbsintensität Industrien unterscheiden sich in ihrer horizontalen Konzentration der Verteilung der Marktanteile. Marktanteile können hoch konzentriert bei wenigen Unternehmen sein (wie bspw. in der deutschen Mobilfunkindustrie mit vier Anbietern Telefónica, Vodafone, 1&1 Drillisch und Deutsche Telekom) oder niedrig konzentriert bei vielen kleinen Unternehmen mit minimalen Marktanteilen (wie bspw. Restaurants, Wohnungsvermieter oder Bäckereien). Die Konzentration wird bestimmt durch die Dynamik der Zahl der Anbieter und die Veränderung der Marktanteile im Zeitablauf, ob also viele Unternehmen in den Markt ein- oder austreten, und wie unterschiedlich die Wachstumsraten sind. Empirisch zeigt sich, dass Gewinne der Unternehmen umso höher sind, je höher die horizontale Konzentration einer Industrie ist, und dass Gewinne einzelner Unternehmen positiv mit Marktanteilen korreliert sind. Hohe Wettbewerbsintensität ist für viele Unternehmen der stärkste Treiber, neue Strategien zu entwickeln, Innovationen umzusetzen oder Kosten zu senken - aber wie kann die Wettbewerbsintensität einer Industrie abgeschätzt und ermittelt werden? Tatsächlich lässt sich die Wettbewerbsintensität in vielen Industrien nur unscharf beschreiben und nicht direkt messen. Ursache hierfür ist die Vielfalt möglicher Unternehmensstrategien und die Rahmenbedingungen in einzelnen Märkten. Allerdings kann man auf die Wettbewerbsintensität indirekt aus der oft gut beobachtbaren Marktstruktur rückschließen. Marktstruktur beschreibt die Anzahl und Größenverteilung der Unternehmen einer Industrie. Um Marktstruktur messbar und damit über verschiedene Industrien vergleichbar zu machen, werden Konzentrationsindizes und Konzentrationsraten verwendet. Horizontale Konzentration beschreibt dabei, wie stark große Marktanteile bei wenigen Unternehmen einer Industrie liegen. Üblich sind dabei zwei Arten von Maßen: Konzentrationsraten und Konzentrationsindizes. Konzentrationsraten beschreiben die Summe der Marktanteile 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 = 𝑞𝑞𝑞𝑞𝑖𝑖𝑖𝑖 𝑄𝑄𝑄𝑄 der größten Unternehmen, bspw. als 𝑨𝑨𝑨𝑨𝑪𝑪𝑪𝑪 -Konzentrationsrate (4.6) 𝐶𝐶𝐶𝐶4 = 𝑆𝑆𝑆𝑆 1 + 𝑆𝑆𝑆𝑆 2 +𝑆𝑆𝑆𝑆 3 +𝑆𝑆𝑆𝑆 4 = ∑ 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 4𝑃𝑃𝑃𝑃=1 die aufsummierten Marktanteile der vier größten Unternehmen einer Industrie. Dieser Wert strebt gegen 0, wenn bei sehr großer Zahl an Unternehmen in einer Industrie auch die vier größten Unternehmen Marktanteile nahe 0 % haben - umgekehrt beträgt der Wert 1, wenn es nur vier Unternehmen in dieser Industrie gibt. Wesentlicher Vorteil dieser Konzentrationsrate ist, dass sie meist einfach zu berechnen und gut nachvollziehbar ist - allerdings wird die Verteilung der Marktanteile kleinerer Unternehmen nicht berücksichtigt, und ggfs. ist der Wert 𝐶𝐶𝐶𝐶4 durch ein größtes Unternehmen (bspw. Google bei Suchmaschinen in Deutschland) deutlich verzerrt. Deshalb wird - wenn die Daten aller Unternehmen vorliegen - horizontale Konzentration einer Industrie häufig durch den Herfindahl-Index (4.7) 𝐻𝐻𝐻𝐻 = 𝑆𝑆𝑆𝑆 12 + 𝑆𝑆𝑆𝑆 22 +𝑆𝑆𝑆𝑆 32 + ⋯ + 𝑆𝑆𝑆𝑆 𝑝𝑝𝑝𝑝2 = ∑ 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃2 𝑝𝑝𝑝𝑝 𝑃𝑃𝑃𝑃=1 <?page no="168"?> Unternehmen, Wettbewerb und Innovationen 168 der Summe der quadrierten Marktanteile 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 aller 𝑆𝑆𝑆𝑆 Unternehmen ausgedrückt, der sich alternativ bei einer Anzahl der Unternehmen 𝑆𝑆𝑆𝑆 und einer Varianz 𝜎𝜎𝜎𝜎 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 2 = 1 𝑝𝑝𝑝𝑝 ∑ (𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 − 𝑆𝑆𝑆𝑆̅) 2 𝑝𝑝𝑝𝑝𝑃𝑃𝑃𝑃=1 der Marktanteile 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 als (4.8) 𝐻𝐻𝐻𝐻 = 1 𝑝𝑝𝑝𝑝 + 𝑆𝑆𝑆𝑆𝜎𝜎𝜎𝜎 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 2 ergibt. Der Term 𝑆𝑆𝑆𝑆̅ = 1/ 𝑆𝑆𝑆𝑆 gibt dabei die durchschnittliche Unternehmensgröße an und stellt für 𝜎𝜎𝜎𝜎 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 2 = 0 (also gleich große Unternehmen) ein Mindestmaß und damit eine Untergrenze der horizontalen Konzentration in Abhängigkeit von der Zahl der Unternehmen dar. Je größer die Varianz 𝜎𝜎𝜎𝜎 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 2 der Marktanteile der Unternehmen einer Industrie, desto höher ist die horizontale Konzentration - der Herfindahl-Index strebt gegen 1, wenn ein Unternehmen einen Marktanteil nahe an 100 % an, er wird 0, wenn eine große Zahl sehr kleiner Unternehmen im Wettbewerb stehen. Da der Herfindahl-Index alle Unternehmen einer Industrie berücksichtigt, wird eine deutlich präzisere Abschätzung der Konzentration der Marktstruktur sowie der dahinterliegenden Wettbewerbsintensität möglich. Daneben ermöglicht der Herfindahl-Index eine weitere Analyse: Bei gleich großen Unternehmen (und damit einer Varianz 𝜎𝜎𝜎𝜎 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 2 = 0 ) ergibt sich durch Umstellen von Gleichung (4.8), dass die zu erwartende Zahl an Unternehmen (Numbers Equivalent) (4.9) 𝑆𝑆𝑆𝑆� = 1 𝐻𝐻𝐻𝐻 dem Kehrbruch des Herfindahl-index entspricht. Wenn die tatsächliche Zahl 𝑆𝑆𝑆𝑆 der Unternehmen in einer Industrie deutlich größer als der zu erwartende Wert 𝑆𝑆𝑆𝑆� ist, ist dies ein erster Indikator für eine marktbeherrschende Stellung der größten Unternehmen und reduzierte Wettbewerbsintensität (weiterführend ► Kapitel 6 zu Mindestbetriebsgrößen).  Fragen │ Wie hoch ist die Wettbewerbsintensität im deutschen Lebensmitteleinzelhandel? In ► Tabelle 4.1 sind zunächst die Marktanteile der acht größten deutschen Lebensmitteleinzelhändler für die Jahre 2009 bis 2019 zu sehen. Auf den ersten Blick existieren offenbar vier große Unternehmen, von denen Edeka in den betrachteten Jahren seinen Marktanteilsvorsprung leicht ausbauen konnte. Daneben ist erkennbar, dass die vier kleineren Wettbewerber in Summe leicht Marktanteile verloren haben. Berechnet man für die gegebenen Marktanteile die 𝐶𝐶𝐶𝐶4 -Konzentrationsrate und den Herfindahl-Index, wird in ► Abbildung 4.4 ein deutlicher Anstieg der horizontalen Konzentration erkennbar. Tatsächlich decken die Unternehmen aber nur etwa 82 % in 2009 ansteigend auf 85 % in 2019 des Gesamtmarktes ab - d.h. offensichtlich sind kleinere oder regionale Unternehmen in der Statistik nicht enthalten. Um die fehlenden Unternehmen zu berücksichtigen, kann man mit einer Annahme deren Zahl und Größe abschätzen: Man unterstellt, dass die fehlenden Marktanteile sich auf Unternehmen verteilen, die im Durchschnitt der Marktanteile halb so groß wie das kleinste in der Statistik vorhandene Unternehmen 𝑆𝑆𝑆𝑆 𝑃𝑃𝑃𝑃 𝑚𝑚𝑚𝑚𝑃𝑃𝑃𝑃𝑝𝑝𝑝𝑝 sind. So ergibt sich für 2009 eine Anzahl fehlender Unternehmen 𝑆𝑆𝑆𝑆‘ von (4.10) 𝑆𝑆𝑆𝑆 2009 ‘ = �1−∑ 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 𝑛𝑛𝑛𝑛𝑖𝑖𝑖𝑖𝑖𝑖 � 𝑃𝑃𝑃𝑃𝑖𝑖𝑖𝑖 𝑚𝑚𝑚𝑚𝑖𝑖𝑖𝑖𝑛𝑛𝑛𝑛/ 2 = 25,29 , <?page no="169"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 169 so dass die Anzahl relevanter Wettbewerber in 2009 ca. 𝑆𝑆𝑆𝑆� = 𝑆𝑆𝑆𝑆 + 𝑆𝑆𝑆𝑆 ′ ≅ 33 betragen hat. Entwickelt man nun für die Jahre 2010 bis 2019 den Wert von 𝑆𝑆𝑆𝑆� fort, so ist zu erkennen, dass die offensichtlichen Marktanteilsverschiebungen der großen Unternehmen insbesondere zu einer deutlichen Reduktion der Zahl der Unternehmen im Markt geführt haben (siehe auch ► Abbildung 4.4 links unten). Marktstruktur im deutschen Lebensmittelhandel Jahr 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 Marktanteile nach Umsatz Edeka-Gruppe 24,4 % 24,6 % 25,3 % 25,6 % 25,5 % 25,2 % 25,3 % 25,3 % 23,5 % 26,2 % 26,8 % Rewe-Gruppe 16,1 % 16,2 % 14,9 % 15,0 % 14,9 % 14,8 % 15,0 % 15,1 % 17,5 % 16,1 % 16,2 % Schwarz-Gruppe 13,7 % 13,9 % 13,8 % 13,8 % 14,4 % 14,8 % 14,7 % 15,0 % 15,9 % 15,7 % 16,0 % Aldi-Gruppe 12,5 % 12,1 % 12,0 % 12,0 % 12,3 % 12,1 % 11,9 % 12,0 % 12,2 % 12,0 % 11,5 % Metro-Gruppe 7,3 % 7,0 % 6,8 % 6,5 % 6,0 % 5,8 % 5,4 % 5,2 % 5,6 % 4,8 % 4,6 % Lekkerland 4,8 % 4,7 % 4,5 % 4,7 % 4,6 % 4,7 % 4,7 % 4,6 % 3,8 % 3,9 % 3,7 % dm 2,1 % 2,2 % 2,4 % 2,6 % 2,9 % 3,1 % 3,3 % 3,5 % 3,2 % 3,5 % 3,6 % Rossmann 1,4 % 1,6 % 1,7 % 2,3 % 2,5 % 2,6 % 2,7 % 2,8 % 2,6 % 2,9 % 3,0 % Summe Marktanteile 82,3 % 82,3 % 81,4 % 82,5 % 83,1 % 83,1 % 83,0 % 83,5 % 84,3 % 85,1 % 85,4 % C4-Konzentrationsrate 0,6670 0,6680 0,6600 0,6640 0,6710 0,6690 0,6690 0,6740 0,6910 0,7000 0,7050 Herfindahl-Konzentrationsindex 𝐻𝐻𝐻𝐻 0,1281 0,1286 0,1272 0,1291 0,1303 0,1292 0,1292 0,1305 0,1323 0,1395 0,1426 fehlende Unternehmen 𝑆𝑆𝑆𝑆’ (geschätzt) 25,29 22,13 21,88 15,22 13,52 13,00 12,59 11,79 12,08 10,28 9,73 korrigierter Herfindahl-Index 0,1294 0,1300 0,1287 0,1311 0,1324 0,1314 0,1315 0,1328 0,1343 0,1417 0,1448 hypothetisches 𝑆𝑆𝑆𝑆� = 1/ 𝐻𝐻𝐻𝐻 (Numbers Equivalent) 7,73 7,69 7,77 7,63 7,55 7,61 7,60 7,53 7,44 7,06 6,91 Geschätzte Anzahl relevanter Wettbewerber 𝑆𝑆𝑆𝑆� (geschätzt) 33,29 30,13 29,88 23,22 21,52 21,00 20,59 19,79 20,08 18,28 17,73 Varianz der Marktanteile 0,5431 0,5488 0,5542 0,5505 0,5494 0,5355 0,5388 0,5423 0,5432 0,6122 0,6426 Tabelle 4.1: Marktstruktur im deutschen Lebensmittelhandel 2009 bis 2019, Marktanteile auf Basis Umsatz in Deutschland. Datenquelle Marktanteile: BVE Jahresbericht 2019/ 2020, eigene Berechnungen. <?page no="170"?> Unternehmen, Wettbewerb und Innovationen 170 Abbildung 4.4 Analyse der Marktstruktur und Wettbewerbsintensität im deutschen Lebensmitteleinzelhandel. Noch deutlicher wird das Bild, wenn in ► Abbildung 4.4 rechts unten die Zahl der relevanten Unternehmen in Relation zur Varianz der Marktanteile im Zeitablauf betrachtet wird: Offensichtlich ist seit 2009 zunächst die Zahl der Unternehmen durch Marktaustritte und Übernahmen deutlich zurückgegangen, und ab etwa 2016 ist die Varianz der Marktanteile deutlich gestiegen - gleichbedeutend einem Marktanteilswachstum der großen Unternehmen zu Lasten der Marktanteile der kleineren Unternehmen. Sowohl für 𝐶𝐶𝐶𝐶4 -Konzentrationsraten wie auch für den Herfindahl-Index existieren empirische Studien, die folgende robuste stilisierte Fakten zeigen (Böbel 1984, Sutton 1991 und Münter 1999):  Je höher die horizontale Konzentration, desto geringer die Wettbewerbsintensität,  je höher die horizontale Konzentration, desto höher die durchschnittliche Profitabilität der Unternehmen, und  die horizontale Konzentration wird wesentlich durch das Zusammenspiel von Marktgrößte und -wachstum, Eintrittsbarrieren und Sunk Costs in einer Industrie beeinflusst. Vor diesem Hintergrund ist die horizontale Konzentration ein möglicher Indikator für Marktmacht oder kollektive Marktbeherrschung (weiterführend ► Kapitel 7 und ► Kapitel 10). Die Monopolkommission veröffentlich jedes zweite Jahr im Hauptgutachten einen Bericht zur horizontalen Konzentration in deutschen Industrien, um die Entwicklung der Wettbewerbsintensität zu analysieren und mögliche marktbeherrschende Konstellationen zu identifizieren (Monopolkommission 2020). Der enge Zusammenhang von 𝐶𝐶𝐶𝐶4 -Konzentrationsrate und Herfindahl-Index in ► Abbildung 4.4 rechts oben ist dabei nicht zufällig - man kann theoretisch zeigen, dass für den Herfindahl-Index in Abhängigkeit der 𝑨𝑨𝑨𝑨𝑪𝑪𝑪𝑪 -Konzentrationsrate eine Untergrenze SSttrreeaammiinngg 0 0,1 0,2 0,3 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 Marktanteile im Lebensmitteleinzelhandel (2009 bis 2019) Edeka-Gruppe Rewe-Gruppe Schwarz-Gruppe Aldi-Gruppe Metro-Gruppe Lekkerland dm Rossmann 0,1150 0,1200 0,1250 0,1300 0,1350 0,1400 0,1450 0,6200 0,6400 0,6600 0,6800 0,7000 0,7200 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 C4-Konzentrationsrate und Herfindahl- Konzentrationsindex (2009 bis 2019) C4-Konzentrationsrate Herfindahl-Konzentrationsindex C4 H 0,00 20,00 40,00 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 Zahl der Unternehmen im Lebensmitteleinzelhandel (2009 bis 2019) hypothetisches n (Numbers Equivalent) tatsächliches n (geschätzt) 2009 2010 2012 2016 2018 2019 0,52 0,54 0,56 0,58 0,6 0,62 0,64 0,66 15,00 20,00 25,00 30,00 35,00 Zahl der Unternehmen 𝑆𝑆𝑆𝑆 ̂ und Varianz der Marktanteile (2009 bis 2019) <?page no="171"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 171 (4.11) 𝐻𝐻𝐻𝐻 𝑚𝑚𝑚𝑚𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 = 𝐶𝐶𝐶𝐶𝐶2 𝐶 und eine Obergrenze (4.12) 𝐻𝐻𝐻𝐻 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 = � 𝐶𝐶𝐶𝐶𝐶 𝐶 für 𝐶𝐶𝐶𝐶4 < 1𝐶 𝐶𝐶𝐶𝐶4 2 für 𝐶𝐶𝐶𝐶4 ≥ 1𝐶 existiert (Sleuwaegen und Dehandschutter 1986 sowie Münter 1999). Zudem kann man aufgrund empirischer Studien die horizontale Konzentration grob auf bestimmte Markstrukturen zuordnen, wie in ► Abbildung 4.5 zu sehen. Entsprechend ist in der deutschen Lebensmittelindustrie, in der die vier größten Unternehmen in 2019 Marktanteile von über 70 % besitzen, von marktbeherrschenden Unternehmen auszugehen. Abbildung 4.5: Marktstruktur und horizontale Konzentration. In den USA ist in den Merger Guidelines zur Beurteilung von Unternehmenszusammenschlüssen eine Klassifikation der horizontalen Konzentration auf Basis des Herfindahl-Index festgelegt: Bei 𝐻𝐻𝐻𝐻 < 0,15 gilt ein Markt als nicht konzentriert, ein Wert 0,15 ≤ 𝐻𝐻𝐻𝐻 ≤ 0,25 zeigt eine mittlere Konzentration an, bei 𝐻𝐻𝐻𝐻 > 0,25 ist ein Markt stark konzentriert. H 0,4 0,6 0,8 0,8 1 0,2 C4 0,6 1 0,4 0 0,2 marktbeherrschende Unternehmen Oligopol Vollständige Konkurrenz H min H max <?page no="172"?> Unternehmen, Wettbewerb und Innovationen 172 Eintrittsbarrieren Markteintrittsbedingungen spielen eine zentrale Rolle für die Marktstruktur und die horizontale Konzentration der Unternehmen einer Industrie. Eintrittsbarrieren beschreiben alle Bedingungen, die entweder dazu führen, dass ein neu eintretendes Unternehmen einen Wettbewerbsnachteil oder höhere Kosten im Vergleich zu etablierten Unternehmen hat, oder überhaupt nicht in den Markt eintreten kann, so dass Eintrittsbarrieren die Wettbewerbsintensität für etablierte Unternehmen reduzieren. Typischerweise sind die Kosten des Markteintritts - bspw. in Form einer produkt- oder unternehmensspezifischen Marketingkampagne - zudem Sunk Costs, d.h. sie sind industriespezifisch und können beim Marktaustritt nicht zurückgewonnen werden (vgl. weiterführend ► Kapitel 6). Markteintrittsbarrieren können unter anderem in folgenden Formen vorliegen (Geroski et al. 1990):  Strategische Eintrittsbarrieren basieren auf endogenen strategischen Entscheidungen der etablierten Unternehmen, die darauf abzielen den Marktzutritt gegenüber neuen Unternehmen zu versperren, zu erschweren oder kostspieliger zu machen. Etablierte Unternehmen investieren bspw. freiwillig in Sunk Costs (umfangreiche Marketinginvestitionen, die den Aufbau von Reputation und Markenloyalität fördern; F&E-Investitionen, die schnellen technischen Fortschritt ermöglichen; Nutzung von direkten und indirekten Netzwerkeffekten zur Etablierung eines mehrseitigen Marktes etc.), die potenziellen Wettbewerbern die Unattraktivität des Markteintritts signalisieren sollen: Unternehmen, die in den Markt eintreten, müssen dauerhaft ebenfalls dieses Investitionsniveau finanzieren können - viele werden dadurch vom Markteintritt abgehalten (vgl. weiterführend ► Kapitel 9 und 10).  Strukturelle Eintrittsbarrieren sind bestimmt durch exogene industriespezifische Technologie und Produktionsfunktion (Fixkostendegression, zunehmende Skalenerträge, Economies of Scale oder vertikale Integration), die in einer Industrie zu einer Mindestbetriebsgröße und entsprechend hohem Kapitalbedarf führen. Zudem können strukturelle Eintrittsbarrieren in strategische Eintrittsbarrieren überführt werden (vgl. weiterführend ► Kapitel 6). Strukturelle Eintrittsbarrieren können auch entstehen, wenn Unternehmen aufgrund von langjähriger Erfahrung Lernkurveneffekte in niedrigere Kosten umwandeln können - Alter und Erfahrung etablierter Unternehmen sind dann ein Indiz der Eintrittsbarrieren für neue Unternehmen.  Rechtliche Eintrittsbarrieren sind bestimmt durch Eigentumsrechte, Gesetzgebung und Regulierung, die nur eine bestimmte Zahl an Unternehmen (Taxidienste, Notare etc.) zulassen, oder durch Patente oder Lizenzen (Gebrauchsmuster, Copyrights etc.), die anderen Unternehmen den Marktzutritt versperren oder kostspieliger machen. Eintrittsbarrieren ermöglichen eine erste Trennung zwischen etablierten Unternehmen und neuen Unternehmen: Ein etabliertes Unternehmen hat einen Wettbewerbsvorteil auf Basis der getätigten Sunk-Cost-Investitionen und industriespezifischer Erfahrung gegenüber einem neuen Unternehmen, der sich in Reputation, stärkerer Kundenloyalität, absolut niedrigeren Kosten oder höherer Innovationsfähigkeit niederschlagen kann. <?page no="173"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 173 Profitabilität und Five-Forces-Framework Porter (1980, 1981 und 1985) hat das SCP-Framework in das Five-Forces-Framework zu einem Managementkonzept verdichtet, um die Attraktivität eines Marktes oder einer Industrie, gemessen an der Profitabilität der Unternehmen und der Stabilität der Gewinne, zu ermitteln und strategische Entscheidungen, bspw. zu Markteintritt oder Investitionen, abzuleiten. Abbildung 4.6: Five-Forces-Framework und PEST-Analyse. Ausgehend von empirischen Studien stellen sich fünf interdependente Größen, wie in ► Abbildung 4.6 dargestellt, als maßgeblich für die Höhe der Gewinne in einer Industrie heraus: [1] Wettbewerbsintensität und Wahl der strategischen Parameter: Die Profitabilität einer Industrie ist umso geringer, je höher die Wettbewerbsintensität und je geringer die horizontale Konzentration ist. Die Wettbewerbsintensität ist umso geringer, je geringer die Zahl der Unternehmen und je höher der Grad an Produktdifferenzierung ist. Konkurrieren die Unternehmen über Preise, sind wechselseitige Preisunterbietungen die Regel - so sinken die Gewinnmargen und die Profitabilität geht zurück. Dagegen ist die Profitabilität der Unternehmen höher, wenn über langfristige Kapazitäten und auf Basis von Produktdifferenzierung konkurriert wird (vgl. weiterführend ► Kapitel 10). Zudem kann das Marktwachstum eine Rolle spielen: Wächst der Markt stark, bspw. durch neue Kunden, konzentriert sich der Wettbewerb auf Neukunden. In der Folge ist die Wettbewerbsintensität gering. In schrumpfenden Märkten wird die Wettbewerbsintensität dagegen eher erhöht: Unternehmen konkurrieren aggressiv auch um die Bestandskunden der Wettbewerber. Wettbewerbsintensität Bedrohung durch neue Anbieter Verhandlungsstärke und Marktmacht der Zulieferer Bedrohung durch Substitute 2 1 3 5 4 Verhandlungsstärke und Marktmacht der Kunden politisches und rechtliches Umfeld soziokulturelle Faktoren technologische Entwicklungen makroökonomische Rahmenbedingungen <?page no="174"?> Unternehmen, Wettbewerb und Innovationen 174 [2] Bedrohung durch neue Unternehmen und Umfang der Eintrittsbarrieren: Je niedriger die Eintrittsbarrieren sind, desto mehr Eintritte in die Industrie finden statt, desto höher ist die Wettbewerbsintensität und desto geringer die Profitabilität. Eintrittsbarrieren auf Basis von Sunk Costs können allerdings auch Austrittsbarrieren darstellen (Caves und Porter 1977 sowie Rosenbaum und Lamort 1992): Unternehmen sind dann gezwungen, in der Industrie zu bleiben, und die Wettbewerbsintensität erhöht sich - mit negativem Effekt auf die Profitabilität. Markteintritte sind um so einfacher, wenn neue Unternehmen Zugang zu relevanten Zulieferern und Vertriebspartnern haben - oder wenn durch neue Geschäftsmodelle eine neue Wertschöpfungskette etabliert werden kann. [3] Verhandlungsstärke und Marktmacht der Zulieferer: Wenn die Zulieferer in Verhandlungen auf Preise oder Qualität starken Einfluss nehmen können, oder die Abhängigkeit von einzelnen Zulieferern groß ist (wie bspw. in komplexen internationalen Zuliefererketten), ist die Profitabilität einer Industrie gering. Das ist insbesondere bei einer kleinen Zahl an Zulieferern der Fall, die einer großen Zahl an Kunden gegenüberstehen, oder wenn hohe Wechselkosten von einem Zulieferer zu einem anderen entstehen. [4] Verhandlungsstärke und Marktmacht der Kunden: Je höher die Verhandlungsmacht der Kunden ist, je stärker diese gebündelt auftreten oder je sporadischer die Kundenbeziehungen sind, desto geringer ist die Profitabilität einer Industrie. Das gilt bspw. für standardisierte oder schwach differenzierte Produkte, sowie wenn Kunden gut über Preise und Qualität informiert sind. Dagegen kann hohe Loyalität der Kunden oder Abhängigkeit von Produkten und Dienstleistungen die Verhandlungsmacht der Kunden deutlich reduzieren. [5] Bedrohung durch Substitute und Ersatzprodukte: Je stärker Kunden auf alternative Produkte und Dienstleistungen ausweichen können und je höher die Preiselastizität der Nachfrage ist, desto geringer sind die Möglichkeiten der Unternehmen, hohe Preise durchzusetzen, und desto geringer sind die Gewinne innerhalb einer Industrie. Aus Managementperspektive muss das Five-Forces-Framework immer in eine übergreifende Analyse des Wettbewerbsumfelds, wie bspw. anhand des PEST-Frameworks, eingebunden werden, da in vielen Industrien relevante Einflussfaktoren (bspw. technologische Veränderungen wie Digitalisierung oder neue rechtliche Rahmenbedingungen zur Energiewende und CO 2 -Besteuerung) außerhalb des engen Wettbewerbsumfelds entstehen und Auswirkungen auf die Profitabilität einer Industrie entwickeln. Zudem verändern sich aufgrund dieser exogenen Veränderungen die Markt- und Industriegrenzen (Malhotra und Gupta 2001). Somit ist das Five-Forces-Framework in der Anwendung rein deskriptiv, es können keine logischen oder quantitativen Aussagen abgeleitet werden, so dass ergänzend spieltheoretische Modelle wie in ► Kapitel 9 und ► Kapitel 10 herangezogen werden müssen.  Case Study | Fluggesellschaften Zahlreiche Industrien werden im Rahmen von Markt- und Wettbewerbsanalysen regelmäßig anhand des Five-Forces-Frameworks durchleuchtet - so hat die International Air Transport Association durch McKinsey wiederholt die geringe Profitabilität von Fluggesellschaften im Vergleich zu anderen Industrien analysiert (IATA 2013): <?page no="175"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 175 [1] sehr hohe Wettbewerbsintensität - aufgrund einer großen Zahl an Unternehmen, geringer Produktdifferenzierung, zunehmend internationalem Wettbewerb, saisonabhängig niedriger Kapazitätsauslastung und Tendenz zu Preiskämpfen. [2] starke und wachsende Bedrohung durch neue Unternehmen - aufgrund von Deregulierung internationaler Märkte, geringen Sunk Costs durch Leasing von (Gebraucht-) Flugzeugen und niedrigem Investitionsbedarf wegen geringer Mindestbetriebsgröße aufgrund relativ geringer Economies of Scale. [3] hohe Verhandlungsstärke und Marktmacht der Zulieferer - insbesondere durch nur zwei Anbieter für neue Langstreckenflugzeuge (Boeing und Airbus), aufgrund von geringer Zahl an internationalen Drehkreuzen (Frankfurt am Main, Singapore, Istanbul etc.) mit hohen Gebühren und marktmächtigen Gewerkschaften mit hohem Streikrisiko des Bordpersonals sowie des Boden- und Sicherheitspersonals der Flughäfen. [4] moderate bis hohe Verhandlungsstärke und Marktmacht der Kunden - begründet in schwach wahrgenommener Produktdifferenzierung und hoher Preistransparenz, die aufgrund der Bündelung und Kontingentierung der Nachfrage durch Buchungs- und Flugportale ansteigt bei weiterhin hoher Wechselbereitschaft der Kunden aufgrund schwach wirksamer Loyalitätsprogramme. [5] moderate bis hohe Bedrohung durch Substitute und Ersatzprodukte - im nationalen Bereich zunehmend durch Hochgeschwindigkeitszüge (Deutschland, Frankreich, Benelux, China, Japan etc.), international bei Geschäftsreisen durch Substitute wie Web- oder Videokonferenzen. Alle Faktoren zusammengenommen erklären konsistent, weshalb Fluggesellschaften typischerweise - gerade im Vergleich mit Unternehmen anderer Industrien - eine geringe Profitabilität aufweisen und oft nicht in der Lage sind, ihre gewichteten Kapitalkosten (WACC) zu decken oder einen ökonomischen Gewinn zu erzielen (Bundesverband deutscher Fluggesellschaften 2013). Resource-based View als Erklärung für Wettbewerbsvorteile Wettbewerbsvorteile können durch unternehmensspezifische Fähigkeiten begründet sein. Im Resource-based View repräsentieren Unternehmen Fähigkeiten und Kernkompetenzen - in der Konsequenz existiert ein Unternehmen als Abbildung von tangiblen und intangiblen Ressourcen und entwickelt auf dieser Basis Strategien (Penrose 1959, Wernerfelt 1984, Prahalad und Hamel 1990, Rumelt et al. 1991, Teece 2007 sowie Teece et al. 1997). Diese Kernkompetenzen basieren auf statischen Fähigkeiten wie Qualifikation oder Erfahrung der Mitarbeiter, oder beruhen auf Technologie, Organisation und Management des Unternehmens, Effizienz und Kostenstruktur sowie hoher Produktqualität und Reputation des Unternehmens. Die Fähigkeiten schlagen sich nieder in höherer Zahlungsbereitschaft der Kunden und/ oder geringerer Durchschnitts- oder Grenzkosten. Die Gewinne sind wesentlich durch diese unternehmensspezifischen Fähigkeiten bestimmt - Unternehmen innerhalb einer Industrie oder eines Marktes unterscheiden sich deutlich in ihrer Profitabilität, wenn die Fähigkeiten heterogen sind. Unternehmen mit geringen Gewinnen erreichen nicht die Profitabilität erfolgreicher Unternehmen, weil ihnen entweder der <?page no="176"?> Unternehmen, Wettbewerb und Innovationen 176 Zugang zu den notwendigen Ressourcen fehlt oder weil sie die Fähigkeiten nicht adaptieren, imitieren oder erlernen können. Strategieentwicklung aus Perspektive des Resource-based View versucht im Wesentlichen, die „richtigen Fähigkeiten“ zu identifizieren und zu nutzen: So werden Wettbewerbsvorteile aus einer unternehmensinternen Kernkompetenzensowie Stärken-/ Schwächen-Analyse abgeleitet. Zudem wird stark in Kernkompetenzen investiert, Fähigkeiten werden weiterentwickelt und vorhandene Kompetenzen durch Imitationsbarrieren (Patente, Abschottung von IP, Mitarbeiterbindung etc.) geschützt. In der Folge investieren die Unternehmen bspw. stärker in Mitarbeiterkompetenzen, um die unternehmensspezifischen Fähigkeiten auszubauen, dagegen weniger in Marketing zum Aufbau von Eintrittsbarrieren. Profitables Wachstum eines Unternehmens und die langfristige Überlebensfähigkeit einer Organisation hängen mittelbar insbesondere von dynamischen Fähigkeiten ab (Dynamic Capabilities). Diese beschreiben die Anpassungsfähigkeit eines Unternehmens und bestehen darin, als Organisation zu lernen, neue Kernkompetenzen (bspw. neue Mitarbeiter, aber auch ein zugekauftes Unternehmen) zu integrieren, die vorhandenen Fähigkeiten auf neue Märkte oder an veränderte Umweltbedingungen anzupassen und Innovationen oder neue Geschäftsmodelle hervorzubringen. Gerade diese intangiblen und schwer beschreibbaren Fähigkeiten - Unternehmenskultur, Erfahrung einer Organisation oder die Fähigkeit eines Unternehmens zu strategischem Wandel oder Weiterentwicklung - können eine zentrale Rolle für den Erfolg eines Unternehmens spielen. Dynamische Fähigkeiten sind für Wettbewerber schwer zu erkennen und damit kaum imitierbar: Nicht-eindeutige Kausalität (Causal Ambiguity) des Unternehmenserfolgs kann einerseits auf verborgenen unternehmensspezifischen dynamischen Fähigkeiten beruhen, oder auf von außen nicht erkennbaren Verbindungen mit Zulieferern oder Kunden basieren (Reed und DeFilippi 1990, Lippman und Rumelt 1982 sowie King 2007). Dynamische Fähigkeiten sind insbesondere dann für den Unternehmenserfolg und die Profitabilität ausschlaggebend, wenn sich die marktseitigen oder technologischen Umweltbedingungen verändern (Eisenhardt und Martin 2000, Teece 2007 sowie Henneke 2014). Entsprechend sind drei generische dynamische Fähigkeiten notwendig:  Sensing - das kontinuierliche Wahrnehmen, Beobachten und Analysieren von Veränderungen der Chancen und Risiken im Marktumfeld und das explorative Entwickeln neuer Lösungen über Märkte und Technologien hinweg.  Seizing - das Ergreifen der Chancen durch Ausprobieren neuer Produkte, Geschäftsmodelle und Technologien in Marktsegmenten, oder durch den Zukauf von Unternehmen in diesen Marktsegmenten oder die Kooperation mit Start-ups.  Reconfiguring - die Transformation der Organisation oder des Geschäftsmodells an die adressierten Chancen, die Entwicklung notwendiger neuer statischer Fähigkeiten sowie das Aufgeben jetzt nicht mehr relevanter Fähigkeiten oder Geschäftsfelder. <?page no="177"?> Wettbewerbsvorteile, Marktstruktur und unternehmensspezifische Fähigkeiten 177  Case Study | RyanAir Der Resource-based View erklärt bspw. die extrem hohe Profitabilität von RyanAir, wie in ► Abbildung 4.7 skizziert, im Vergleich zu Wettbewerbern im Vorfeld des Marktaustritts von AirBerlin im Oktober 2017: Die Airline-Industrie ist aufgrund hoher Wettbewerbsintensität und geringen Eintrittsbarrieren seit Jahrzehnten von sehr geringer Profitabilität und einer hohen Zahl an insolvenzbedingten Marktaustritten geprägt. Offensichtlich kann RyanAir nicht imitierbare Fähigkeiten, niedrige Kostenstrukturen und hohes strategisches Geschick nutzen, um in einem per se unattraktiven Markt robust hohe Gewinne zu erzielen (IATA 2013 und Bundesverband Deutscher Fluggesellschaften 2013). Unter anderem hat RyanAir vor dem Hintergrund einer Analyse der Transaktionskosten die Grenzen des Unternehmens enger gezogen als die Wettbewerber:  RyanAir kann mit einem Fünftel der Mitarbeiter und der Hälfte an Flugzeugen nahezu 80 % der Passagierzahl von Lufthansa abwickeln,  RyanAir kann mit etwa der gleichen Mitarbeiterzahl wie AirBerlin nahezu die dreifache Passagierzahl abwickeln,  die Effizienz gemessen in Passagieren je Flugzeug oder Passagieren je Mitarbeiter von RyanAir liegt drastisch über den Wettbewerbern und macht den strategischen Handlungsbedarf bei Lufthansa deutlich und erklärt den Marktaustritt von AirBerlin. In der Folge machte RyanAir im Jahr 2014 je Passagier einen Gewinn von 17 EUR, Lufthansa von 4 EUR und AirBerlin von -9 EUR. Abbildung 4.7: Unterschiede bei Profitabilität auf Basis von unternehmensspezifischen Fähigkeiten Daten eigene Berechnungen aus jeweiliger Unternehmensberichterstattung, Aktienkursdaten nach  comdirect.de. Passagiere 2014: ca. 32 Mio. Flugzeuge 2014: 132 Mitarbeiter 2014: ca. 8.500 Passagiere je Flugzeug: ca. 242.000 Passagiere je Mitarbeiter: ca. 3.764 Mitarbeiter je Flugzeug: ca. 64 EBIT 2014: -283,4 Mio. EUR Ø EBIT pro Passagier: - 9 EUR MarketCap 2015: 130 Mio. EUR Passagiere 2014: ca. 106 Mio. Flugzeuge 2014: 668 Mitarbeiter 2014: ca. 118.000 Passagiere je Flugzeug: ca. 158.000 Passagiere je Mitarbeiter: ca. 898 Mitarbeiter je Flugzeug: ca. 176 EBIT 2014: 459,0 Mio. EUR Ø EBIT pro Passagier: 4 EUR MarketCap 2015: 6,4 Mrd. EUR Passagiere 2014: ca. 81 Mio. Flugzeuge 2014: 318 Mitarbeiter 2014: ca. 9.000 Passagiere je Flugzeug: ca. 686.000 Passagiere je Mitarbeiter: ca. 9.000 Mitarbeiter je Flugzeug: ca. 76 EBIT 2014: 1.420,2 Mio. EUR Ø EBIT pro Passagier: 17 EUR MarketCap 2015: 16,7 Mrd. EUR Air Berlin Lufthansa Ryan Air <?page no="178"?> Unternehmen, Wettbewerb und Innovationen 178 Determinanten der Profitabilität von Unternehmen Natürlich lässt sich die analytische Trennung der Wettbewerbsvorteile von Market-Based View oder Resource-based View in der Realität nur unscharf wiederfinden - jedes Unternehmen versucht im richtigen Markt mit den richtigen Fähigkeiten zu agieren. Beide Sichten gemeinsam finden sich entsprechend integriert in der sogenannten SWOT-Analyse (unternehmensinterne Stärken und Schwächen, unternehmensexterne Chancen und Risiken) wieder. Das wesentliche Augenmerk des Market-based View liegt auf dem Erkennen von Marktchancen, der Resource-based View geht von den Stärken und Fähigkeiten eines Unternehmens zur Bewertung und Entwicklung von Strategien aus. Abbildung 4.8: Profitabilität ausgewählter Industrien im Zeitraum 1965 bis 2007, Median und Bandbreite 2. und 3. Quartil des Return on Invested Capital (links) und Determinanten der Gewinne 2007 bis 2011 (rechts) Datenquelle: Bradley et al. 2013. Allerdings kann empirisch untersucht werden, welches der Modelle zur Erklärung von Wettbewerbsfähigkeit eine bessere Erklärung für die Gewinne von Unternehmen bietet. Man prüft, welche Anteile der Gewinne durch die Zugehörigkeit zu einer bestimmten Industrie erklärt werden können, und welche Anteile der Gewinne unternehmensspezifischen Fähigkeiten zugeordnet werden können. In empirischen Studien (Cubbin 1988, McGahan und Porter 1999 und 2003, Rumelt 1991, Schmalensee 1985 und Bradley et al. 2013) zeigt sich, dass die Profitabilität (gemessen in Gewinnen, Eigenkapitalrentabilität oder Cashflow) über verschiedene Industrien hinweg langfristig unterschiedlich ist. In ► Abbildung 4.8 ist der Return on Invested Capital ausgewählter Industrien für den Zeitraum 1965 bis 2007 als Median und in Bandbreiten des 2. und 3. Quartils zu sehen - offenbar eine Bestätigung des Market-based langfristige Profitabilitätsunterschiede zwischen Industrien (in % ROIC) Zuordnung Profitabilitästreiber auf Industrie- und Unternehmenseffekte 0% 5% 10% 15% 20% 25% 30% 35% Pharma Software IT Services Telekommunikation Medizintechnik Computerhardware Maschinenbau Automobilzulieferer Einzelhandel und Warenhäuser Baumaterialien Metallverarbeitung Elektrizität Fluggesellschaften 67 50 46 49 62 60 33 50 54 51 38 40 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% Industrieeffekt Unternehmenseffekt hoch << Gewinne >> niedrig <?page no="179"?> Wettbewerb und Innovationen 179 View, denn Pharma- oder Telekommunikationsindustrie weisen über mehr als vier Jahrzehnte eine systematisch höhere Profitabilität als Metallverarbeitung oder Fluggesellschaften auf. Dagegen zeigt sich in einer McKinsey-Studie von 2014, dass für 2.288 Unternehmen im Zeitraum 2007 bis 2011, in ► Abbildung 4.8 rechts, durchschnittlich 60 % des absoluten Gewinns eines Unternehmens durch Unternehmenseffekte (den Resource-based View) und 40 % durch Industrieeffekte (den Market-based View) erklärt werden können. Der Anteil des Unternehmenseffektes ist besonders hoch bei sehr erfolgreichen Unternehmen (Quintil 1), wie auch bei den Unternehmen mit den absolut geringsten Gewinnen (Quintil 5). Wenn die Unternehmen durchschnittliche Gewinne (wie in Quintil 2 bis 4) erzielen, haben Unternehmens- und Industrieeffekte in etwa den gleichen Einfluss. Daneben finden sich in den empirischen Studien auch starke Hinweise auf unternehmensspezifische Persistenz der Gewinne und eine hohe positive Korrelation mit Marktanteilen innerhalb einer Industrie - offenbar existieren Unternehmen, die über viele Jahre hinweg höhere Marktanteile gepaart mit höherer Profitabilität oder absoluter Gewinnhöhe erzielen können (Mueller 1990). Wettbewerb innerhalb einer Industrie führt also weder zu einer Angleichung der Gewinne der Unternehmen, noch zu einer Reduktion des Niveaus der Gewinne. Für die Persistenz der Gewinne gibt es zwei mögliche Ursachengruppen: Zum einen strukturelle Wettbewerbsbeschränkungen (bspw. Eintrittsbarrieren) innerhalb der Industrie oder Marktmacht einzelner etablierter Unternehmen, zum anderen höhere Effizienz und Wettbewerbsvorteile auf Basis des Resource-based View. Zusammengenommen zeigen die empirischen Untersuchungen kein eindeutiges Bild: Viel mehr bestätigt sich, dass über den Market-based View industriespezifische Effekte auf die Profitabilität erklärt werden, innerhalb der einzelnen Industrien gibt es dann aber starke unternehmensspezifische Effekte als Hinweis auf den Resource-based View. 4.3 Wettbewerb und Innovationen Im ersten Quartal 2007 hatte Nokia - der Legende nach früher einmal Hersteller von Gummistiefeln - einen weltweiten Marktanteil bei mobilen Endgeräten für Telekommunikation von etwa 40 % (Economist 2011). Am 9. Januar 2007 hat Apple die Markteinführung des ersten iPhone angekündigt, welches ab 29. Juni 2007 in den USA und dann sukzessiv weltweit erhältlich war. Der weltweite Marktanteil von Nokia ging bis 2012 auf etwa 5 % zurück. Innovationen können Wettbewerb maßgeblich beeinflussen. Im folgenden Abschnitt wird insbesondere das Zusammenspiel von Innovationen und Marktstruktur in den Blick genommen, um ein Verständnis für die kurz- und langfristigen Muster im Wettbewerb zu gewinnen. In ► Abbildung 4.9 sind die Marktanteile einiger führender Smartphone-Hersteller für den Zeitraum Q4/ 2009 bis Q2/ 2020 dargestellt. Offenbar wurden die beiden ursprünglichen Marktführer Nokia und Blackberry innerhalb von fünf Jahren vollständig vom Markt verdrängt, Apple konnte niemals eine Marktanteilsführung erreichen, und Samsung wurde nach mehr als neun Jahren als größter Hersteller von Smartphones Ende 2019 von Huawei abgelöst. <?page no="180"?> Unternehmen, Wettbewerb und Innovationen 180 Abbildung 4.9: Marktanteile führender Smartphone Hersteller weltweit, Zeitraum Q4/ 2009 bis Q2/ 2020. Datenquelle: IDC Data, Daten teilweise geschätzt Wettbewerb zwischen Unternehmen hat zwei Merkmale, die in direktem Zusammenhang mit Innovationen stehen und zuerst von Schumpeter (1911) sowie von Hayek (1968) beschrieben sind. Hayek hat Wettbewerb als Entdeckungsverfahren beschrieben. Das Ergebnis eines dynamischen Wettbewerbsprozesses ist allenfalls unvollständig vorhersagbar, weil Wettbewerb zwischen konkurrierenden Unternehmen immer auch auf die Entdeckung von neuartigen Wettbewerbsvorteilen oder Strategien zielt, die im Wettbewerb ausprobiert werden. So wird per se ‚neues Wissen‘ geschaffen, der Wettbewerbsprozess ist ergebnisoffen und kann nicht vorhergesagt werden. Deshalb sind bspw. wettbewerbspolitische Eingriffe generell kritisch zu prüfen, da keine Institution Technologiefolgen oder Wettbewerbsentwicklungen präzise vorhersagen kann. Schumpeter hat dagegen die Bedeutung von Wettbewerb als Prozess der schöpferischen Zerstörung herausgestellt: 0,0% 5,0% 10,0% 15,0% 20,0% 25,0% 30,0% 35,0% 40,0% 45,0% Q4 '09 Q4 '10 Q4 '11 Q4 '12 Q4 '13 Q4 '14 Q4 '15 Q4 '16 Q4 '17 Q4 '18 Q4 '19 Marktanteile Smartphones Huawei* Samsung Apple Xiaomi* Oppo* BlackBerry (RIM)* HTC* Nokia** <?page no="181"?> Wettbewerb und Innovationen 181 „Die Eröffnung neuer, fremder oder einheimischer Märkte und die organisatorische Entwicklung vom Handwerkbetrieb und der Fabrik zu solchen Konzernen wie dem U.S.-Steel illustrieren den gleichen Prozess einer industriellen Mutation - wenn ich diesen biologischen Ausdruck verwenden darf -, der unaufhörlich die Wirtschaftsstruktur von innen heraus revolutioniert, unaufhörlich die alte Struktur zerstört, unaufhörlich eine neue schafft. Dieser Prozess der ‚schöpferischen Zerstörung' ist das für den Kapitalismus wesentliche Faktum.“ (Schumpeter 1950, S. 137) Wettbewerb ist hier im Kern ein Innovationsprozess, d.h. bisherige Produkte, Marktstrukturen und Unternehmen werden immer wieder transformiert oder sogar durch neue ersetzt. Eine zentrale Rolle kommt Unternehmern und Entrepreneuren zu, die innovative Produkte oder Geschäftsmodelle entwickeln und auf den Markt bringen. Innovation ist allgemein die Durchsetzung neuer Kombinationen, bspw. in Produkten, Prozessen, Technologien, Geschäftsmodellen oder der Organisation eines Unternehmens. Dies erfordert nicht per se ‚Neues‘, sondern betont den komplementären und kombinatorischen Charakter von Innovation - bspw. bei Digitalisierung, die wesentlich bestehende Geschäftsmodelle, Dienstleistungen und Produkte ergänzt oder neue Kombinationen ermöglicht (Brynjolfsson und McAffee 2016). Zwar werden die Rückwirkungen des strategischen Wettbewerbsverhaltens der Unternehmen auf die Struktur der Industrie oftmals betont, meist wird die Kausalität jedoch entsprechend dem SCP-Framework von der Struktur der Industrie auf das Verhalten der Unternehmen hin zum Marktergebnis gesehen. Betrachtet man hingegen die wechselseitige Verbindung von Wettbewerb und Innovation, so ist dies nur die halbe Wahrheit: „Competition, at least in the most popular senses of the word, is all about rivalry between firms. It is about taking actions to increase, or at least to defend, market share, and the popular language of competition is often clothed in metaphors of conflict involving gladiators, knights in white and black armour, and all of that. Yet, not all of the responses that a firm makes to the actions of its rivals are the same. Some are more fundamental or more revolutionary than others. In this context, it is useful to distinguish tactical from strategic responses to rivals. A tactical response to the action of a rival is a response in kind. It is likely to involve use of the same (or a similar) competitive weapon (i.e., meeting a price cut with a price cut), and does not alter the basis on which the two firms compete. By contrast, a strategic response to the action of a rival is an attempt to change the basis of competition between the two firms (i.e., meeting a price cut with a radical change in the way a product is distributed or marketed). It is about breaking the rules of competition, and it corresponds to what most people understand when they talk about innovation.” (Geroski 1998, S. 15) Ein Teil des Wettbewerbsverhaltens von Unternehmen - Innovationen - ist demnach nicht primär gegen die Konkurrenten gerichtet, sondern zielt auf eine Veränderung der Marktstrukturen und der Regeln des Wettbewerbsprozesses. Mehr noch: Die Innovationen folgen nicht aus der Wettbewerbssituation, sondern Innovationen sind die Triebfeder des Wettbewerbsprozesses und verändern Marktstrukturen. Um langfristige Wettbewerbsprozesse und die Evolution von Industrien zu verstehen, kann man deshalb nicht von gegebenen Markt- <?page no="182"?> Unternehmen, Wettbewerb und Innovationen 182 strukturen ausgehen, sondern muss die gemeinsame Entwicklung von Technologie, Unternehmen und Wettbewerb in den Blick nehmen. Industrielebenszyklen und die langfristige Entwicklung der Marktstruktur Die langfristige Entwicklung von Industrien ist geprägt von zahlreichen Markeintritten neuer Unternehmen und Marktaustritten nicht überlebensfähiger Unternehmen. In empirischen Studien zeigt sich entlang eines Industrielebenszyklus ein robustes Muster der Zahl der Unternehmen und dahinterliegend der Ein- und Austritte, wie in ► Abbildung 4.10 oben skizziert und in ► Tabelle 4.2 für die weltweite Automobilindustrie dargestellt (Jovanovic und MacDonald 1994, Klepper und McGraddy 1990, Klepper 1997, Münter 1999 und Münter 2013). Abbildung 4.10: Industrielebenszyklus, Technologiezyklus und technologisches Regime. Begründet durch wenige erste Unternehmen - in der Automobilindustrie unter anderem Benz und Peugeot - werden neuartige, innovative Produkte auf den Markt gebracht. In der Folge treten in einer Phase 1 zahlreiche weitere neue Unternehmen, welche die Produktinnovation aufgreifen oder modifizieren, in die Industrie ein und die Zahl der Unternehmen steigt deutlich an. Nach einiger Zeit - in der Automobilindustrie war dies 1922 der Fall - kehrt sich dieser Prozess jedoch um und die Anzahl der Unternehmen einer Industrie geht in Phase 2 infolge zahlreicher Austritte drastisch zurück, bevor sich im weiteren Verlauf der Entwicklung die Zahl der Ein- und Austritte in etwa ausgleicht und sich die Zahl der Unternehmen stabilisiert. Phase 3 Phase 2 Phase 1 Zeit Zahl der Unternehmen Eintritte Austritte 1875-1921 Dauer: 47 Jahre n in 1921: 609 1922-1944 Dauer: 25 Jahre n in 1944: 133 seit 1945 Dauer: > 70 Jahre n in 2012: 195 Beispiel: weltweite Automobilindustrie Unternehmen Experimentierphase dominantes Design inkrementeller Wandel Prozessinnovationen Produktinnovationen Routinzed Regime Entrepreneurial Regime Industrielebenszyklus Technologiezyklus technologisches Regime <?page no="183"?> Wettbewerb und Innovationen 183  Case Study | Wettbewerb, Populationsdynamik und Überlebensfähigkeit von Unternehmen Betrachtet man am Beispiel der Automobilindustrie diese Entwicklung, ist deutlich zu erkennen, dass in Phase 1 die absolute und prozentuale Zahl an Markteintritten diejenige an Marktaustritten dominiert. In Phase 2 kehrt sich dieses Muster um, bis in Phase 3 mit jeweils etwa 3 % jährlichen Markteintritten und Marktaustritten die Zahl der Unternehmen etwa konstant ist. Populationsdynamik in der weltweiten Automobilindustrie alle Phasen Phase 1 Phase 2 Phase 3 Beginn 1875 1922 1945 Dauer in Jahren 47 23 > 70 durchschnittliche Anzahl Markteintritte pro Jahr 18,11 37,47 14,08 6,09 durchschnittliche Anzahl Marktaustritte pro Jahr 16,71 24,51 34,78 5,17 prozentuale Eintrittsrate pro Jahr 8,46 % 16,08 % 5,17 % 3,37 % prozentuale Austrittsrate pro Jahr 7,80 % 10,52 % 12,76 % 2,86 % unterschiedliche Unternehmen 2.499 1.761 928 550 im Jahr 2012 existierende Unternehmen sind entstanden … 13,33 % 8,72 % 77,95 % gegründete Unternehmen in Phase x existierten noch 2012 1,48 % 8,33 % 34,30 % Tabelle 4.2: Populationsdynamik in der weltweiten Automobilindustrie Datenquelle: Münter 2013. Die Ursache für das am Beispiel der Automobilindustrie beschriebene, aber für eine sehr große Zahl weiterer Industrien ebenfalls beobachtbare Muster liegt nicht in einem Rückgang der Nachfrage: Produktion und Absatz in der weltweiten Automobilindustrie wachsen seit ihrer Entstehung kontinuierlich. Die Veränderung der Zahl der Unternehmen ist begründet im Zusammenspiel von Innovationen, technologischen Veränderungen und strategischem Verhalten der Unternehmen. Technologiezyklen in der langfristigen Entwicklung von Industrien Eine erste Erklärung für die langfristige Entwicklung der Marktstruktur, der Zahl der Unternehmen und der Veränderungen im Wettbewerbsprozess liegt in Technologiezyklen, die regelmäßige Muster von Innovationen im Zeitablauf als Abfolge von Experimentierphase, Entstehung des dominanten Designs und Phase inkrementellen Wandels beschreiben (Utterback und Abernathy 1975, Clark 1985, Utterback und Suarez 1993 a und b, Christensen et al. <?page no="184"?> Unternehmen, Wettbewerb und Innovationen 184 1998 sowie Henderson und Clark 1990). Hier können, wie in ► Abbildung 4.10 zu sehen, drei parallel zum Industrielebenszyklus verlaufende Phasen identifiziert werden:  Experimentierphase - zu Beginn eines Industrielebenszyklus konkurrieren Unternehmen mit sehr unterschiedlichen Produktkonzepten und -konfigurationen. Es besteht hohe Unsicherheit sowohl betreffend technologischer Möglichkeiten als auch tatsächlicher Kundenerwartungen und -bedürfnisse. Damit ist zunächst keines der Unternehmen in der Lage, ein aus Kundenperspektive vollständig überzeugendes Produkt anzubieten, sondern jedes Unternehmen versucht mit einem unternehmensspezifischen Produkt identifizierte Marktnischen zu adressieren und in einem Trial-and-Error-Prozess Marktanteile zu gewinnen. Die Geschäftsmodelle und Strategien der Unternehmen sind in dieser Phase sehr heterogen. Jedes neu eintretende Unternehmen bringt Produktinnovationen ein, welche bisherige Lösungen ersetzen und das vorhandene Wissen innerhalb der Industrie in Teilen obsolet machen.  Entstehung und Emergenz eines dominanten Designs - im Wettbewerb der Unternehmen über die Zeit bildet sich ein dominantes Design heraus: Ein Unternehmen kombiniert erstmalig vorhandene Produktinnovationen und Ausstattungsmerkmale derartig, dass die Erwartungen einer großen Zahl an Kunden gut getroffen werden. In der Automobilindustrie ist dies durch das Model T von Ford (produziert von 1908 bis 1927) erfolgt - ein Auto mit vier Rädern, Steuerung der Vorderachse, Verbrennungsmotor vorne, Fahrgastkabine, Kofferraum hinten, Bremsen an den Rädern, Beleuchtung nach vorne und hinten, Lenkrad und einigen weiteren Merkmalen, die heute noch in nahezu jedem Auto zu finden sind. Die Vielfalt konkurrierender Produktkonzepte und Geschäftsmodelle der Experimentierphase wird beendet, es kommt zu einem Lock-in-Effekt und die Merkmale des dominanten Designs prägen die Erwartungen der Kunden und sind fortan ein De-facto- Standard in der Industrie. Dieser wird von anderen Unternehmen imitiert oder unternehmensspezifisch adaptiert.  Phase inkrementellen Wandels - auf Basis des dominanten Designs werden jetzt pfadabhängige Weiterentwicklungen und Verbesserungen des Produktes vorgenommen, die das bestehende Wissen in der Industrie erweitern und vertiefen, so dass unternehmens- und industriespezifisches Wissen aufgebaut wird und Bestand hat. Im Mittelpunkt stehen jetzt allerdings nicht mehr Produktinnovationen, sondern Effizienzsteigerung und Skalierung der Produktion auf Basis von Prozessinnovationen. Die Entstehung des dominanten Designs liefert eine erste Erklärung für den Wechsel von Phase 1 zu Phase 2 des Industrielebenszyklus und verändert den Wettbewerbsprozess in vier wesentlichen Dimensionen:  Wachstum der Marktanteile - die Marktanteile der Unternehmen, die das dominante Design produzieren können, wachsen jetzt stark an. In der Smartphone-Industrie sind alle Unternehmen, die in der Lage waren, die Kernelemente des dominanten Designs in Form des Apple iPhones abzubilden - Touchscreen mit virtueller Tastatur, Fotokamera, App- Store, Musikplayer, E-Mail-Empfang und WiFi-Fähigkeit - stark gewachsen: Samsung, Huawei, Oppo, HTC und natürlich Apple selbst (Cecere et al. 2015).  Verdrängung von Wettbewerbern - andere Unternehmen, die das dominante Design nicht produzieren können oder bewusst weiter an ihren bisherigen Produktkonzepten festhalten, verlieren Marktanteile und werden perspektivisch in Nischen verdrängt oder <?page no="185"?> Wettbewerb und Innovationen 185 zum Marktaustritt gezwungen, die jetzt in Phase 2 zu beobachten sind: Im Fall der Smartphone-Industrie insbesondere die vormaligen Marktführer Nokia, deren unternehmensspezifische Fähigkeiten nicht ausreichten, und der Blackberry-Hersteller Research in Motion, die beide weiterhin an der Kombination kleiner Bildschirm und physische Tastatur festgehalten haben.  Reduktion von Unsicherheit - durch das dominante Design wird die Unsicherheit in der Industrie deutlich reduziert, so dass jetzt Anreize für Investitionen in Produktionskapazität, Branding, Kundenbasis und Unternehmensgröße entstehen und unternehmensspezifische Fähigkeiten aufgebaut und weiterentwickelt werden.  Aufbau von Eintrittsbarrieren - mit diesen Wachstumsprozessen geht auch der Aufbau von strukturellen und strategischen Eintrittsbarrieren einher, so dass jetzt die Markteintritte neuer Unternehmen und die Eintrittsraten (vgl. auch ► Tabelle 4.2) deutlich geringer werden. Gleichzeitig nimmt aber die Erfolgswahrscheinlichkeit eines dauerhaften Verbleibs in der Industrie jetzt zu - die Ursache liegt wiederum in reduzierter Unsicherheit und jetzt besser einschätzbaren Rahmenbedingungen des Wettbewerbsprozesses. Innovationen und technologisches Regime Schumpeter hat in Theorie der wirtschaftlichen Entwicklung (1911) und in Capitalism, Socialism and Democracy (1942) die Frage nach Wettbewerbsvorteilen im Innovationsprozess in Abhängigkeit der Unternehmensgröße sehr unterschiedlich beantwortet: 1911 sah er kleine, innovative und junge Unternehmen (Start-ups) im Wettbewerb als wesentlichen Treiber des technologischen Fortschritts, 1942 betonte er die Rolle großer Unternehmen aufgrund der hohen Kapitalintensität von F&E-Prozessen und den notwendigen industriespezifischen Kenntnissen. Tatsächlich scheinen beide Sichtweisen Berechtigung zu haben: Zum einen verändern sich im Zeitablauf die relativen Rollen der Unternehmen im Innovationsprozess, zum anderen bilden sich in vielen Industrien unternehmensspezifische Rollen im F&E-Prozess (Fokus auf Grundlagenforschung, Produktentwicklung, Pionier vs. Imitator etc.) heraus. Damit existiert ein industrieübergreifendes Ökosystem aus Kunden, Unternehmen und Zulieferern im F&E-Bereich, welches die industriespezifischen Muster von Innovationen und das Zusammenspiel großer und kleiner Unternehmen bestimmt. Nelson und Winter (1982) und Winter (1984) haben, zur gemeinsamen Betrachtung und Erklärung von Wettbewerbs- und Innovationprozessen, den Determinanten der Entstehung von neuem Wissen zentrale Bedeutung zugeschrieben und die Umwelt- und Wettbewerbsbedingungen für Innovationen als technologisches Regime definiert. Die beiden - auf Schumpeter zurückgehenden - zentralen Fragestellungen sind, ob  neues Wissen - Produktinnovationen, neue Geschäftsmodelle oder Technologien - eher in Forschungslaboren und Entwicklungsabteilungen großer etablierter Unternehmen entsteht, oder aber durch Start-ups oder Ausgründungen hervorgebracht wird, und ob  sich neues Wissen in erfolgreichen neuen Unternehmen manifestiert, oder ob neues Wissen direkt von großen etablierten Unternehmen absorbiert wird. Die in empirischen Untersuchungen und Fallstudien gefundenen Regelmäßigkeiten der Entstehung von neuem Wissen und deren Rückwirkung auf Unternehmen lassen sich, wie in <?page no="186"?> Unternehmen, Wettbewerb und Innovationen 186 ► Abbildung 4.11 gezeigt, zwei unterschiedlichen Umwelt- und Wettbewerbsbedingungen für Innovationen zuordnen - einem Entrepreneurial und einem Routinized Regime. Empirisch können viele Industrien einem spezifischen technologischen Regime zugeordnet werden. Das Entrepreneurial Regime beschreibt Rahmenbedingungen, welche die Entstehung und Eintritte neuer innovativer Unternehmen fördern. Dagegen sind im Routinized Regime Innovationen stark pfadabhängig und basieren wesentlich auf vorhandenem Wissen - so erklären sich Wettbewerbsvorteile für etablierte Unternehmen auf Basis unternehmensspezifischer Fähigkeiten und umfangreichem Erfahrungswissen (Audretsch 1991 und 1995, Breschi et al. 2000, Malerba und Orsenigo 1993 und 1996, Malerba 2007 sowie Münter 1999). Abbildung 4.11: Empirische Regelmäßigkeiten von Entrepreneurial und Routinized Regime. In welchem Regime sich eine Industrie befindet, hängt wesentlich davon ab, ob das Hervorbringen von neuem Wissen und Innovationen und das Nutzen entstehender technologischer Möglichkeiten umfangreiches akkumuliertes Wissen und industriespezifische Erfahrungen benötigt, oder ob dies auch außerhalb bestehender Unternehmen und ohne langjährige industriespezifische Erfahrungen erfolgen kann (Dosi 1988, Patel und Pavitt 1994, Dosi et al. 2011 sowie Dosi und Nelson 2016):  Technologische Möglichkeiten einer Industrie werden determiniert durch Grundlagenforschung, Basisinnovationen und Technologieentwicklung in anderen Industrien. Je umfangreicher und je besser erkennbar die technologischen Möglichkeiten sind, desto größer sind die Anreize für Unternehmen in F&E zu investieren, je unklarer und unsicherer diese Möglichkeiten sind, desto geringer sind die F&E-Anstrengungen.  Akkumulierbarkeit von Wissen beschreibt, wie stark technologisches oder prozessuales Wissen aufeinander aufbaut und einander bedingt. Je höher die Akkumulierbarkeit und je Entrepreneurial Regime Routinized Regime unternehmensspezifische Fähigkeiten Adaption industriespezifischer Fähigkeiten neues Wissen entsteht ... Überlebensfähigkeit neuer Unternehmen Anzahl Unternehmenseintritte Anzahl und Größe der Unternehmen Wachstumsraten der Unternehmen neues Wissen ... gering gering und wenig effektiv außerhalb bestehender Organisationen gering, weil Kriterien für Überleben unklar sind hoch aufgrund fehlender Eintrittsbarrieren viele, aber klein hoch und heterogen zerstört vorhandenes Wissen oder macht es obsolet hoch schnell und effektiv innerhalb bestehender Unternehmen hoch, weil Überlebensparameter klar erkennbar gering wegen strategischer Eintrittsbarrieren wenige, aber mittel und groß gering bei reduzierter Varianz basiert auf vorhandenem Wissen und erweitert es technolgisches Regime <?page no="187"?> Wettbewerb und Innovationen 187 pfadabhängiger die Entwicklung ist, desto höher sind F&E-Investitionen und -Anreize. Kann Wissen jedoch nicht akkumuliert oder vielfältig weiterverwendet oder angewendet werden - hat es also eine hohe Verblassungsrate - wird wenig in neues Wissen investiert.  Appropriierungsbedingungen einer Industrie bestimmen, wie stark sich Unternehmen die Vorteile (insbesondere Gewinne) aus neuen Produkten und Prozessen aneignen können. Je stärker und dauerhafter sich Unternehmen die Vorteile aus eigenen Innovationen aneignen können, desto größer sind die Anreize für Unternehmen in F&E zu investieren. Dies wird unter anderem von Eigentumsrechten für Wissen (Patente etc.), der Wettbewerbsintensität zwischen Unternehmen sowie der Zahl parallel in der Industrie verfolgter oder realisierter technologischer Pfade beeinflusst. Wenn zahlreiche konkurrierende technologische Pfade existieren, werden diese eher von kleinen Unternehmen entwickelt und bei hohem Risiko für die Existenz des Unternehmens in einem Trial-and-Error-Prozess vorangetrieben. Große Unternehmen investieren erst, wenn sich eine Entwicklung als zukunftsfähig und belastbar herausbildet. Eine Industrie befindet sich im Entrepreneurial Regime, wenn zur Appropriierung von Gewinnen aus neuem Wissen und zur Nutzung vorhandener technologischer Möglichkeiten schwach akkumuliertes Wissen ausreicht oder auch keinerlei industriespezifische Erfahrung notwendig ist. Ist stark akkumuliertes unternehmensspezifisches Wissen und entsprechende industriespezifische Erfahrungen notwendig, befindet sich eine Industrie im Routinized Regime. Abbildung 4.12: Überlebensfähigkeit der Unternehmen, Reduktion technologischer Pfade, Emergenz des dominanten Designs und Entstehung von Eintrittsbarrieren. Entstehung des dominanten Designs Zeit industriespezifisches Wissen Entrepreneurial Regime Routinized Regime etablierte Unternehmen mit ähnlichen Technologiepfaden im Routinized Regime heterogene Technologiepfade im Entrepreneurial Regime Eintrittsbarriere in Form von akkumuliertem industriespezifischem Wissen <?page no="188"?> Unternehmen, Wettbewerb und Innovationen 188 Zahlreiche Industrien sind im Zeitablauf durch einen Übergang vom Entrepreneurial zum Routinized Regime gekennzeichnet, wie in ► Abbildung 4.12 skizziert, der mit dem Entstehen des dominanten Designs und dem Erreichen der maximalen Unternehmenszahl zusammenfällt. Im Entrepreneurial Regime verfolgen viele kleine Unternehmen sehr unterschiedliche technologische Pfade. Zahlreiche Unternehmen - angedeutet durch die gestrichelten Pfeile - haben eine begrenzte Überlebensfähigkeit und treten nach einiger Zeit mangels Gewinnen aus der Industrie aus. Einigen anderen Unternehmen - angedeutet durch die durchgezogenen Pfeile - gelingt dagegen auf Basis dynamischer Fähigkeiten der Aufbau von industriespezifischem Wissen, welches das Überleben absichert. Gleichzeitig reduziert sich die Vielfalt der in der Industrie verfolgten technologischen Pfade deutlich. Der Übergang ist gleichbedeutend mit entstehenden Eintrittsbarrieren in Form von industriespezifischem Wissen und unternehmensspezifischen Fähigkeiten. In frühen Phasen eines Industrielebenszyklus sind insbesondere junge, kleine und häufig wissenschafts- und forschungsnahe Start-ups im Innovationsprozess dominant: Sie bringen mehr und grundlegende Innovationen in den Markt ein. Mit dem Übergang zum Routinized Regime sind in späteren Phasen des Industrielebenszyklus etablierte Unternehmen mit investitionsstarken F&E-Abteilungen im Innovationswettbewerb überlegen und bringen entweder regelmäßig neue Produkte oder Prozesse hervor oder sind in der Lage, sehr schnell und effektiv in der Industrie entstehendes Wissen zu erlernen, zu absorbieren und in die eigene Organisation zu übertragen (Cohen und Levinthal 1990, Zahra et al. 2006 und Teece 2007). Mit dem Übergang von Entrepreneurial Regime zum Routinized Regime verändert sich auch der Wettbewerb zwischen den Unternehmen in zwei wichtigen Dimensionen grundlegend:  Reduktion von Unsicherheit und Risiko - für alle Unternehmen und Kunden reduzieren sich mit dem Übergang zum Routinized Regime Unsicherheit und Risiko: Wesentliche Produkteigenschaften, die zukunftsfähigen Technologien, die Größe des Marktes und relevanten Wettbewerber werden deutlich besser erkennbar. Der Rückgang an Unsicherheit führt ebenfalls zu besseren Finanzierungsmöglichkeiten über den Kapitalmarkt und durch Banken, so dass zusammengenommen jetzt kontinuierliches Wachstum der überlebensfähigen Unternehmen möglich ist.  Beginn von strategischem Verhalten - während des Entrepreneurial Regimes müssen Unternehmen insbesondere die Möglichkeit deutlicher technologischer und/ oder marktseitiger Veränderungen und Unsicherheit berücksichtigen. Einzelne Wettbewerber und deren Strategien spielen in dieser Phase eine untergeordnete Rolle, da deren Überlebensfähigkeit nicht klar zu erkennen ist und Strategien sehr schnellen Veränderungen unterliegen. Der Übergang zum Routinized Regime ermöglicht erstmals strategisches Verhalten, da jetzt die überlebensfähigen Wettbewerber klar identifizierbar und deren Strategien erkennbar werden. Durch strategische Investitionen in Sunk-Cost-Aktivitäten (große Produktionsanlagen, Marketing und Branding, M&A, unternehmensspezifische Fähigkeiten etc.) entstehen jetzt ‚etablierte Unternehmen‘, die sich aufgrund dieser unternehmensspezifischen Fähigkeiten und Investitionen von Start-ups unterscheiden und Wettbewerbsvorteile aufbauen. <?page no="189"?> Wettbewerb und Innovationen 189 Entwicklung von Wissen im Zeitablauf Der Aufbau von Wissen, das Erlernen technologischer Möglichkeiten und die Diffusion von Innovationen erfolgt entlang eines S-förmigen Verlaufs über die Zeit, wie in ► Abbildung 4.13 links abgebildet (Foster 1986, Christensen 1992 und Rogers 2010). Für jede Technologie werden erst geringe, dann ansteigende, dann wieder abnehmende Zuwächse an Wissen oder betreffend der Leistungsfähigkeit einer Technologie beobachtet, welche die Möglichkeiten einer Technologie sukzessiv ausschöpfen. Das S-förmige Muster kommt zustande, weil zunächst grundlegend mit einer neuen Technologie oder den Möglichkeiten neuen Wissens experimentiert werden muss, und so nur sehr kleine Fortschritte möglich sind. Sobald die Unsicherheit betreffs der Möglichkeiten der neuen Technologie zurückgeht und eine kritische Masse möglicher Produkte oder Anwendungen identifiziert wird, beschleunigt sich der industrieweite Lern- und Entwicklungsprozess durch einen massiven Anstieg an kumulierten F&E-Investitionen der Unternehmen deutlich. Schließlich setzt eine Verlangsamung und Verringerung der Lernrate ein, da die Möglichkeiten der Technologie zunehmend - bspw. aufgrund physischer Gesetzmäßigkeiten - ausgeschöpft sind. Dieses Muster an Wissenszuwachs gilt in gleicher Weise auf Unternehmenswie auf Industrieebene und ist für viele Produkte und Industrie nachgewiesen - Tragfähigkeit von Segelschiffen, Zuglast von Diesellokomotiven, Gummiabrieb von Autoreifen, Sitzplatzanzahl in Passagierflugzeugen, Speicherplatz auf Festplatten, Verarbeitung von Baumwolle, Belastbarkeit von Kunststoff oder Gewichtsreduktion bei Rennrädern - allerdings auch für menschliches Erlernen neuer Fähigkeiten. Die Innovationsrate (oder Lernrate) entlang einer Technologie wird unter anderem durch den F&E-Aufwand der Unternehmen, die Wettbewerbsintensität, und die wechselseitige Adaptierbarkeit von Technologiefortschritten anderer Unternehmen beeinflusst: Dies ist unmittelbar aus ► Abbildung 4.12 erkennbar, in der sich eine S-Kurve des industriespezifischen Wissens im Übergang von Entrepreneurial zu Routinized Regime herausbildet. Abbildung 4.13: Technologie als S-Kurve und Abfolge von Generationen von Technologien. Zeit Wissen und Technologie T Möglichkeiten einer Technologie Rate des technologischen Fortschritts („Lernprozess“) Zeit Wissen und Technologie T 1 T 2 T 3 <?page no="190"?> Unternehmen, Wettbewerb und Innovationen 190 In ► Abbildung 4.13 rechts ist dargestellt, dass oft Abfolgen von Technologien im Zeitablauf zu beobachten sind. Wenn die technologischen Möglichkeiten einer Technologie zunehmend ausgeschöpft sind, investieren Unternehmen stärker in eine nachfolgende Generation dieser Technologie und führen diese in den Markt ein, sobald die Leistungsfähigkeit mindestens diejenige der vorherigen Technologiegeneration erreicht hat. Dies ist bei Computerprozessoren für PCs gut nachzuvollziehen: Zunächst wird ein Prozessor, bspw. ein Intel 80486 im Jahr 1989, in einer Basiskonfiguration neu in den Markt eingeführt. Nach der Einführung werden - durch unterschiedliche Unternehmen - über Taktraten (von 16 MHz auf bis zu 100 MHz), die Cache-Bestückung des Chips sowie Adressierbarkeit durch Software sukzessiv die Möglichkeiten dieser Technologiegeneration bis 1994 ausgeschöpft. Vorausgehende und nachfolgende Generationen von Intel-Computerprozessoren - 8088, 80186, 80286, 80386, 80486, P5, Celeron, i3, i5 und i7 - durchlaufen dasselbe Muster, ebenso die adaptierten Prozessoren der Wettbewerber. Wissenserhaltende Innovationen versus disruptive Innovationen Für die Abfolge der Technologien sind zwei Muster regemäßig zu beobachten: Pfadabhängige wissenserhaltende Innovationen (Sustaining Innovation) und wissenszerstörende disruptive Innovationen (Bower und Christensen 1995 sowie Christensen und Bower 1996). In ► Abbildung 4.14 sind beide Fälle skizziert. Bei einer wissenserhaltenden Innovation und einem Übergang von Technologie 1 zu Technologie 2, der durch eine relativ lange Übergangszeit und geringe technologische Differenz charakterisiert ist, sind bestehende Unternehmen in der Regel gut in der Lage, die neue Technologie zu adaptieren. Grundlage dafür ist pfad- und erfahrungsabhängiges Wissen über die bisherige Technologie, welches das Verstehen und Bewerten der neuen Technologie ermöglicht, Unsicherheit betreffs der Implementierung reduziert und die Anpassungsprozesse gerade in etablierten Unternehmen gut gestaltbar macht. Eine Abfolge kontinuierlicher, wissenserhaltender und -erweiternder Innovationen - über mehrere Jahre oder sogar Jahrzehnte - findet dann innerhalb eines industriespezifischen Paradigmas statt (Dosi 1982, Christensen und Rosenbloom 1995 und Castellacci 2008). Dieses ist im Routinized Regime gekennzeichnet durch Strategien, Geschäftsmodelle, Prozesse und Produkte, die im Wesentlichen von allen Unternehmen einer Industrie in ähnlicher Weise verstanden und angewendet werden. So ähneln sich bspw. Unternehmen in der Finanzdienstleistungsindustrie derart, dass ein Mitarbeiter sich bei einem Wechsel von BNP Paribas zur Deutschen Bank oder zur Banco Santander schnell zurechtfindet, weil im Wesentlichen die gleichen Dinge auf die gleiche Art und Weise gemacht werden und ähnliche strategische Überlegungen eine Rolle spielen. Ein industriespezifisches Paradigma fasst - im Sinne von Kuhn (1962) - alle Routinen, Prinzipien, Standardantworten und das Wissen zusammen, die von Unternehmen angewendet werden, um im Wettbewerb zu bestehen. Wissenserhaltende Innovationen stabilisieren ein industriespezifisches Paradigma, festigen die Positionen etablierter Unternehmen und stärken Eintrittsbarrieren gegenüber neuen Unternehmen. <?page no="191"?> Wettbewerb und Innovationen 191 Abbildung 4.14: Wissenserhaltende Innovationen und disruptive Innovationen. Disruptive Innovationen zerstören dagegen industriespezifische Paradigmen und gefährden Unternehmen in ihrer Existenz und verändern Marktstrukturen - in einem Prozess schöpferischer Zerstörung wie ursprünglich von Schumpeter (1942) beschrieben -, so dass neu in den Markt eintretende Unternehmen regelmäßig etablierte Unternehmen verdrängen und deren Marktführerschaft ablösen. Bei einer disruptiven Innovation und einem Übergang von Technologie 2 zu Technologie 3, der - wie in ► Abbildung 4.14 rechts zu sehen - durch eine relativ kurze Übergangszeit und eine große technologische Differenz charakterisiert ist, sind bestehende Unternehmen oft nicht in der Lage, die neue Technologie schnell genug und treffsicher zu adaptieren. Der Grund hierfür ist, dass pfad- und erfahrungsabhängiges Wissen aus dem bisherigen Paradigma eine Einordnung und Bewertung der neuen Technologie nicht unterstützen, sondern erschweren: Die Technologie unterscheidet sich in vielen Dimensionen grundlegend von der bisherigen und so entsteht Unsicherheit betreffs der Implementierung. Unternehmen sind auf Grund pfadabhängiger Sichtweisen sprichwörtlich blind gegenüber disruptiven Innovationen, zögern dann bei der Adaption und werden in der Folge von neuen Wettbewerbern aus dem Markt gedrängt. Disruptive Innovationen bringen ein neues industriespezifisches Paradigma hervor: Bisherige Routinen, grundlegende Prinzipien und vorhandenes Wissen werden in weiten Teilen obsolet und zerstört, so dass etablierte Unternehmen ihre ressourcenbasierten Wettbewerbsvorteile verlieren. So hat das Versandhaus Quelle die Bedeutung von E-Com- Zeit Wissen und Technologie T1 T2 T3 A 12 A 23 G 12 G 23 disruptive Innovation bisheriges Paradigma künftiges Paradigma wissenserhaltende Innovation <?page no="192"?> Unternehmen, Wettbewerb und Innovationen 192 merce und die Bedrohung durch Amazon nicht verstanden, Enzyklopädie-Verlage wie Brockhaus oder Britannica haben die Möglichkeiten von kollaborativem Erstellen von Artikeln wie bei Wikipedia übersehen, Telekommunikationsanbieter haben weite Teile der Erlöse aus SMS aufgrund kostenloser Dienste wie WhatsApp verloren und Filmhersteller wie Kodak - die tatsächlich die digitale Fotografie miterfunden haben - haben die Möglichkeiten und die Entwicklungsgeschwindigkeit einer neuen Technologie völlig falsch eingeordnet, die zu neuen Kameras, neuem Kundenverhalten und neuen Geschäftsmodellen und Produkten führten. Für das Scheitern etablierter Unternehmen werden regelmäßig drei sich wechselseitig verstärkende Ursachen identifiziert (Klenner 2011, Kelly und Amburgey 1991, Christensen und Bower 1996 sowie Hill und Rothaermel 2003):  Die generelle Trägheit von etablierten Unternehmen in Veränderungs- und Anpassungsprozessen, d.h. zu schwach ausgeprägte dynamische Fähigkeiten, die sich in fehlender Flexibilität und Adaptivität in Bezug auf Technologieveränderungen niederschlagen.  Pfadabhängige Investitionen in die bisherige Technologie oder Marktposition, die einen Wechsel der Technologie aus finanzieller Perspektive unattraktiv erscheinen lassen, weil das Bestandsgeschäft (noch) profitabel ist. Zudem haben pfadabhängige Investitionen Sunk-Cost-Charakter, so dass Abschreibungen auf Kapitalstöcke das Überleben der Unternehmen gefährden.  Eine strategische Fehleinschätzung der sich rapide verändernden Markt- und Umweltbedingungen sowie Unsicherheit aufgrund sich verschiebender Leistungsmerkmale der Produkte und entstehende Wettbewerbsvorteile für neue Unternehmen. Die Merkmale disruptiver Innovationen gleichen sich über viele Industrien und Studien. Im Kern ist das neu aufkommende Produkt oder Geschäftsmodell zunächst aufgrund eingeschränkter Funktionalität keine Bedrohung für etablierte Unternehmen - das Wachstum erfolgt mit wenigen Kunden in Nischenmärkten. Allerdings sind Produkte auf Basis disruptiver Innovationen oft einfacher zu bedienen und fokussieren auf Leistungsmerkmale, die bislang nicht verfügbar waren. So waren die ersten Digitalkameras zwar sehr schwer und unhandlich, die maximale Auflösung und die maximale Zahl der Bilder blieb deutlich hinter Analogkameras zurück - dafür haben Digitalkameras zu einem Wettbewerbsvorteil im Nischenmarkt der Sportfotografie geführt (Klenner 2011 und Klenner et al. 2013.). Etablierte Unternehmen können bei einer Verbesserung der Leistungsparameter des disruptiven Konkurrenzproduktes nicht in Form einer kontinuierlichen Verbesserung ihrer bisherigen Produkte reagieren - eine Analogkamera kann keine 2000 Bilder speichern, die Kosten pro Foto können nicht auf Null gesenkt werden, man kann kein Fotobuch erstellen und ein Hochladen oder Teilen der Bilder in soziale Netzwerke ist unmöglich. In der Folge wurde das komplette Wertschöpfungsnetzwerk analoger Fotografie zerstört und durch ein neues digitales Ökosystem ersetzt - zahlreiche Unternehmen (Filmhersteller, Kameraherstellen, Filmentwickler, Fotofachgeschäfte und Vertriebspartner) verloren in diesem Prozess schöpferischer Zerstörung ihre Existenzgrundlage und wurden aus dem Markt gedrängt. <?page no="193"?> Wettbewerb und Innovationen 193 Klassifikation von Innovationen Die Wettbewerbswirkungen von Innovationen können anhand der Transilience Map, wie in ► Abbildung 4.15 oben skizziert, abgeschätzt werden (Abernathy und Clark 1985, Clark 1985 sowie Henderson und Clark 1990). Innovationen werden hier gleichzeitig in ihrer wissenserhaltenden und wissenszerstörenden Wirkung auf die Kunden-Markt-Beziehung und die Technologie in vier mögliche Ausprägungen geordnet:  Pfadabhängige Innovationen stärken bestehende Kundenbeziehung auf Basis vorhandener Technologie. Im Wesentlichen werden hier inkrementell Leistungsmerkmale der Produkte verändert oder die Produktionskosten reduziert. Die Markteinführungen von Produktgenerationen in der Automobilindustrie fallen in diese Kategorie. Pfadabhängige Innovationen sind wissenserhaltend und stabilisieren das Wettbewerbsverhalten der Unternehmen im Routinized Regime und festigen die Rolle etablierter Unternehmen - das akkumulierte Wissen der Unternehmen steigt an.  Wird bestehende Technologie auf einen neuen Markt oder ein neues Marktsegment angewendet, kommt es zur Nischenbildung. Insbesondere gilt dies auch, wenn ein Unternehmen mit bestehender Technologie Kundensegmente eines Wettbewerbers adressiert. Auf diese Art hat Sony in den 1980er-Jahren mit dem Walkman große Marktanteile gewonnen. Ähnlich basieren die Strategien der Automobilhersteller, mit SUVs Wettbewerbern Marktanteile abzunehmen, vollständig auf vorhandener Technologie, adressieren aber neue Marktsegmente.  Wird eine vorhandene Kundenbeziehung stabilisiert oder ausgebaut, aber eine vollständig neue Technologie verwendet, liegt eine revolutionäre Innovation vor. In diese Kategorie fallen die Strategien etablierter Banken, ihr Filialgeschäftsmodell mit den Bestandskunden in Richtung Onlinebanking umzubauen, oder von Bildschirmherstellern beim Übergang zu hochauflösenden Formaten und Technologien. Revolutionäre Innovationen werden von etablierten Unternehmen mit starken F&E-Abteilungen hervorgebracht, die teilweise ihre eigene Wissensbasis obsolet machen. Gleichzeitig werden hierdurch die Eintrittsbarrieren reduziert, so dass das technologische Paradigma und indirekt die etablierten Unternehmen angreifbar werden.  Wenn sowohl die bestehende Marktbeziehung als auch der vorhandene Technologiepfad zerstört werden, kommt es zu einer disruptiven Innovation (auch als Architectural Innovation bezeichnet). Hiermit werden neue Märkte geschaffen, bestehende Märkte und die Grundmuster des strategischen Verhaltens sowie die Ausprägung der Wettbewerbsvorteile grundlegend verändert und etablierte Unternehmen in ihrer Existenz bedroht. Amazon hat in dieser Definition eine mehrdimensionale disruptive Innovation umgesetzt: Durch reinen E-Commerce wurde die Technologiedimension im Einzelhandel erneuert, durch die Kombination aus Proliferation- und Long-Tail-Strategie (Ausdehnung in alle Produktkategorien und Besetzung aller Nischen in jeder Kategorie) wurden die Kundenbeziehungen bestehender Wettbewerber zerstört und durch das Öffnen der Plattform für Drittanbieter wurde mit einem mehrseitigen Markt eine strategische Innovation etabliert. <?page no="194"?> Unternehmen, Wettbewerb und Innovationen 194 Abbildung 4.15: Disruptive Innovationen und technologisches Regime. Die Transilience Map findet in der Strategieentwicklung oder Investitions- und Portfolioplanung von Unternehmen Anwendung, um die Positionierung neuer Produkte festzulegen oder das Verhalten von Wettbewerbern einzuordnen. Zudem kann über diese Definition von Disruption - der gleichzeitigen Zerstörung von Technologie und Kundenbeziehung - ein Rückschluss auf die Dynamik technologischer Regime erfolgen, wie in ► Abbildung 4.15 unten gezeigt: Markt/ Kunden Disruption und Erneuerung pfadabhängige Innovation revolutionäre Innovation Technologie Stärkung und Ausbau Stärkung und Ausbau Disruption und Erneuerung bestehende Fähigkeiten Nischenbildung disruptive Innovation bestehende Fähigkeiten Approprierungsbedingungen hoch entrepreneurial regime disruption niedrig niedrig hoch akkumuliertes Wissen Zeit routinized regime akkumuliertes Wissen technologische Möglichkeiten <?page no="195"?> Zusammenfassung 195  Über die Zeit entwickelt sich eine Industrie vom Entrepreneurial Regime in das Routinized Regime - wesentlicher Grund ist, dass zum Ergreifen technologischer Möglichkeiten und zum Appropriieren von Gewinnen zunächst gering akkumuliertes Wissen ausreicht, aber mit Entstehen des dominanten Designs immer stärker industriespezifisch akkumuliertes Wissen notwendig wird, welches zu Teilen auf Erfahrung, zu anderen Teilen auf F&E- Investitionen basiert.  Zerstört eine disruptive Innovation industriespezifisches Wissen, gehen die Vorteile der etablierten Unternehmen verloren und Eintrittsbarrieren verlieren drastisch an Bedeutung. Die Industrie fällt zurück vom Routinized in das Entrepreneurial Regime und junge, neue Unternehmen können jetzt in großer Zahl in die Industrie eintreten und versuchen, Marktanteile zu gewinnen. Diese Situation ist seit etwa 2010 in der Finanzdienstleistungsindustrie zu beobachten (Münter und Weisser 2016). Ob FinTechs - junge technologiebasierte Unternehmen, die virtuelle Produkte und digitale Geschäftsmodelle etablieren - tatsächlich dauerhaft überlebensfähig sind und signifikant Marktanteile gewinnen können, hängt wesentlich von der Frage ab, ob und wie schnell etablierte Banken lernen können und sich auf Basis dynamischer Fähigkeiten an veränderte Umweltbedingungen anpassen können. 4.4 Zusammenfassung Unternehmen basieren auf Wissen, welches reinen oder spontanen Marktlösungen überlegen ist. Die Überlebensfähigkeit von Unternehmen im Wettbewerb hängt davon ab, ob Wettbewerbsvorteile in Gewinne umgewandelt werden können, die den Erwartungen der Eigentümer entsprechen. Die Hypothese der Gewinnmaximierung als solche ist sowohl aus verhaltenswissenschaftlicher, aus strategischer wie auch aus Corporate-Governace-Perspektive fraglich. Aus Managementperspektive ist zentral zu verstehen, welches die wesentlichen Wettbewerbsvorteile und Gewinntreiber eines Unternehmens sind. Wettbewerbsvorteile von Unternehmen können aus zwei sich ergänzenden Blickwinkeln erklärt werden. Der Markt-based View betont die Frage der strategischen Positionierung eines Unternehmen im richtigen Markt, der Resource-based View stellt die Anwendung und Weiterentwicklung der richtigen Fähigkeiten heraus - Gewinne von Unternehmen sind dementsprechend bestimmt durch unternehmens- und industriespezifische Faktoren. Ob und wie stark Wettbewerbsvorteile aufgebaut und eingesetzt werden können, hängt wesentlich vom Zusammenspiel von Wettbewerb und Innovationen im Zeitablauf in unterschiedlichen technologischen Regimen ab. Ein Industrielebenszyklus ist in frühen Phasen durch ein Entrepreneurial Regime geprägt in dem junge, kleine Start-ups Vorteile im Innovationsprozess besitzen. Wenn ein dominantes Design entsteht und es einigen Unternehmen gelingt, industriespezifisches Wissen als Eintrittsbarriere aufzubauen, wechselt der Wettbewerb in das Routinized Regime. Durch wissenserhaltende Innovationen kann sich ein stabiles technologisches Paradigma herausbilden, durch wissenszerstörende disruptive Innovationen können - entsprechend der von Schumpeter argumentierten schöpferischen Zerstörung - etablierte Unternehmen aus dem Markt gedrängt und Marktstrukturen vollstän- <?page no="196"?> Unternehmen, Wettbewerb und Innovationen 196 dig verändert werden. Vor diesem Hintergrund muss aus Managementperspektive einerseits eingeschätzt werden, in welchem technologischen Regime und Paradigma sich ein Unternehmen befindet, zum anderen muss das Risiko von wissenszerstörenden Innovationen abgeschätzt werden - entsprechend muss das eigene Innovationsportfolio ausgerichtet werden.  Literaturtipps Unternehmen, Wettbewerbsvorteile und Innovationen sind ein umfangreiches Thema - wer einen umfassenden mikroökonomischen Einblick will, sollte Belleflamme, P. und Peitz, M., Industrial organization: markets and strategies, London 2015, nehmen. Bei Perloff, J.M. und Brander, J.A., Managerial Economics and Strategy, London 2017, ist weniger Mathematik im Einsatz, dafür ein stärkerer Bezug strategischem Management. Wenn es auch ganz ohne Formeln geht, dann ist für Unternehmensstrategie und Unternehmen Johnson, G., Whittington, R., Scholes, K., Angwin, D. und Regnér, P., Exploring Strategy, Harlow 2017, oder Grant, R., Contemporary Strategy Analysis, Hoboken 2019, gut geeignet.  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von Wettbewerb, der Existenz von Unternehmen und Marktstruktur sowie deren Grenzen, Vor- und Nachteile! [2] Erläutern Sie aus unterschiedlichen Perspektiven, weshalb es Unternehmen gibt. [3] Beschreiben Sie Grundüberlegungen einer Unternehmensgründung! [4] Erläutern Sie Unterschiede und Gemeinsamkeiten von Market-based View und Resourcebased View zur Erklärung von Wettbewerbsvorteilen und Entwicklung von Strategien. [5] Erläutern Sie die wesentlichen Aussagen der Prinzipal-Agent-Theorie! [6] Erläutern Sie Unterschiede zwischen neuen und etablierten Unternehmen! [7] Erläutern Sie den Begriff disruptiver Innovation! Welche beiden Bedingungen müssen hierfür gegeben sein? Erläutern Sie Beispiele für drei Industrien, in denen durch Disruption etablierte Unternehmen verdrängt wurden! [8] Erläutern Sie die Bedeutung von Eintrittsbarrieren für die Profitabilität der Unternehmen in einer Industrie! Erläutern Sie drei mögliche Formen von Eintrittsbarrieren! [9] Wie entwickelt sich typischerweise die Zahl der Unternehmen einer Industrie langfristig? Was sind mögliche Erklärungen für dieses Muster? [10] Erläutern Sie den Zusammenhang zwischen Marktstruktur, Strategie und Marktergebnis! [11] Erläutern Sie den Zusammenhang zwischen Strategie, Wettbewerbsvorteilen und Gewinnen! [12] Beschreiben Sie den Einfluss auf Unternehmensstrategie beim Übergang von Entrepreneurial zu Routinized Regime! <?page no="197"?> Zusammenfassung 197  Literatur Abernathy, W.J. und Clark, K.B., Innovation: mapping the winds of creative destruction, Research Policy, 1985, 14, 3-22. Acs, Z.J. and Audretsch, D.B., Handbook of entrepreneurship research: an interdisciplinary survey and introduction, Vol. 1, Berlin 2006. Ajzen, I., The theory of planned behavior, Organizational Behavior and Human Decision Processes, 1991, 50, 2, 179- 211. Alchian, A.A. und Demsetz, H., Production, information costs, and economic organization, American Economic Review, 1972, 62, 5, 777-795. Alchian, A.A., Uncertainty, evolution, and economic theory, Journal of Political Economy, 1950, 58, 3, 211-221. Alvarez, S. und Parker, S.C., Emerging firms and the allocation of control rights, Academy of Management Review, 2009, 34, 2, 209-227. Arenius, P. und Minniti, M., Perceptual variables and nascent entrepreneurship, Small business economics, 2005, 24, 3, 233-247. Audretsch, D.B., Innovation and industry evolution, Cambridge-London 1995. Audretsch, D.B., New-firm survival and the technological regime, Review of Economics and Statistics, 1991, 73, 3, 441-450. Bain, J.S., Barriers to new competition: their character and consequences in manufacturing, Boston 1956. Barney, J.B., Types of competition and the theory of strategy: toward an integrative framework, Academy of Management Review, 1986, 11, 4, 791-800. Baysinger, B. und Hoskisson, R.E., The composition of boards of directors and strategic control: effects on corporate strategy, Academy of Management Review, 1990, 15, 1, 72-87. Block, J.H. und Wagner, M., Necessity and opportunity entrepreneurs in Germany: characteristics and earning s differentials, Schmalenbach Business Review, 2010, 62, 2, 154-174. Bloom, N., Brynjolfsson, E., Foster, L., Jarmin, R., Patnaik, M., Saporta-Eksten, I. und Van Reenen, J., What drives differences in management practices? , American Economic Review, 2019, 109, 5, 1648-1683. Böbel, I., Wettbewerb und Industriestruktur, Berlin-Heidelberg-New York-Tokyo 1984. Bower, J.L. und Christensen, C.M., Disruptive technologies: catching the wave, Harvard Business Review, 1995, 73, 1, 43-53. Bowman, E.H. und Helfat, C.E., Does corporate strategy matter? , Strategic Management Journal, 2001, 22, 1, 1-23. Bradley, C., Dawson, A. und Smit, S., The strategic yardstick you can’t afford to ignore, McKinsey Quarterly, October 2013, 2, 23-39. Breschi, S., Malerba, F. und Orsenigo, L., Technological regimes and Schumpeterian patterns of innovation, Economic Journal, 2000, 110, 463, 388-410. Brynjolfsson, E. und McAffee, A., The second machine age: work, progress, and prosperity in a time of brilliant technologies, New York-London 2016. Buchanan, B., Cao, C.X. und Chen, C., Corporate social responsibility, firm value, and influential institutional ownership, Journal of Corporate Finance, 2018, 52, 73-95. Bundesverband deutscher Fluggesellschaften, Rentabilität einer Airline spielt sich im Cent-Bereich ab, Pressemeldung 12. Juni 2013. Castellacci, F., Technological paradigms, regimes and trajectories: manufacturing and service industries in a new taxonomy of sectoral patterns of innovation, Research Policy, 2008, 37, 6, 978-994. <?page no="198"?> Unternehmen, Wettbewerb und Innovationen 198 Caves, R.E. und Porter, M.E., From entry barriers to mobility barriers: conjectural decisions and contrived deterrence to new competition, Quarterly Journal of Economics, 1977, 91, 241-261. Cecere, G., Corrocher, N. und Battaglia, R.D., Innovation and competition in the smartphone industry: is there a dominant design? , Telecommunications Policy, 2015, 39, 3, 162-175. Chen, W. und Kamal, F., The impact of information and communication technology adoption on multinational firm boundary decisions, Journal of International Business Studies, 2016, 47, 5, 563-576. Christensen, C.M. und Bower, J.L., Customer power, strategic investment, and the failure of leading firms, Strategic Management Journal, 1996, 17, 3, 197-218. Christensen, C.M. und Rosenbloom, R.S., Explaining the attacker's advantage: technological paradigms, organizational dynamics, and the value network, Research Policy, 1995, 24, 2, 233-257. Christensen, C.M., Exploring the limits of the technology S-curve - part I: component technologies, Production and Operations Management, 1992, 1, 4, 334-357. Christensen, C.M., Suarez, F.F. und Utterback, J.M., Strategies for survival in fast changing industries, Management Science, 2001, 44, 12, 207-220. Christensen, C.M., The innovator's dilemma: when new technologies cause great firms to fail, Boston 1997. Clark, K., The interaction of design hierarchies and market concepts in technological evolution, Research Policy, 1985, 14, 5, 235-251. Coase, R.H., The nature of the firm, Economica, 1937, 4, 16, 386-405. Cohen, W.M. und Levinthal, D.A., Absorptive capacity: A new perspective on learning and innovation, Administrative Science Quarterly, 1990, 35, 1, 128-152. Cubbin, J., Is it better to be a weak firm in a strong industry or a strong firm in a weak industry? , London Business School, Centre for Business Strategy, Working Paper No.49, London 1988. Donaldson, L., The ethereal hand: organizational economics and management theory, Academy of Management Review, 1990, 15, 3, 369-381. Dosi, G. und Nelson, R.R., Technological paradigms and technological trajectories, in: Augier, M. und Teece, D.J. (Hrsg.), The Palgrave Encyclopedia of Strategic Management, London 2016, 1-12. Dosi, G., Faillo, M. und Marengo, L., Organizational Capabilities, patterns of knowledge accumulation and governance structures in business firms - an introduction, Laboratory of Economics and Management (LEM), Sant'Anna School of Advanced Studies, Pisa, 2011. Dosi, G., Sources, procedures, and microeconomic effects of innovation. Journal of Economic Literature, 1988, 26, 3, 1120-1171. Dosi, G., Technological paradigms and technological trajectories: a suggested interpretation of the determinants and directions of technical change, Research Policy, 1982, 11, 3, 147-162. Economist, iProfit, 10. Februar 2011. Eisenhardt, K.M. und Martin, J.A., Dynamic capabilities: what are they? , Strategic Management Journal, 2000, 21, 10- 11, 1105-1121. Eisenhardt, K.M., Agency theory: an assessment and review, Academy of Management Review, 1989, 14, 1, 57-74. Fama, E.F., Agency problems and the theory of the firm, Journal of Political Economy, 1980, 88, 2, 288-307. Foss, N.J., The strategic management and transaction cost nexus: past debates, central questions, and future research possibilities, Strategic Organization, 2003, 1, 2, 139-169. Foster, R.N., Working the S-curve: assessing technological threats, Research Management, 1986, 29, 4, 17-20. <?page no="199"?> Zusammenfassung 199 Geroski, P.A., Gilbert, R.J. und Jacquemin, A., Barriers to new competition and strategic competition, Fundamentals of Pure and Applied Economics: theory of the firm and industrial organization, Chur 1990. Geroski, P.A., Innovation as an engine of competition, in: Mueller, D.C., Haid, A. und Weigand, J. (Hrsg.), Competition, Efficiency and Welfare, Dordrecht 1998, 13-26. Geroski, P.A., Innovation, technological opportunity, and market structure, Oxford Economic Papers, 1990, 42, 3, 586-602. Grant, R.M., Toward a knowledge-based theory of the firm, Strategic Management Journal, 1996, 17, 109-122. Hart, O. und Holmstrom, B., A theory of firm scope, Quarterly Journal of Economics, 2010, 125, 2, 483-513. Hart, O., Corporate governance: some theory and implications, Economic Journal, 1995, 105, 430, 678-689. Hayek, F.A., Der Wettbewerb als Entdeckungsverfahren, Kiel 1968. Hayward, M.L., Shepherd, D.A. und Griffin, D., A hubris theory of entrepreneurship, Management Science, 2006, 52, 2, 160-172. Henderson, R.M. und Clark, K.B., Architectural innovation: the reconfiguration of existing product technologies and the failure of established firms, Administrative Science Quarterly, 1990, 35, 9-30. Henneke, D., Dynamische Fähigkeiten und Unternehmenserfolg, Bern 2014. Hill, C.W. und Rothaermel, F.T., The performance of incumbent firms in the face of radical technological innovation, Academy of Management Review, 2003, 28, 2, 257-274. Hillman, A.J. und Dalziel, T., Boards of directors and firm performance: integrating agency and resource dependence perspectives, Academy of Management Review, 2003, 28, 3, 383-396. Hillman, A.J. und Keim, G.D., Shareholder value, stakeholder management, and social issues: What's the bottom line? , Strategic Management Journal, 2001, 22, 2, 125-139. Hutzschenreuter, T., Das Unternehmen geht vor, FAZ, 18. November 2019, 16. IATA, Profitability and the air transport value chain - an analysis of investor returns within the airline industry and its supply chain, IATA Economics Briefing, 10, 2013. Jensen, M. und Meckling, W., Theory of the firm - managerial behavior, agency costs, and ownership structure, Journal of Financial Economics, 1976, 3, 4, 305-360. Jovanovic, B. und MacDonald, G.M., The life cycle of a competitive industry, Journal of Political Economy, 1994, 102, 322-347. Jovanovic, B., Selection and the evolution of industry, Econometrica, 1982, 50, 3, 649-670. Kanbur, S.M., Risk taking and taxation: an alternative perspective, Journal of Public Economics, 1981, 15, 2, 163-184. Kelly, D. und Amburgey, T.L., Organizational inertia and momentum: a dynamic model of strategic change, Academy of Management Journal, 1991, 34, 3, 591-612. King, A.W., Disentangling inter-firm and intra-firm causal ambiguity: a conceptual model of causal ambiguity and sustainable competitive advantage, Academy of Management Review, 2007, 32, 1, 156-178. Kirzner, I., Competition and entrepreneurship, Chicago 1973. Kirzner, I.M., Competition and entrepreneurship, Chicago 1973. Klenner, P., Die Bestimmung der Disruptionsreife von Märkten, Hamborn 2011. Klenner, P., Hüsig, S. und Dowling, M., Ex-ante evaluation of disruptive susceptibility in established value networks - when are markets ready for disruptive innovations? , Research Policy, 2013, 42, 914-927. Klepper, S. und Graddy, E., The evolution of new industries and the determinants of market structure, Rand Journal of Economics, 1990, 21, 27-44. Klepper, S., Industry life cycles, Industrial and Corporate Change, 1997, 6, 145-182. <?page no="200"?> Unternehmen, Wettbewerb und Innovationen 200 Knight, F.H., Risk, uncertainty and profit, New York 1921. KPMG, Cost of capital study 2016 - value measurement, quo vadis? , Frankfurt 2016. Kuhn, T.S., The structure of scientific revolutions, Chicago 1962. Lazear, E.P., Balanced skills and entrepreneurship, American Economic Review, 2004, 94, 2, 208-211. Letza, S., Sun, X. und Kirkbride, J., Shareholding versus stakeholding: A critical review of corporate governance, Corporate Governance, 2005, 12, 3, 242-262. Lippman, S.A. und Rumelt, R.P., Uncertain imitability: an analysis of inter-firm differences in efficiency under competition, Bell Journal of Economics, 1982, 13, 418-438. Lucas, R.E., On the size distribution of business firms, Bell Journal of Economics, 1978, 9, 508-523. Malerba, F. und Orsenigo, L., Technological regimes and firm behavior, Industrial and Corporate Change, 1993, 2, 45-74. Malerba, F. und Orsenigo, L., The dynamics and evolution of industries, Industrial and Corporate Change, 1996, 5, 51-87. Malerba, F., Innovation and the dynamics and evolution of industries: progress and challenges, International Journal of Industrial Organization, 2007, 25, 675-699. Malhotra, A. und Gupta, A.K., An investigation of firms’ strategic responses to industry convergence, Academy of Management Proceedings, 2001, 1, 1-6. Mason, E.S., Price and production policies of large-scale enterprise, American Economic Review, 1939, 29, 61-74. McGahan, A.M. und Porter, M.E., How much does industry matter, really? , Strategic Management Journal, 1999, 18, 3, 15-30. McGahan, A.M. und Porter, M.E., The emergence and sustainability of abnormal profits, Strategic Organization, 2003, 1, 1, 79-108. Monopolkommission, Hauptgutachten XXIII: Wettbewerb 2020, Bonn 2020. Mueller, D.C., The dynamics of company profits, Cambridge 1990. Münter, M.T. und Weisser, N., Digital Leadership in der Finanzdienstleisterindustrie - werden etablierte Banken oder FinTechs die digitale Zukunft gestalten? , IM+io - Magazin für Innovation, Organisation und Management, 2016, 4, 106-111. Münter, M.T., Entry is easy, survival is not - some insights concerning the emergence of incumbent firms in worldwide automobile industry, Working Paper, May 2013. Münter, M.T., Gründerpersönlichkeit und Unternehmensgründung, in: Betzold, R., Emrich, E., Gassmann, F., Heidenreich, S., Jordanov, S., Koch, M., Münter, M.T. und Nguyen, Q. (Hrsg.), Unternehmensgründungen im Umfeld saarländischer Hochschulen - Empirische Ergebnisse und regionalökonomische Effekte, 2021, 111-140. Münter, M.T., Wettbewerb und die Evolution von Industrien, Bayreuth 1999. Nelson, R.R. und Winter, S.G., An evolutionary theory of economic change, Cambridge-London 1982. Nelson, R.R., Why do firms differ, and how does it matter? , Strategic Management Journal, 1991, 12, 2, 61-74. Nicolaou, N. und Shane, S., Entrepreneurship and occupational choice: genetic and environmental influences, Journal of Economic Behavior & Organization, 2010, 76, 3-14. Parker, S.C., Entrepreneurship as occupational choice, in: Minniti, M. (Hrsg.), Entrepreneurship - the engine of growth, 2007, 1, 81-100. Patel, P. und Pavitt, K., Uneven and divergent technological accumulation among advanced countries: evidence and a framework for generalisation, Industrial and Corporate Change, 1994, 3, 759-787. Penrose, E.T., The theory of the growth of firms, Oxford 1959. <?page no="201"?> Zusammenfassung 201 Peteraf, M.A., The cornerstones of competitive advantage: a resource-based view, Strategic Management Journal, 1993, 14, 3, 179-191. Porter, M.E. und Kramer, M.R., Creating shared value, Harvard Business Review, 2011, 89, 1-2, 62-77. Porter, M.E., Competitive strategy: techniques for analyzing industries and competitors, New York 1980. Porter, M.E., The competitive advantage: creating and sustaining superior performance, New York 1985. Porter, M.E., The contributions of industrial organization to strategic management, Academy of Management Review, 1981, 6, 4, 609-620. Porter, M.E., What is strategy? , Harvard Business Review, 1996, 74, 6, 71-78. Prahalad, C. und Hamel, G., The core competences of the corporation, Harvard Business Review, 1990, 68, 3, 79-90. Quinn, J.B. und Hilmer, F.G., Strategic outsourcing, Sloan Management Review, 1994, 35, 43-55. Rauch, A. und Frese, M., Born to be an Entrepreneur? Revisiting the personality approach to entrepreneurship, in: Baum, J.R. et al. (Hrsg.), The Psychology of Entrepreneurship, New York 2012, 41-65. Reed, R. und DeFillippi, R.J., Causal ambiguity, barriers to imitation, and sustainable competitive advantage, Academy of Management Review, 1990, 15, 1, 88-102. Rogers, E.M., Diffusion of innovations, New York 2010. Rosenbaum, D.I. und Lamort, F., Entry, barriers, exit, and sunk costs: an analysis, Applied Economics, 1992, 24, 297-304. Roy, R. und Sarkar, M.B., Knowledge, firm boundaries, and innovation: mitigating the incumbent's curse during radical technological change, Strategic Management Journal, 2016, 37, 5, 835-854. Rumelt, R.P. und Lamb, R., Towards a strategic theory of the firm, in: Lamb, R., Resources, firms, and strategies: a reader in the resource-based perspective, Upper Saddler River 1997, 132-145. Rumelt, R.P., How much does industry matter? , Strategic Management Journal, 1991, 12, 3, 167-185. Rumelt, R.P., Schendel, D. und Teece, D.J., Strategic management and economics, Strategic Management Journal, 1991, 12, 2, 5-29. Rumelt, R.P., The perils of bad strategy, McKinsey Quarterly, 2011, 1, 3, 30-39. Schmalensee, R., Do markets differ much? , American Economic Review, 1985, 75, 3, 341-351. Schumpeter, J.A., Capitalism, socialism and democracy, London 1942. Schumpeter, J.A., Kapitalismus, Sozialismus und Demokratie, Wien-Berlin 1950. Schumpeter, J.A., Theorie der wirtschaftlichen Entwicklung - eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus, Berlin 1911. Simoes, N., Crespo, N. und Moreira, S.B., Individual determinants of self-employment entry: what do we really know? , Journal of Economic Surveys, 2016, 30, 4, 783-806. Sleuwaegen, L. und Dehandschutter, W., The critical choice between the concentration ratio and the Herfindahl-index in assessing industry performance, Journal of Industrial Economics, 1986, 35, 193-208. Sutton, J., Sunk costs and market structure: price competition, advertising, and the evolution of concentration, Cambridge-London 1991. Teece, D.J. Explicating dynamic capabilities: the nature and microfoundations of (sustainable) enterprise performance, Strategic Management Journal, 2007, 28, 13, 1319-1350. Teece, D.J., Pisano, G. und Shuen, A., Dynamic capabilities and strategic management, Strategic Management Journal, 1997, 18, 7, 509-533. Utterback, J.M. und Abernathy, W.J., A dynamic model of process and product innovation, Omega: International Journal of Management Science, 1975, 3, 639-655. <?page no="202"?> Unternehmen, Wettbewerb und Innovationen 202 Utterback, J.M. und Suarez, F.F., Innovation, competition, and industry structure, Research Policy, 1993, 22, 1-21. Utterback, J.M. und Suarez, F.F., Patterns of industrial evolution, dominant designs, and firms’ survival, Research on Technological Innovation, Management and Policy, 1993, 5, 47-87. Voigt, S., Institutional economics, Cambridge 2019. Wagner, F.W., Wozu ist die Firma gut? , FAZ, 29. Dezember 2019, 22. Wernerfelt, B., A resource-based view of the firm, Strategic Management Journal, 1984, 5, 2, 171-180. Williamson, O.E., Markets and hierarchies - analysis and antitrust implications: a study in the economics of internal organization, New York 1975. Winter, S., Schumpeterian competition in alternative technological regimes, Journal of Economic Behavior and Organization, 1984, 5, 287-320. Zahra, S.A., Sapienza, H.J. und Davidsson, P., Entrepreneurship and dynamic capabilities: a review, model and research agenda, Journal of Management Studies, 2006, 43, 4, 917-955. <?page no="203"?> 5 Unternehmensgröße, Technologie und Produktionsentscheidungen Wenn strategische Investoren oder Finanzinvestoren den Einstieg in ein neues Geschäftsmodell oder Start-up prüfen - sei es bei Fernsehformaten wie Die Höhle der Löwen oder im richtigen Leben - ist eine zentrale Fragestellung immer, ob das Unternehmen skaliert werden kann, d.h. ob hohe Wachstumsraten möglich sind, ohne dass umfangreich weitere Mitarbeiter eingestellt werden müssen und in großem Umfang zusätzliches Eigen- und Fremdkapital notwendig ist. Skalierung hängt zum einen natürlich von der Nachfrage nach dem Produkt oder der Dienstleistung ab, aber im Kern davon, ob Wachstumsdynamik zum Erreichen von kritischer Masse oder Marktanteilen unter- oder überproportionalen Ressourceneinsatz erfordert. Wenn die Wachstumsrate eines Unternehmens die Wachstumsrate der Mitarbeiterzahl und des Kapitaleinsatzes übersteigt, liegen zunehmende Skalenerträge vor („das Geschäftsmodell skaliert“) und unter sonst gleichen Umweltbedingungen kann die Gewinnzone schneller erreicht werden. Entscheidungen über die Wachstumsrate oder die Größe von Unternehmen und deren Produktionskapazität gehören aber auch in etablierten Unternehmen zu den wesentlichen strategischen Entscheidungen: Wann immer ein Unternehmen einen neuen Standort eröffnet, kurz- oder langfristige Kapazitätsanpassungen infolge veränderter Nachfragestruktur vornimmt oder Werke verschiedener Standorte zusammenlegt, wird die Unternehmensgröße angepasst. Damit geht einher, dass die wesentlichen Einsatzfaktoren Arbeit und Kapital - die Zahl und Qualifikation der Mitarbeiter sowie die Struktur und Umfang von Infrastruktur, IT-Hard- und Software, Maschinen und Investitionen - angepasst werden. Um die Bedeutung und Größenordnung derartiger Entscheidungen zu verdeutlichen: Volkswagen hatte 2014 weltweit ca. 100 Produktionsstandorte mit mehr als 500.000 Mitarbeitern. Davon waren 20 in China mit in Summe 89.000 Mitarbeitern, von 2014 bis 2018 sollen ca. EUR 18,2 Mrd. investiert werden, an den chinesischen Standorten waren 2014 ca. EUR 36 Mrd. Eigen- und Fremdkapital gebunden, die maximale Produktionskapazität an den chinesischen Produktionsstandorten betrug 2014 ca. 3,3 Mio. Fahrzeuge (Manager Magazin 2013). In vielen Industrien verändert sich im Zeitablauf - durch Innovationen und kontinuierliche Lern- und Verbesserungsprozesse - das Wissen betreffend möglicher Fertigungsprozesse in der Produktion und Organisation des Unternehmens. Technologische Entwicklungen bedeuten, selbst bei konstanter Produktionsmenge, eine Veränderung des Zusammenspiels von Qualifikation und Anzahl der Mitarbeiter, verwendeter Fertigungsverfahren und Art und Umfang des Kapitaleinsatzes. Natürlich sind diese Entwicklungen nicht exogen vorgegeben: In empirischen Studien zeigt sich, dass die Adaption von Prozessinnovationen und die Produktivität eines Unternehmens maßgeblich von heterogenen Managementfähigkeiten beeinflusst werden (Bloom und van Reenen 2007). <?page no="204"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 204  Case Study | Produktivitätsentwicklung bei Audi In ► Tabelle 5.1 sind diese Entwicklungen und einige der dahinter liegenden Entscheidungen für den Automobilhersteller Audi im Vergleich der Jahre 1925 und 2015 greifbar: Die absolute Größe des Unternehmens hat sich - gemessen an der Produktionsmenge von PKWs - von 1.200 Fahrzeugen auf 1,8 Mio. Fahrzeuge erhöht, eine durchschnittliche jährliche Wachstumsrate (Compound Annual Growth Rate CAGR) von 8,5 %, unabhängig von der gestiegenen Qualität der Fahrzeuge. Dagegen ist die Zahl der Stellen in der Fertigung (Full Time Equivalents FTE) nur mit einer CAGR von 3,3 % gewachsen. Dies ist gleichbedeutend mit einer Steigerung der Produktivität, d.h. der produzierten Fahrzeuge je Mitarbeiter pro Jahr, von durchschnittlich mehr als 5 % jedes Jahr: Von etwa 0,5 Fahrzeugen pro Mitarbeiter im Jahr 1925 auf etwa 42 Fahrzeuge pro Mitarbeiter im Jahr 2015. Damit einher ging ein deutlicher Anstieg von Stellen außerhalb der Fertigung: 2015 gab es bei Audi mehr als 34.000 Stellen in administrativen und betriebswirtschaftlichen Bereichen wie Personal, Controlling, Marketing, Vertrieb, IT oder Unternehmensführung. Produktionsmenge, Mitarbeiter und Produktivität bei Audi Jahr 1925 2015 CAGR Produktionsmenge in Fahrzeugen ca. 1.200 ca. 1.800.000 ~ 8,5 % FTE in der Fertigung ca. 2.400 (ca. 91 %) ca. 43.000 (ca. 56 %) ~ 3,3 % Produktivität je Mitarbeiter ca. 0,5 Autos p.a. ca. 42 Autos p.a. > 5 % FTE außerhalb der Fertigung ca. 200 (ca. 9 %) ca. 34.000 (ca. 44 %) Tabelle 5.1: Technologie, Organisation und Fertigungsprozess Daten:  audi.com/ corporate/ de/ investor-relations.html und Auskunft Audi-Archiv 2016, eigene Berechnungen. Treiber für Produktivitätssteigerungen sind unter anderem Innovationen, die neue Produktionsprozesse oder ein verbessertes Zusammenspiel von menschlicher Arbeit und Maschinen ermöglichen (Belitz et al. 2017 zu einer Analyse von Produktivitäts- und Wachstumstreibern in deutschen Industrien). Es deutet sich an, dass diese Entwicklung sich in der sogenannten vierten industriellen Revolution in den nächsten Jahrzehnten fortsetzt (Bloem et al. 2014, Bughin 2017 et al., van Tunzelmann 2003 und McGowan et al. 2015): Unter anderem Digitalisierung, Internet of Things (die Vernetzung und Kommunikation von Produkten, Services und Maschinen), Big Data und künstliche Intelligenz werden Unternehmen ermöglichen, neue Technologien zu entwickeln und zu implementieren, um Fertigungsprozesse weiter zu verbessern. Damit einhergehen wird eine Veränderung von Unternehmensorganisation, Entscheidungsroutinen, Qualifikationsprofilen der Mitarbeiter und dem Zusammenspiel von Mensch und Maschine. Frey und Osborne (2017) beschreiben, dass in den USA 47 % aller heutigen Stellen in den kommenden 20 Jahren von Robotern, Big Data oder intelligenter Software <?page no="205"?> Produktionsfunktion und Technologie 205 ersetzt werden können. Für Deutschland haben Bonin et al. (2015) ermittelt, dass 42 % aller Stellen durch Digitalisierung betroffen sein können. Digitalisierung beeinflusst damit stark das Zusammenspiel von Menschen und Maschinen, d.h. Arbeit und Kapital in der Produktion. Die Veränderungen werden zwei Ausprägungen annehmen: Einerseits werden bestehende Tätigkeiten von Menschen durch Technologie substituiert, andererseits wird menschliche Arbeit komplementär durch neue digitale Lösungen ergänzt, so dass insbes. neue berufliche Rollen und Profile entstehen. Diese notwendigen neuen Qualifikationen erfordern meist eine bessere Ausbildung, die dann auch zu höherer Produktivität und Entlohnung führen.  Lernziele Dieses Kapitel beschäftigt sich mit  der Entwicklung eines grundlegenden Verständnisses, wie Entscheidungen betreffend des wechselseitigen Zusammenhangs von Produktionsmenge und des Einsatzes von Kapital und Arbeit in langversus kurzfristiger Perspektive in Abhängigkeit der Technologie getroffen werden,  dem Konzept des abnehmenden Grenzproduktes, um zu verstehen, wie ein Unternehmen kurzfristig durch Veränderung des Einsatzes des Faktors Arbeit die Produktionshöhe beeinflussen kann und  dem Konzept der Skalenerträge, um herauszuarbeiten, wie ein Unternehmen langfristig Entscheidungen über die Größe von Unternehmensteilen oder Standortfragen treffen kann oder Wachstumsprozesse neuer digitaler Geschäftsmodelle steuern kann. 5.1 Produktionsfunktion und Technologie Unternehmen unterscheiden sich in zahlreichen Dimensionen: So sind Unternehmensgröße, Wachstumsraten oder die verwendete Technologie nicht nur über verschiedene Industrien hinweg heterogen, sondern auch innerhalb einer Industrie. Zudem unterscheiden sich Wettbewerber innerhalb einer Industrie oft deutlich in ihrer Produktivität, gemessen durch die Produktionsmenge je Mitarbeiter pro Stunde oder Jahr. Hierfür lassen sich mindestens drei grundlegende, sich wechselseitig beeinflussende Treiber identifizieren:  Aktive strategische Entscheidungen des Managements für eine bestimmte Technologie und Unternehmensgröße, um auf Basis unternehmensspezifischer Fähigkeiten bestimmte Ziele zu erreichen,  markt- und wettbewerbsbedingte externe Einflussfaktoren wie absolute Höhe und saisonale oder strukturelle Schwankungen der Nachfrage sowie Zahl der Wettbewerber, welche die Entscheidungen des Managements beeinflussen oder sogar determinieren,  Pfadabhängigkeiten früherer unternehmensspezifischer Entscheidungen, die insbesondere im Zeitablauf die Wahlmöglichkeiten der Technologie einschränken und den gewählten Wachstumspfad eines Unternehmens bestimmen. <?page no="206"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 206 Produktion beschreibt allgemein die Transformationsleistung (d.h. die Wertschöpfung) eines Unternehmens von Einsatzfaktoren in Produkte, Dienstleistungen oder Geschäftsmodelle für Endkunden (B2C) oder Geschäftskunden (B2B). Produktion wird möglich durch die organisierte Kombination von Mitarbeitern (d.h. dem Einsatzfaktor Arbeit gemessen durch die Zahl an Stellen) und Maschinen, Infrastruktur, Roh-, Hilfs-, Betriebsstoffen und Lagerbeständen (d.h. dem Einsatzfaktor Kapital gemessen durch den Einsatz von Eigen- und Fremdkapital). Die Höhe der Produktion ist abhängig von der Zahl der Mitarbeiter, der Zahl der eingesetzten Maschinen und insbesondere von deren spezifischer Verknüpfung. Diese Verknüpfung von Kapital und Arbeit bezeichnet man als Technologie - im weiteren Sinne beschreibt Technologie die Prozesse, das Wissen sowie die Organisation eines Unternehmens und dessen Management. Abbildung 5.1: Transformationsleistung eines Unternehmens. Die ► Abbildung 5.1 veranschaulicht die Logik der Transformationsleistung eines Unternehmens. Aus heterogenen Einsatzfaktoren wird über die Verknüpfung von Kapital und Arbeit die Produktion von Dienstleistungen oder Produkten ermöglicht - diese Verknüpfung von Arbeit und Kapital wird als Produktionsfunktion bezeichnet. Natürlich erfolgt die Verknüpfung von Kapital und Arbeit unternehmensspezifisch und dynamisch: Jedes Unternehmen verfügt über spezifische Fähigkeiten, Erfahrungen, unternehmensspezifisches Organisationskapital und Routinen bei der Kombination von Arbeit und Kapital, zudem lernt jedes Unternehmen im Zeitablauf (Black und Lynch 2005). Dienstleistungen • Unternehmensberatung • Marketingkampagne … Produkte • Zahnpasta • Laptops • Wein • Bücher … Geschäftsmodelle • Plattformen … Kapital Arbeit Produktion Wissen • Rechte/ Lizenzen • Organisation • Technologie Angestellte • Manager • Mitarbeiter Infrastruktur/ Inputs • Standorte/ Gebäude • Fabriken/ Maschinen • Vorprodukt/ Rohstoff Externe • Zeitarbeiter • Dienstleister Finanzierung • Eigenkapital • Fremdkapital Technologie <?page no="207"?> Produktionsfunktion und Technologie 207 Die Einsatzfaktoren Kapital und Arbeit und kurzvs. langfristige Entscheidungen Jedes Unternehmen muss sich im Rahmen der Unternehmensfinanzierung in geeigneter Weise Kapital verschaffen: Eigenkapital von Eigentümern oder über den Kapitalmarkt bei neuen Aktionären, Fremdkapital über Kredite bei Banken oder die Emission von Anleihen. Kapital 𝐸𝐸𝐸𝐸 bezeichnet und umfasst alle Formen von Eigen- und Fremdkapital (auf der Aktivseite der Bilanz auch finanzierte Rohstoffe oder Material) in unterschiedlichen Qualitäten, bspw. in Hinblick auf Finanzierungsstruktur oder Fristigkeit. Die Kosten (Faktorpreise) für die Nutzung des Kapitals umfassen alle ökonomischen Kosten, d.h. Opportunitätskosten und Abschreibungen - stark vereinfacht kann man die Kapitalkosten auf die gewichteten Eigen- und Fremdkapitalkosten, wie in ► Kapitel 4 beschrieben, reduzieren: Die Kosten eines Unternehmens für Kapital entsprechen dann dem Kapitalkostensatz (bspw. Weighted Average Cost of Capital WACC) multipliziert mit der eingesetzten Menge an Kapital. In gleicher Logik muss ein Unternehmen am Arbeitsmarkt Mitarbeiter gewinnen: Arbeit 𝐿𝐿𝐿𝐿 bezeichnet alle Formen von Arbeit (Vorstände bis hin zu Sachbearbeitern) in unterschiedlichen Qualitäten. Die Kosten (Faktorpreise) für die Nutzung der Arbeit umfassen wieder alle ökonomischen Kosten, bspw. Löhne, Gehälter, Sozialabgaben oder Fortbildung - stark vereinfacht kann man die Arbeitskosten auf den Lohnsatz pro Zeiteinheit reduzieren. Die Kosten für Arbeit entsprechen dann dem Lohnsatz (Stundenlohn, Jahresgehalt etc.) multipliziert mit der eingesetzten Menge an Arbeit. Durch Variation der Einsatzfaktoren Kapital und Arbeit kann die Produktionshöhe angepasst werden. Allerdings kann kurzfristig der Kapitaleinsatz nur geringfügig oder nur sehr kostspielig geändert werden: Selbst eine Stilllegung von Maschinen reduziert nicht den Kapitaleinsatz, da die Maschinen weiter über Eigen- oder Fremdkapital finanziert werden. Dagegen kann der Einsatzfaktor Arbeit kurzfristig leichter angepasst werden, bspw. durch Anordnung von Überstunden, Kurzarbeit, Einstellung oder Abbau von Zeitarbeitskräften: Um die Produktionsmenge kurzfristig zu verändern, kann dies nur über den Einsatzfaktor Arbeit geschehen. Eine kurzfristige Analyse prüft daher, ob und wie stark sich die Produktionsmenge ändert, wenn man den Faktor Arbeit geringfügig verändert: Wie stark steigt die Produktionsmenge, wenn ein zusätzlicher Mitarbeiter eingestellt wird? Das grundlegende Konzept des Grenzproduktes der Arbeit wird in ► Kapitel 5.2 entwickelt. Langfristig können alle Faktoren verändert werden: Um die Produktionsmenge zu verändern, kann dies über die Einsatzmenge beider Einsatzfaktoren oder die Wahl einer neuen Technologie geschehen. Die langfristige Analyse untersucht daher, ob und wie sich die Produktionsmenge ändert, wenn man alle Faktoren (Kapital, Arbeit und ggfs. die Technologie) gleichzeitig verändert. Das grundlegende Konzept der Skalenerträge wird in ► Kapitel 5.3 erläutert. Was kurz- und langfristig bedeutet, hängt natürlich von einzelnen Industrien (bspw. Consulting vs. Banking vs. Stahlproduktion) ab und kann sich im Zeitablauf verändern. Zudem unterscheiden sich Industrien in ihrer Substitutionselastizität, d.h. wie leicht Kapital und Arbeit gegeneinander substituiert und welche Kombinationsmöglichkeiten generell gestaltet werden können. Nur selten sind die Unternehmen vollständig frei in ihren Kombinationsmöglichkei- <?page no="208"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 208 ten, wie ein Tankstellenbetreiber bei der Entscheidung zwischen einer vollautomatischen Autowaschanlage vs. reiner Handwäsche von Autos. Produktionsfunktion und deren empirische Ermittlung Der funktionale Zusammenhang der Produktionsfunktion wird allgemein beschrieben durch (5.1) 𝑞𝑞𝑞𝑞 = 𝑇𝑇𝑇𝑇(𝐸𝐸𝐸𝐸, 𝐿𝐿𝐿𝐿) , d.h., die Produktionsmenge 𝑞𝑞𝑞𝑞 wird bestimmt durch die unternehmensspezifische Technologie 𝑇𝑇𝑇𝑇 (d.h. bspw. die Produktions-/ Fertigungsverfahren, das Know-how, die Organisation und das Management des Unternehmens) in Abhängigkeit des Kapitaleinsatzes 𝐸𝐸𝐸𝐸 und Arbeitseinsatzes 𝐿𝐿𝐿𝐿 . Die Produktionsfunktion kann - auf Basis tatsächlicher Daten eines Unternehmens - verschiedene funktionale Formen annehmen, die durch statistische und ökonometrische Methoden (bspw. Regressionsanalysen) ermittelt werden können. Eine mögliche Konkretisierung einer Produktionsfunktion ist die Cobb-Douglas-Produktionsfunktion (5.2) 𝑞𝑞𝑞𝑞 = 𝐴𝐴𝐴𝐴 𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 𝛽𝛽𝛽𝛽 mit 𝐴𝐴𝐴𝐴, 𝛼𝛼𝛼𝛼, 𝛽𝛽𝛽𝛽 > 0 . In der Cobb-Douglas-Produktionsfunktion bezeichnet 𝐴𝐴𝐴𝐴 zusammengefasst die technologische Effizienz, d.h. alle Fähigkeiten eines Unternehmens, der Organisation oder die Prozesse - je höher der Wert von 𝐴𝐴𝐴𝐴 ist, desto größer ist die Produktion 𝑞𝑞𝑞𝑞 für gegebene Werte von 𝐸𝐸𝐸𝐸 und 𝐿𝐿𝐿𝐿 . 𝛼𝛼𝛼𝛼 und 𝛽𝛽𝛽𝛽 bezeichnen die partiellen Produktionselastizitäten von Arbeit und Kapital. Sie geben das prozentuale Wachstum der Produktionsmenge bei einer 1-prozentigen Steigerung des Arbeits- oder Kapitaleinsatzes an (und der jeweils andere Einsatzfaktor konstant gehalten wird): Je größer der Wert von 𝛼𝛼𝛼𝛼 oder 𝛽𝛽𝛽𝛽 , umso größer ist der Effekt auf die Produktionsmenge. Die Cobb-Douglas-Produktionsfunktion ist unternehmensspezifisch und verändert sich im Zeitablauf. So gelten für jedes Unternehmen zu jedem Zeitpunkt unterschiedliche Werte für 𝐴𝐴𝐴𝐴 , 𝛼𝛼𝛼𝛼 und 𝛽𝛽𝛽𝛽 , allerdings ist die Struktur der Funktion für Unternehmen einer Industrie ähnlich. Unternehmen mit höheren Werten von 𝐴𝐴𝐴𝐴 haben bspw. einen technologischen Vorsprung - d.h., sie können mit gleichem Mitarbeiter- und Kapitaleinsatz mehr produzieren als ihre Wettbewerber. Die Cobb-Douglas-Produktionsfunktion ist empirisch gut plausibilisiert und wird daher regelmäßig verwendet, um Produktionsentscheidungen von Unternehmen zu analysieren oder zu planen. Aus Managementperspektive ist entscheidend zu verstehen, wie technologische Effizienz und die partiellen Produktionselastizitäten bei Entscheidungen über den Kapital- und Arbeitseinsatz die Produktionsmenge beeinflussen:  Die technologische Effizienz A eines Unternehmens hängt wesentlich von den Fähigkeiten eines Unternehmens (Resource-based View), dem gewählten Fertigungsverfahren, der Organisation und des Managements des Unternehmens ab. Möglichkeiten 𝐴𝐴𝐴𝐴 zu steigern sind bspw. der Aufbau neuer oder Weiterentwicklung bestehender Fähigkeiten, die Optimierung der Organisationsstruktur und Verschlankung der Hierarchien, bessere Führung/ Management oder Aus-/ Fortbildung der Mitarbeiter, die Umstellung auf Just-in- <?page no="209"?> Produktionsfunktion und Technologie 209 Time-Produktion, leistungsfähigere Software im Callcenter oder Standardisierung der Produktion.  Die partielle Produktionselastizität 𝛂𝛂𝛂𝛂 des Kapitals hängt vom Zusammenspiel zwischen Mitarbeitern und Maschinen und misst den Effekt einer Ausweitung des Kapitaleinsatzes: Kann ein Mitarbeiter auch mehrere Maschinen (höherer Kapitaleinsatz) bedienen und steigt dann die Produktionsmenge? Wird durch den Einsatz von hochwertigeren und kapitalintensiveren Maschinen, bei gleicher Zahl und Qualifikation der Mitarbeiter, die Produktion steigen?  Die partielle Produktionselastizität 𝛃𝛃𝛃𝛃 der Arbeit hängt von Zusammenspiel zwischen Maschinen und Mitarbeitern ab und misst den Effekt einer Ausweitung der Mitarbeiterzahl: Kann die Zahl der Mitarbeiter einer Fertigungsstraße vergrößert werden, um die Produktion zu steigern? Kann die Zahl der Verkäuferinnen in einer Filiale erhöht werden, und steigt so der Absatz? Eine Produktionsfunktion ist kein hypothetisches Konstrukt: Die Produktionsfunktion jedes Unternehmens - d.h. der tatsächliche empirische und funktionale Zusammenhang zwischen der Produktionsmenge 𝑞𝑞𝑞𝑞 eines Unternehmens und den Einsatzfaktoren Kapital 𝐸𝐸𝐸𝐸 und Arbeit 𝐿𝐿𝐿𝐿 - kann durch Analyse unternehmensspezifischer Daten aus interner (Controlling, Finanzen, Operations) oder externer (Bilanz, GuV, Geschäftsberichte) Unternehmensrechnung ermittelt werden. Sie beschreibt die Logik und das Geschäftsmodell des Unternehmens abstrahierend von Produktkategorien, Bereichsbezeichnungen, Maschinentypen oder Standorten - stellt aber für das Management Entscheidbarkeit her und ermöglicht darüber hinaus aus öffentlich zugänglichen Bilanz- und GuV-Daten auch die Analyse von Wettbewerbern. Zur Identifikation der Produktionsfunktion kommen ökonometrische Verfahren wie Regressionsanalysen zum Einsatz, im Unternehmensalltag oft auf Basis von Excel, SPSS oder aus SAP-Lösungen. Alternativ können Werte für 𝛽𝛽𝛽𝛽 auch indirekt über Managementinterviews („wenn sich die Produktionsmenge bei bestehender IT Plattform verdoppelt - wie viel Prozent mehr Mitarbeiter benötigen Sie dann? “) ermittelt werden. Sind die Werte für 𝐴𝐴𝐴𝐴 , 𝛼𝛼𝛼𝛼 und 𝛽𝛽𝛽𝛽 der Wettbewerber bekannt, können diese im Rahmen von Benchmarking als Startpunkte für Optimierungsmaßnahmen des eigenen Unternehmens herangezogen werden. <?page no="210"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 210  Case Study | Turbinenhersteller bei kurzfristigen Veränderungen von Kapital und Arbeit Abbildung 5.2: Empirische Analyse der Unternehmensdaten zur Ermittlung der Produktionsfunktion. In ► Abbildung 5.2 sind die anonymisierten Daten eines mittelständischen Turbinenherstellers wiedergegeben. Offenbar wächst das Unternehmen über den Zeitraum 2004 bis 2010 relativ stark, getrieben durch einen Ausbau des Kapitaleinsatzes bei schwankender Mitarbeiterzahl. Die empirische Analyse der Daten des Index der Gesamtproduktion 𝑞𝑞𝑞𝑞 des Unternehmens, der Zahl der Mitarbeiter 𝐿𝐿𝐿𝐿 (im Quartalsmittelwert) und der Kapitaleinsatz 𝐸𝐸𝐸𝐸 in Mio. EUR (je Quartal) anhand einer Regressionsanalyse ermöglicht die Bestimmung der Produktionsfunktion als (5.3) 𝑞𝑞𝑞𝑞 = 4,12 𝐸𝐸𝐸𝐸 0,79 𝐿𝐿𝐿𝐿 0,50 2000 2200 2400 2600 2800 3000 3200 3400 3600 Produktionsmenge q t 80,0 90,0 100,0 110,0 120,0 130,0 140,0 150,0 160,0 Kapitaleinsatz K t 150,0 170,0 190,0 210,0 230,0 250,0 Mitarbeiterzahl L t 2000 2200 2400 2600 2800 3000 3200 3400 3600 Produktionsmenge q q (estimate) t q = 245,38 + 20,237 K R² = 0,9377 2000 2200 2400 2600 2800 3000 3200 3400 3600 80 100 120 140 160 Produktionsmenge q K q = - 293,5 + 14,23 L R² = 0,3567 2000 2200 2400 2600 2800 3000 3200 3400 3600 170 190 210 230 250 Produktionsmenge q L <?page no="211"?> Produktionsfunktion und Technologie 211 und damit der Werte von 𝐴𝐴𝐴𝐴 = 4,12 , 𝛼𝛼𝛼𝛼 = 0,79 und 𝛽𝛽𝛽𝛽 = 0,50 . In diesem Fall liegen im betrachteten kurzen Zeitraum keine maßgeblichen technologischen Veränderungen (bspw. Prozessinnovationen oder verbesserte Managementmethoden) vor, so dass 𝐴𝐴𝐴𝐴 als technologischer Parameter bei einem Wert von 4,12 konstant ist. 𝛼𝛼𝛼𝛼 und 𝛽𝛽𝛽𝛽 sind die partiellen Produktionselastizitäten von Arbeit und Kapital - erhöht (oder senkt) man den Kapitaleinsatz um 1 %, dann steigt (oder fällt) die Produktion um 0,79 %, variiert man den Arbeitseinsatz um 1 %, so variiert die Produktion um 0,50 %. Beträgt der aktuelle Kapitaleinsatz 𝐸𝐸𝐸𝐸 = 100 und die Zahl an Mitarbeitern 𝐿𝐿𝐿𝐿 = 200 , dann ergibt sich eine Produktionsmenge in Höhe (5.4) 𝑞𝑞𝑞𝑞 = 4,12 ⋅ 100 0,79 ⋅ 200 0,50 = 2215,20 . Wie in der ► Abbildung 5.2 links unten zu erkennen ist, liefert die Schätzung der Produktionsfunktion eine enge Abbildung der tatsächlichen Produktionsdaten. Auf Basis dieser Information können nun die Auswirkungen von Veränderungen der Einsatzfaktoren analysiert werden. Erhöht man bspw. den Kapitaleinsatz 𝐸𝐸𝐸𝐸 um 1 %, so beträgt die neue Produktionsmenge (5.5) 𝑞𝑞𝑞𝑞 = 4,12 ⋅ 101 0,79 ⋅ 200 0,50 = 100,79 % ⋅ 2215,20 = 2232,67 . Die Produktionsmenge wächst aufgrund der partiellen Produktionselastizität 𝛼𝛼𝛼𝛼 des Kapitals von 0,79 um 0,79 %. Verliert das Unternehmen hingegen zwei Mitarbeiter, d.h. der Arbeitseinsatz reduziert sich um 1 %, dann sinkt aufgrund der partiellen Produktionselastizität von 𝛽𝛽𝛽𝛽 = 0,50 die Produktionsmenge um 0,50 %: (5.6) 𝑞𝑞𝑞𝑞 = 4,12 ⋅ 100 0,79 ⋅ 198 0,50 = 99,50 % ⋅ 2215,20 = 2204,12 . Effizienz und kostenminimierende Kombination von Einsatzfaktoren Eine Produktionsfunktion beschreibt effiziente Kombinationsmöglichkeiten der Einsatzfaktoren Kapital und Arbeit, d.h. die maximal mögliche Produktionsmenge bei gegebener Technologie. Im Umkehrschluss heißt das, dass ein Unternehmen eine geplante Produktionsmenge dann effizient herstellt, wenn Faktoreinsatz und Gesamtkosten der Produktion minimiert werden. Bei gegebener Technologie und Faktorpreisen können dann die mindestnotwendigen Mengen an Kapital und Arbeit bestimmt werden. Allerdings produzieren die meisten Unternehmen in diesem Sinn nicht effizient, bspw. werden vorhandene Einsatzfaktoren nicht optimal genutzt - Fähigkeiten und Anzahl der Mitarbeiter passen nicht zur vorhandenen IT- Infrastruktur - oder die Qualifikation der Mitarbeiter sowie die Möglichkeiten der vorhandenen IT-Lösungen werden unvollständig genutzt. Effizienz und Ineffizienz können dann einfach unterschieden werden: Kann in einem Unternehmen Kapital oder Arbeit reduziert werden, ohne dass die Produktionsmenge zurückgeht, dann ist die Allokation der Einsatzfaktoren aktuell ineffizient. Somit sind Einsparungen von Einsatzfaktoren, bspw. durch Prozessoptimierung, durch die Reduktion von Working Capital oder durch den Abbau in zu großer Zahl eingestellter Mitarbeiter, und Kostensenkungen möglich, ohne dass die Produktionsmenge reduziert werden muss. In empirischen Studien zeigt sich, dass Effizienz von Unternehmen im Wesentlichen durch hohe Wettbewerbsintensität, effektive Wettbewerbspolitik sowie starken Einfluss des Kapitalmarktes und gute Corporate Governance gefördert wird - umgekehrt führen abgeschottete <?page no="212"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 212 Märkte mit Handelsbarrieren oder umfangreiche staatliche Eingriffe in Märkte sowie Regulierung von Industrien zu Ineffizienz (Hay und Liu 1997, Holmes und Schmitz 2010 sowie Andries und Capraru 2014). 5.2 Kurzfristige Entscheidungen: Abnehmendes Grenzprodukt und Produktivität Kurzfristig kann der Kapitaleinsatz in einem Unternehmen nicht oder nur geringfügig verändert werden, so dass die Produktionsmenge nur über veränderten Arbeitseinsatz beeinflusst werden kann. Typischerweise steigt die Produktionsmenge mit zunehmendem Arbeitseinsatz an: Zunächst überproportional, dann jedoch nur noch unterproportional bevor sie gegebenenfalls sogar zurückgeht. Der Grund hierfür liegt in der verwendeten Technologie: Nur bestimmte Einsatzverhältnisse von Arbeit und Kapital sind sinnvoll oder machbar. Aus Managementperspektive sind zwei Konzepte für die Analyse kurzfristiger Produktionsentscheidungen zentral:  Produktivität AP (Average Product) beschreibt die Produktionsmenge 𝑞𝑞𝑞𝑞 je Mitarbeiter 𝐿𝐿𝐿𝐿 . Veränderungen der Produktivität treten auf, wenn die Veränderungsrate der Produktionsmenge von der Veränderungsrate der Mitarbeiter abweicht - wenn die Zahl der Mitarbeiter bspw. von 200 auf 220 um 10 % steigt, die Produktionsmenge aber nur von 1.000 auf 1.050 um 5 % wächst, geht die Produktivität je Mitarbeiter von 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 1 = 𝑞𝑞𝑞𝑞𝐿𝐿𝐿𝐿 = 1000 200 = 5 Stück je Mitarbeiter auf 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 2 = 𝑞𝑞𝑞𝑞𝐿𝐿𝐿𝐿 = 1050 220 = 4,77 um −4,55 % zurück.  Grenzprodukt MP (Marginal Product) beschreibt die Veränderung der Produktionsmenge ∆𝑞𝑞𝑞𝑞 bei einer marginalen Veränderung der Zahl der Mitarbeiter ∆𝐿𝐿𝐿𝐿 unter Beibehaltung der Kapitalausstattung des Unternehmens, im Beispiel oben also 𝑀𝑀𝑀𝑀𝐴𝐴𝐴𝐴 = ∆𝑞𝑞𝑞𝑞 ∆𝐿𝐿𝐿𝐿 = 1050−1000 220−200 = 2,5 - ein zusätzlicher Mitarbeiter erhöht also die Produktionsmenge um 2,5 Stück. In ► Abbildung 5.3 ist die Produktionsmenge 𝑞𝑞𝑞𝑞 in Burgern je Stunde einer Filiale eines Schnellrestaurants bei gegebener Kapitalausstattung, d.h. insbesondere der Ausstattung in der Küche und der Anzahl der Herde, zu sehen. Zunächst steigt mit zunehmender Mitarbeiterzahl die Produktionsmenge - im Wesentlichen aufgrund von Arbeitsteilung - überproportional an, aber mit zunehmend beengten Platzverhältnissen und einer festen Anzahl an Herden werden zunächst die Zuwächse an Produktion mit jedem Mitarbeiter geringer, bis schließlich die Anzahl der Mitarbeiter in der Küche die Produktion behindert: Die Produktionsmenge geht absolut zurück. <?page no="213"?> Kurzfristige Entscheidungen: Abnehmendes Grenzprodukt und Produktivität 213 Abbildung 5.3: Produktion in Abhängigkeit der Mitarbeiterzahl. Anhand von ► Tabelle 5.2 können diese Effekte quantitativ analysiert werden: Neben der absoluten Menge 𝑞𝑞𝑞𝑞 an produzierten Burgern bei steigender Zahl an Mitarbeitern 𝐿𝐿𝐿𝐿 ist die Produktivität (oftmals auch als Durchschnittsprodukt bezeichnet) 𝑞𝑞𝑞𝑞/ 𝐿𝐿𝐿𝐿 sowie das Grenzprodukt ∆𝑞𝑞𝑞𝑞/ ∆𝐿𝐿𝐿𝐿 , d.h. die Veränderung der Produktionsmenge ∆𝑞𝑞𝑞𝑞 ausgelöst durch eine Veränderung der Mitarbeiterzahl ∆𝐿𝐿𝐿𝐿 , angegeben. Die Produktivität steigt offenbar bis zum vierten Mitarbeiter auf (5.7) 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 = 𝑞𝑞𝑞𝑞/ 𝐿𝐿𝐿𝐿 = 80/ 4 = 20 an - d.h. im Durchschnitt produziert jeder dieser vier Mitarbeiter 20 Burger in der Stunde. Die Gesamtproduktion steigt bis zum siebten Mitarbeiter an, der Zuwachs ist jetzt jedoch geringer, so dass die Produktivität jedes Mitarbeiters auf 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 = 16 zurückgeht. Die Erklärung hierfür liegt im Grenzprodukt: Das Grenzprodukt ist zunächst positiv und steigt an - jeder weitere Mitarbeiter ermöglicht eine bessere Aufteilung der Arbeitsschritte, erhöht die Gesamtproduktion überproportional und steigert die Produktivität seiner Kollegen. Die zusätzliche Produktionsmenge bei einer geringen (marginalen) Vergrößerung des Arbeitseinsatzes (5.8) 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 = ∆𝑞𝑞𝑞𝑞/ ∆𝐿𝐿𝐿𝐿 = (80 − 54)/ (4 − 3) = 26 verdeutlicht, dass bei einer marginalen Vergrößerung des Arbeitseinsatzes von drei auf vier Mitarbeiter die Produktionsmenge um 26 von 54 auf 80 Burger je Stunde ansteigt. Das Grenzprodukt ist aber nicht konstant. Mit zunehmender Zahl an Mitarbeitern ist das Grenzprodukt zunächst noch positiv, aber rückläufig, und schließlich negativ - weitere Mitarbeiter erhöhen zunächst die Produktion unterproportional, dann geht die Produktionsmenge sogar absolut zurück. produzierte Burger q je Stunde 0 Anzahl der Mitarbeiter L 1 2 3 4 5 6 7 8 9 10 100 50 <?page no="214"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 214 Produktion mit variablem Arbeitseinsatz Mitarbeiterzahl Produktionsmenge Produktivität Grenzprodukt 𝐿𝐿𝐿𝐿 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 = 𝑞𝑞𝑞𝑞/ 𝐿𝐿𝐿𝐿 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 = ∆𝑞𝑞𝑞𝑞/ ∆𝐿𝐿𝐿𝐿 0 0 8 zunehmendes Grenzprodukt 1 8 8 16 2 24 12 30 3 54 18 26 abnehmendes Grenzprodukt 4 80 20 15 5 95 19 13 6 108 18 4 7 112 16 -8 8 104 13 -14 9 90 10 -20 10 70 7 Tabelle 5.2: Produktivität und Grenzprodukt bei kurzfristiger Variation des Arbeitseinsatzes und fixem Kapitaleinsatz. Das Grenzprodukt wird unter anderem beeinflusst von:  Kapazitätsgrenzen - je stärker die vorhandene Kapazität ausgelastet ist, desto weniger können weitere Mitarbeiter die Produktion erhöhen, desto geringer ist das Grenzprodukt.  Managementfähigkeiten - je besser die Management- und Organisationsfähigkeiten in einem Unternehmen sind, desto höher ist das Grenzprodukt. <?page no="215"?> Kurzfristige Entscheidungen: Abnehmendes Grenzprodukt und Produktivität 215  technologischen Möglichkeiten - je flexibler die vorhandene Technologie ist, desto besser können zusätzliche Mitarbeiter eingesetzt werden, desto höher ist das Grenzprodukt. Diese Beobachtung gilt kurzfristig in gleicher Weise für eine einzelne Filiale eines Schnellrestaurants wie auch für einen globalen Konzern - bei abnehmendem Grenzprodukt führt ein Zuwachs der Mitarbeiterzahl zu unterproportionalem Zuwachs der Produktionsmenge. In ► Abbildung 5.4 sind typische empirische Verläufe von Grenzprodukt, Produktionsmenge und Produktivität in Abhängigkeit der Zahl der Mitarbeiter zu sehen. Das Grenzprodukt entspricht dem Anstieg der Produktionsmenge bei einem Anstieg der Zahl der Mitarbeiter - mathematisch ist das gleichbedeutend mit der ersten Ableitung der Produktionsfunktion 𝑞𝑞𝑞𝑞 = 𝑇𝑇𝑇𝑇(𝐸𝐸𝐸𝐸, 𝐿𝐿𝐿𝐿) nach der Mitarbeiterzahl 𝐿𝐿𝐿𝐿 . Es können drei wesentliche Situationen, in ► Abbildung 5.4 rechts, unterschieden werden:  1: Grenzprodukt größer als Produktivität, d.h. 𝑴𝑴𝑴𝑴𝑨𝑨𝑨𝑨 > 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 - die Produktivität steigt an. Zusätzliche Mitarbeiter leisten einen höheren Beitrag zur Produktion als bisherige Mitarbeiter - in der Folge steigt die Produktivität aller Mitarbeiter an.  2: Grenzprodukt positiv, aber kleiner als die Produktivität, d.h. 𝑴𝑴𝑴𝑴𝑨𝑨𝑨𝑨 < 𝑨𝑨𝑨𝑨𝑨𝑨𝑨𝑨 - die Produktivität geht zurück. Zusätzliche Mitarbeiter leisten einen geringeren Beitrag als die bisherigen Mitarbeiter - in der Folge geht die Produktivität aller Mitarbeiter zurück.  3: Grenzprodukt negativ - Produktivität und Produktionsmenge zurück. Zusätzliche Mitarbeiter reduzieren die Produktion und die Produktivität aller Mitarbeiter geht zurück. Um die Produktionsmenge zu steigern und die Produktivität zu erhöhen, sollte das Unternehmen entweder Mitarbeiter entlassen oder eine andere Technologie und Kapitalausstattung wählen. Typischerweise beobachtet man empirisch Produktionsprozesse, die abnehmende Grenzprodukte aufweisen (daher oft auch „Gesetz des abnehmenden Grenzproduktes“). Abbildung 5.4: Produktivität und Grenzprodukt. abnehmendes Grenzprodukt q AP MP 0 L C q AP = q/ L Grenzprodukt MP = Δq/ ΔL A B zunehmende Produktivität q AP MP Produktivität AP = q/ L MP = Δq/ ΔL 1 2 3 A 0 L C B q abnehmende Produktivität zunehmendes Grenzprodukt <?page no="216"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 216 Aus Managementperspektive ist die Identifikation der drei Bereiche in ► Abbildung 5.4 durch Vergleich von Grenzprodukt und Produktivität ( 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 > 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 in Bereich 1 oder 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 < 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 in Bereich 2 und 3) zur Steuerung der Effizienz im Produktionsprozess und zur Einschätzung, welche Effekte bei einer Ausweitung oder Reduktion der Mitarbeiterzahl entstehen werden, relevant: Typisch ist eine Steuerung im Feld 2 - hier liegen zwar abnehmende Grenzprodukte und rückläufige Produktivität vor, aber durch eine Ausweitung der Mitarbeiterzahl 𝐿𝐿𝐿𝐿 kann versucht werden, bei gegebener Technologie und Kapitalausstattung die Produktionsmenge zu steigern oder sogar zu maximieren. Entscheidungen über Ressourcenzuordnung auf Basis von Grenzprodukten Dies gilt insbesondere auch dann, wenn ein Manager die Zahl der Mitarbeiter in mehreren Fabriken oder Filialen steuern muss. In ► Tabelle 5.3 sind Produktivitätskennzahlen von zwei Filialen einer Bank anhand der Zahl der bearbeiteten Geschäftsvorfälle wiedergegeben. Bankfilialen und Mitarbeiterzuordnung Filiale OST Filiale West Mitarbeiter Produktivität Produktion Grenzprodukt Mitarbeiter Produktivität Produktion Grenzprodukt 𝐿𝐿𝐿𝐿 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 𝑂𝑂𝑂𝑂 = 𝑞𝑞𝑞𝑞/ 𝐿𝐿𝐿𝐿 𝑞𝑞𝑞𝑞 𝑂𝑂𝑂𝑂 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝑂𝑂𝑂𝑂 = ∆𝑞𝑞𝑞𝑞/ ∆𝐿𝐿𝐿𝐿 𝐿𝐿𝐿𝐿 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 𝜕𝜕𝜕𝜕 = 𝑞𝑞𝑞𝑞/ 𝐿𝐿𝐿𝐿 𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝜕𝜕𝜕𝜕 = ∆𝑞𝑞𝑞𝑞/ ∆𝐿𝐿𝐿𝐿 0 - 0 0 - 0 108 (1) 92 (6) 1 108,0 108 1 92,0 92 104 (2) 80 (10) 2 106,0 212 2 86,0 172 100 (3) 60 3 104,0 312 3 77,3 232 96 (4) 40 4 102,0 408 4 68,0 272 92 (5) 20 5 100,0 500 5 58,4 292 88 (7) 0 6 98,0 588 6 48,7 292 84 (8) -20 7 96,0 672 7 38,9 272 80 (9) -40 8 94,0 752 8 29,0 232 58 -60 9 90,0 810 9 19,1 172 50 -80 10 86,0 860 10 9,2 92 Tabelle 5.3: Aufteilung der Mitarbeiter auf Filialen. <?page no="217"?> Kurzfristige Entscheidungen: Abnehmendes Grenzprodukt und Produktivität 217 Wenn zehn Mitarbeiter auf beide Filialen verteilt werden sollen, um die Produktionsmenge in Summe zu maximieren, muss der Blick auf die Grenzprodukte gerichtet werden: Die Mitarbeiter werden der Reihe nach der Filiale zugeordnet, die das jeweils höchste Grenzprodukt in Abhängigkeit der bereits zugeordneten Mitarbeiter aufweist. D.h. in diesem Fall, dass die ersten fünf Mitarbeiter Filiale Ost zugeordnet werden, weil das Grenzprodukt von 108 absteigend bis 92 kontinuierlich größer ist als in Filiale West. Der sechste Mitarbeiter ist dann der erste, der mit einem Grenzprodukt von 92 Filiale West zugeordnet wird. Mitarbeiter sieben bis neun mit Grenzprodukten von 88, 84 und 80 werden wieder Ost zugeordnet, der zehnte schließlich wieder West - in Summe arbeiten dann acht Mitarbeiter in Filiale Ost, zwei in Filiale West. Die Gesamtproduktion von 𝑞𝑞𝑞𝑞 = 𝑞𝑞𝑞𝑞 𝑂𝑂𝑂𝑂 + 𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕 = 752 + 172 = 924 kann durch keine andere Verteilung von Mitarbeitern erreicht oder übertroffen werden. Wichtig ist zu erkennen, dass die Produktivität in beiden Filialen unterschiedlich ist (in Filiale Ost beträgt sie 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 𝑂𝑂𝑂𝑂 = 94,0 , in Filiale West 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 𝜕𝜕𝜕𝜕 = 86,0 ), aber für die Verteilung der Mitarbeiter keine Rolle spielt - es kommt nicht darauf an, die Produktivität beider Filialen auszugleichen, sondern die Grenzprodukte anzugleichen. Das Grenzprodukt des jeweils letzten zugeordneten Mitarbeiters jeder Filiale beträgt 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝑂𝑂𝑂𝑂 = 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝜕𝜕𝜕𝜕 = 80 . Für Manager ergibt sich eine einfache Entscheidungsregel: Das Grenzprodukt ist die zentrale kurzfristige Steuerungsgröße in der Produktion. Das Grenzprodukt muss positiv sein, sonst geht die Produktion zurück. Bei kurzfristiger Perspektive und der Aufteilung von Mitarbeitern lautet eine allgemeine Regel: Zusätzliche Mitarbeiter, Ressourcen oder Kapazität immer in der Fabrik (Standort, Filiale, Team etc.) einsetzen, in der das Grenzprodukt am höchsten ist - d.h. dorthin, wo ein zusätzlicher Mitarbeiter den größten zusätzlichen Beitrag zur Produktion leisten kann. In Laborexperimenten (und in der Realität) weichen Manager von dieser Regel ab. Meist wird der Blick statt auf das Grenzprodukt auf die Produktivität gerichtet, in der Folge die Produktivität von Fabriken als alleine entscheidungsrelevant angesehen und entsprechend falsch entschieden - es entsteht Ineffizienz mit entsprechend negativen Auswirkungen auf die Gesamtproduktion. In typischen Beratungsprojekten (bspw. Filialgrößen von Banken bei gleichartigen Produkten und Kundengruppen, Fabrikgrößen von Automobilherstellern, Teamgrößen gleicher Tätigkeit an unterschiedlichen Standorten etc.) sind hier durch Orientierung an Grenzprodukten zwischen 10 % und 30 % Produktionssteigerung bei konstanter Mitarbeiterzahl möglich - ohne Investition in neue IT-Infrastruktur, ohne Prozessoptimierung und ohne Kostensteigerung. Grenzprodukt und Produktivität in der Cobb-Douglas-Produktionsfunktion Für jede Produktionsfunktion kann das kurzfristige Grenzprodukt und die Produktivität ermittelt werden. Für die Cobb-Douglas-Produktionsfunktion (5.2) ergibt sich die Produktivität allgemein durch Division der Produktionsmenge durch den Arbeitseinsatz als (5.9) 𝐴𝐴𝐴𝐴𝑃𝑃𝑃𝑃 𝐿𝐿𝐿𝐿 = 𝑞𝑞𝑞𝑞𝐿𝐿𝐿𝐿 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝛼𝛼𝛼𝛼𝐿𝐿𝐿𝐿𝛽𝛽𝛽𝛽 𝐿𝐿𝐿𝐿 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 𝛽𝛽𝛽𝛽−1 und das Grenzprodukt der Arbeit als (5.10) 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝐿𝐿𝐿𝐿 = 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿 = 𝛽𝛽𝛽𝛽𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 𝛽𝛽𝛽𝛽−1 , <?page no="218"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 218 indem man die Produktionsfunktion partiell differenziert. Damit ergeben sich für die in ► Kapitel 5.1 empirisch ermittelte Produktionsfunktion (5.11) 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝐿𝐿𝐿𝐿 = 𝑞𝑞𝑞𝑞𝐿𝐿𝐿𝐿 = 4,12 𝐸𝐸𝐸𝐸 0,79 𝐿𝐿𝐿𝐿 −0,50 und (5.12) 𝑀𝑀𝑀𝑀𝐴𝐴𝐴𝐴 𝐿𝐿𝐿𝐿 = 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿 = 2,06 𝐸𝐸𝐸𝐸 0,79 𝐿𝐿𝐿𝐿 −0,50 . Offensichtlich sind weder Produktivität 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝐿𝐿𝐿𝐿 noch Grenzprodukt 𝑀𝑀𝑀𝑀𝐴𝐴𝐴𝐴 𝐿𝐿𝐿𝐿 konstant, sondern verändern sich in Abhängigkeit von gegebenem Kapitaleinsatz bei Veränderung des Arbeitseinsatzes, d.h. der Zahl der Mitarbeiter - zudem erkennt man sofort wegen 𝑀𝑀𝑀𝑀𝐴𝐴𝐴𝐴 𝐿𝐿𝐿𝐿 = 2,06 𝐸𝐸𝐸𝐸 0,79 𝐿𝐿𝐿𝐿 −0,50 < 4,12 𝐸𝐸𝐸𝐸 0,79 𝐿𝐿𝐿𝐿 −0,50 = 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝐿𝐿𝐿𝐿 , dass abnehmende Grenzprodukte und rückläufige Produktivität gegeben sind.  Case Study | Kühlschränke bei kurzfristig notwendiger Anpassung der Produktionsmenge Für einen globalen Kühlschrankproduzenten wurde (5.13) 𝑞𝑞𝑞𝑞 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 𝛽𝛽𝛽𝛽 mit 𝐴𝐴𝐴𝐴 = 0,10348, 𝛼𝛼𝛼𝛼 = 0,8, 𝛽𝛽𝛽𝛽 = 0,6 sowie 𝐸𝐸𝐸𝐸 = 80.000.000 und 𝐿𝐿𝐿𝐿 1 = 800 aus unternehmensinternen Daten als Cobb- Douglas-Produktionsfunktion ermittelt. Aktuell werden 12 Mio. Kühlschränke pro Jahr produziert - jetzt soll kurzfristig die Produktion auf 15 Mio. Stück ausgeweitet werden. Das Management muss entscheiden, wie viele Mitarbeiter eingestellt werden müssen. Prüft man zunächst über Gleichung (5.13), ob das Unternehmen aktuell effizient produziert, so ergibt sich mit (5.14) 𝑞𝑞𝑞𝑞 1 = 0,10348 80.000.000 0,8 800 0,6 = 12.000.000 , (5.15) 𝑞𝑞𝑞𝑞1 𝐿𝐿𝐿𝐿1 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝛼𝛼𝛼𝛼𝐿𝐿𝐿𝐿1 𝛽𝛽𝛽𝛽 𝐿𝐿𝐿𝐿1 = 0,10348 ⋅80.000.0000,8⋅8000,6 800 = 15.000 und (5.16) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿1 = 0,6 ⋅ 0,10348 ⋅ 80.000.000 0,8 ⋅ 800 −0,4 = 9.000 dass bei gegebenem Kapital und Mitarbeitern tatsächlich 12 Mio. Kühlschränke hergestellt werden können. Allerdings ist das Grenzprodukt (5.16) kleiner als die Produktivität (5.16), so dass sich das Unternehmen definitiv in Bereich 2 der ► Abbildung 5.4 befindet: Ein weiterer Mitarbeiter wird zwar die Produktion pro Jahr um 9.000 Kühlschränke erhöhen, aber die Produktivität des Unternehmens wird zurückgehen. Um kurzfristig die Produktion auf 15 Mio. Kühlschränke auszuweiten, muss das Unternehmen die Zahl der Mitarbeiter von aktuell 800 bei konstantem Kapitaleinsatz erhöhen. Um die notwendige Zahl an Mitarbeitern zu ermitteln, wird die Produktionsfunktion (5.13) zu (5.17) 𝑞𝑞𝑞𝑞 2 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 2 𝛽𝛽𝛽𝛽 = 15.000.000 <?page no="219"?> Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge 219 umgestellt und nach der neuen Zahl an Mitarbeitern 𝐿𝐿𝐿𝐿 2 aufgelöst, so dass sich (5.18) 𝐿𝐿𝐿𝐿 2 = � 𝑞𝑞𝑞𝑞2 𝐴𝐴𝐴𝐴 𝐸𝐸𝐸𝐸𝛼𝛼𝛼𝛼 𝛽𝛽𝛽𝛽 = � 𝑞𝑞𝑞𝑞2 𝐴𝐴𝐴𝐴 𝐸𝐸𝐸𝐸𝛼𝛼𝛼𝛼 � 1 𝛽𝛽𝛽𝛽 = � 15.000.000 0,10348⋅80.000.0000,8 � 1 0,6 = 1160 ergibt. Im Vergleich mit der Ausgangssituation und einer Produktionsmenge von 12.000.000 Kühlschränken erfordert der Anstieg der Produktionsmenge zusätzliche 1160 − 800 = 360 Mitarbeiter. Mit erhöhter Stellenzahl gehen zwei Effekte einher: Erstens sinkt die Produktivität von ursprünglich 15.000 Kühlschränken je Mitarbeiter auf (5.19) 𝑞𝑞𝑞𝑞2 𝐿𝐿𝐿𝐿2 = 𝐴𝐴𝐴𝐴 𝐸𝐸𝐸𝐸𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿2 𝛽𝛽𝛽𝛽 𝐿𝐿𝐿𝐿2 = 0,10348⋅80.000.0000,8⋅1.1600,6 1.160 = 12.931 , zweitens geht das Grenzprodukt (5.20) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞2 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿 = 𝛽𝛽𝛽𝛽𝐴𝐴𝐴𝐴 𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 2 𝛽𝛽𝛽𝛽−1 = 0,6 ⋅ 0,10348 ⋅ 80.000.000 0,8 ⋅ 1.160 −0,4 = 7.757 . aufgrund der erhöhten Stellenzahl von 9.000 auf 7.757 zurück. Die Ergebnisse (5.19) und (5.20) bestätigen wiederum ► Abbildung 5.4: Wenn die Produktivität größer ist als das Grenzprodukt, dann werden bei einer Ausweitung der Mitarbeiterzahl kurzfristig - unter Beibehaltung des Kapitaleinsatzes und unveränderter Technologie - beide Werte zurückgehen. 5.3 Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge Langfristig können die Einsatzmengen beider Einsatzfaktoren verändert werden, d.h., es werden nicht nur Entscheidungen über den optimalen Einsatz an Arbeitskräften getroffen, sondern es wird im Rahmen langfristiger Investitionsplanung auch der Kapitaleinsatz bestimmt. Dies wird bspw. sichtbar durch den Aufbau einer neuen Batterie-Fabrik von Tesla in Sparks, Nevada, oder durch die langfristige Kapazitätserweiterung des Frankfurter Rhein- Main Flughafens um weitere Start- und Landebahnen oder zusätzliche Terminals. Im Folgenden werden zwei zentrale Aspekte langfristiger Produktionsfunktionen herausgearbeitet:  Skalenerträge - messen den Effekt einer gleichzeitigen Erhöhung aller Einsatzfaktoren auf die Produktionsmenge. Skalenerträge als Steuerungsgröße von langfristigen Wachstumsprozessen von Unternehmen (bspw. aber auch der Skalierbarkeit eines neues Geschäftsmodells) ermöglichen Wettbewerbsvorteile aus Unternehmensgröße in Abhängigkeit der Veränderung von Kapital- und Arbeitseinsatz.  Technischer Fortschritt - technischer Fortschritt ermöglicht bei konstantem Einsatz von Einsatzfaktoren eine Steigerung der Produktionsmenge. Typisch ist eine Verbesserung der Technologie, d.h. bspw. Investitionen in Forschung und Entwicklung, die sich durch Digitalisierung, künstliche Intelligenz oder Automatisierung in einer Veränderung des Zusammenspiels von Arbeit und Kapital niederschlagen und in der Tendenz zu einer Erhöhung der Kapitalintensität führt. <?page no="220"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 220 Langfristige Produktionsfunktionen können grafisch analog zu Nutzenfunktionen analysiert werden: In Abhängigkeit der verwendeten Technologie können Produktionsmengen mit unterschiedlichen Kombinationen von Arbeit und Kapital produziert werden. Eine Isoquante beschreibt alle Punkte gleicher Produktionsmenge, eine Schar an Isoquanten beschreibt dann die Produktionsfunktion (d.h. die Menge an Produktionsmöglichkeiten bei variierendem Faktoreinsatz), wie in ► Abbildung 5.5 dargestellt wird. Je höher eine Isoquante liegt, desto größer ist die Produktionsmenge. Abbildung 5.5: Langfristige Produktionsfunktion und Kapitalintensität. Typischerweise kann die Produktion durch alternative Kombinationen von Kapital und Arbeit hergestellt werden. Das Einsatzverhältnis von Kapital zu Arbeit wird als Kapitalintensität bezeichnet - je höher der relative Kapitaleinsatz je Mitarbeiter ist, desto größer ist die Kapitalintensität. Langfristig - Kapital und Arbeit sind jetzt variabel - können Unternehmen neben der Produktionsmenge auch über die Kapitalintensität durch Wahl der Technologie entscheiden. Technischer Fortschritt und Kapitalintensität Industrien (und innerhalb der Industrien auch die Unternehmen) unterscheiden sich in ihrer Kapitalintensität, wie in ► Abbildung 5.6 zu erkennen ist. Die Gründe sind neben verfügbaren Technologien, Unterschieden in der Verfügbarkeit von Einsatzfaktoren (bspw. Fachkräftemangel oder Beschaffungsengpässe bei Maschinen) und regional oder international unterschiedlichen Faktorpreisen insbesondere auch strategische Entscheidungen der Unternehmen (bspw. unterschiedliche Automatisierungsstrategien von Volkswagen und Toyota). Langfristig steigt die Kapitalintensität zudem in nahezu allen Industrien - in Deutschland im Jahr 2013 im Durchschnitt auf 400TEUR, d.h. je Mitarbeiter oder Arbeitsplatz sind in Deutschland im Durchschnitt 400TEUR in Eigen- oder Fremdkapital gebunden. Kapitalintensität Kapital K in mn. EUR 0 q 1 q 2 > q 1 q 3 > q 2 > q 1 100 250 500 150 200 250 höhere Produktionsmenge Arbeit L in FTE 0 200 250 höherer Kapitaleinsatz niedrigerer Arbeitseinsatz K/ L = 250/ 250 = 1 K/ L = 500/ 200 = 2,5 Arbeit L in FTE Kapital K in mn. EUR 250 500 Isoquante (Punkte gleicher Produktionsmenge) Isoquante = konstante Produktionsmenge q <?page no="221"?> Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge 221 Abbildung 5.6: Entwicklung der Kapitalintensität von 1991 bis 2013 in TEUR in Deutschland Datenquelle: Institut der deutschen Wirtschaft 2014, eigene Berechnungen. Die Ursachen hierfür sind zunächst langfristig ansteigende Arbeitskosten (Lohnsätze) infolge von wiederholt höheren Tarifabschlüssen bei relativ konstanten Kapitalkosten (Zinsen) im Kapitalmarkt. In der Folge versuchen Unternehmen, den relativ teurer gewordenen Einsatzfaktor Arbeit durch Automatisierung, insbesondere durch höheren Kapitaleinsatz, zumindest teilweise zu substituieren. Zudem entsteht eine Wechselwirkung mit dem in anderen Industrien stattfindenden technologischen Wandel. Infolge steigender Arbeitskosten suchen Unternehmen aktiv nach neuen Produktionsverfahren, bspw. Robotik oder künstliche Intelligenz, die dann wiederum menschliche Arbeit obsolet macht und die Stellenzahl absolut reduziert. In der Folge steigt allerdings die Produktivität der verbleibenden Stellen. Technischer Fortschritt bedeutet, dass entweder mit konstanten Einsatzfaktoren mehr produziert werden kann oder dieselbe Produktionsmenge mit geringerem Faktoreinsatz erzielt werden kann. Langfristig ist technischer Fortschritt meist arbeitssparend, d.h. es steigt die Kapitalintensität, gleichzeitig steigt langfristig das Grenzprodukt der Arbeit relativ zum Grenzprodukt des Kapitals - technischer Fortschritt und Innovationen erhöhen die Produktivität von Mitarbeitern und können wesentlicher Treiber für höhere Lohnsätze sein. Bspw. findet im Lebensmitteleinzelhandel kontinuierlich arbeitssparender technischer Fortschritt statt: Selbstbedienung, abgepackte Lebensmittel, digitale Preisschilder, Scanner-Kassen oder Self-Check-out haben seit den Zeiten eines Tante-Emma Ladens hin zu modernen Großsupermärkten über eine Erhöhung der Kapitalintensität die Produktivität der Mitarbeiter signifikant erhöht (Aghion und Howitt 2009 für eine umfassende Darstellung im Rahmen der Wachstumstheorie und Belitz et al. 2017 für eine empirische Analyse der Treiber in Deutschland). 0 100 200 300 400 500 600 Alle Wirtschaftsbereiche Land-, Forstwirtschaft, Fischerei Bergbau Verarbeitendes Gewerbe Baugewerbe Dienstleistungen <?page no="222"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 222 Zudem kann sich mittelfristig die Effizienz 𝐴𝐴𝐴𝐴 durch eine Re- oder Neuorganisation, Fortbildung der Mitarbeiter oder bessere Führungsmodelle des Unternehmens bei gleicher Kapitalausstattung erhöhen. Für jeden Mitarbeiter (und jede Mitarbeiterzahl) steigen dann die Produktion, das Grenzprodukt und die Produktivität. Abbildung 5.7: Prozentuales Produktivitätswachstum in großen EU-Ländern von 1995 bis 2016 über verschiedene Industrien. Datenquelle: OECD Productivity and ULC by main economic activity (ISIC Rev.4) 2017, eigene Berechnungen. In ► Abbildung 5.7 ist die Produktivitätsentwicklung in großen EU-Ländern für den Zeitraum 1995 bis 2016 zu sehen - im Durchschnitt hat sich die Produktivität jedes Mitarbeiters pro Jahr um etwa 2,2 % erhöht. Als Faustregel können also in Businessplänen etablierter Unternehmen etwa 2 % jährlicher Produktivitätssteigerung eingeplant werden, wenn alle Möglichkeiten für technischen Fortschritt (neue Software, Mitarbeiterschulungen, Automatisierung etc.) genutzt werden. Neben technischem Fortschritt spielen offensichtlich konjunkturelle Einflüsse - zu Erkennen am Rückgang der Produktivität im Rahmen der Finanz- und Staatsschuldenkrise ab 2007 und der nachfolgenden Erholung im Jahr 2010 - eine signifikante Rolle. Für zahlreiche Industrien wird langfristig ein Rückgang des Produktivitätswachstums beobachtet. Ein wesentlicher Grund sind zunehmend ausgeschöpfte Möglichkeiten in bestehenden Technologien. Zudem schlagen sich die komplementären Innovationen im Bereich der IT- und Kommunikationstechnologie bislang offenbar unvollständig und zeitverzögert in Produktivitätswachstum einzelner Industrien und Unternehmen nieder. Diese Beobachtung wird als -10,0 -5,0 0,0 5,0 10,0 15,0 1995 1998 2001 2004 2007 2010 2013 2016 France Germany Italy United Kingdom EU-28 <?page no="223"?> Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge 223 ICT Productivity Paradox bezeichnet (Brynjolfsson und Hitt 2000, Syverson 2011 und Acemoglu et al. 2014) und gilt offenbar auch für Big Data und künstliche Intelligenz weiter (Bughin et al. 2017 und Tambe 2014). Die Ursachen sind in langfristigen und aufwendigen Adaptionsprozessen etablierter Unternehmen bei neuen Technologien und dem komplementären Charakter dieser technologischen Entwicklungen zu sehen. Skalenerträge und Größenvorteile in der Produktion Die Unternehmen verschiedener Industrien unterscheiden sich nicht nur betreffend der Kapitalintensität, sondern auch in der absoluten Größe der Unternehmen und der Wachstumsdynamik. Einige Industrien sind von wenigen sehr großen Unternehmen geprägt, andere typischerweise von vielen kleinen Unternehmen:  In Deutschland gibt es 2015 elf sehr große Erdölraffinerien (vgl. Mineralölwirtschaftsverband  www.mwv.de/ statistiken/ ) mit einer durchschnittlichen Produktionsmenge von mehr als 8 Mio. Tonnen mit durchschnittlich etwas mehr als 800 Mitarbeitern und einem Kapitaleinsatz je Unternehmen von ca. 650 Mio. EUR, im Gegensatz dazu  gibt es in Deutschland 2014 ca. 1.600 Hersteller von Musikinstrumenten (vgl. Deutsches Musikinformationszentrum  www.miz.org) mit einer durchschnittlichen Mitarbeiterzahl von weniger als sieben und einem jeweiligen Kapitaleinsatz von weniger als 1 Mio. EUR. Der wesentliche Bestimmungsgrund für die optimale Unternehmensgröße (oder in dynamischer Betrachtung der Wachstumsrate) sind Skalenerträge - mit anderen Worten: Der Zusammenhang zwischen absoluter Größe eines Unternehmens und Vorteilen in Effizienz oder Produktivität. Skalenerträge sind ein Managementkonzept zur Abschätzung und Ermittlung des langfristigen quantitativen Effektes von Variationen aller Einsatzfaktoren auf die Produktionsmenge - sie sind immer dann relevant, wenn langfristige Produktionsentscheidungen betreffend der Technologie und der Einsatzfaktoren zur Ausweitung oder Reduktion der Produktionsmenge zu treffen sind. Skalenerträge messen, wie stark sich die Produktionsmenge verändert, wenn alle Einsatzfaktoren der Produktion (Kapital und Arbeit) in gleichem Maß verändert werden. Es können drei Arten von Skalenerträgen auftreten:  Bei konstanten Skalenerträgen führt ein höherer Einsatz aller Einsatzfaktoren zu proportionalen Wachstum der Produktionsmenge (d.h. die Menge steigt um 10 %, wenn alle Einsatzfaktoren um 10 % erhöht werden). Wachstum erfolgt dann linear mit einer Anpassung von Mitarbeitern und Kapital. In diesem Fall sind Manager bei Wachstumsprozessen eines Unternehmens indifferent zwischen einer großen oder mehreren kleinen Fabriken - beide Varianten sind gleich effizient.  Wenn ein höherer Einsatz aller Einsatzfaktoren zu überproportionalem Wachstum der Produktionsmenge führt (d.h. die Menge steigt um mehr als 10 %, wenn alle Einsatzfaktoren um 10 % erhöht werden), liegen zunehmende Skalenerträge vor. In diesem Fall sollten Manager bei Wachstum eines Unternehmens die bestehende Fabrik vergrößern, statt neue kleine Fabriken zu eröffnen - eine große Fabrik hat höhere Effizienz.  Bei abnehmenden Skalenerträgen führt ein höherer Einsatz aller Einsatzfaktoren zu unterproportionalem Wachstum der Produktionsmenge (d.h. die Menge steigt um weniger als 10 %, wenn alle Einsatzfaktoren um 10 % erhöht werden). In diesem Fall <?page no="224"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 224 sollten Manager bei geplantem Wachstum eines Unternehmens neue kleine Fabriken eröffnen, statt die bestehende zu vergrößern - die kleinen Fabriken haben höhere Effizienz. Abbildung 5.8: Effekt einer Veränderung der Einsatzfaktoren auf die Produktionsmenge. In ► Abbildung 5.8 rechts ist zu erkennen, dass zunehmende Skalenerträge zwar überproportionales Wachstum mit ermöglichen - gleichzeitig geht aber der Ressourceneinsatz bei rückläufiger Produktionsmenge auch nur unterproportional zurück. Bei abnehmenden Skalenerträgen in ► Abbildung 5.8 links erfordert Wachstum einen überproportionalen Anstieg des Ressourceneinsatzes - im Umkehrschluss werden bei einem Produktionsrückgang auch überproportional Ressourcen frei. Die Ursachen für zunehmende, konstante oder abnehmende Skalenerträge sind industrie- oder unternehmensspezifisch. Häufig werden folgende Muster in empirischen Studien oder Case Studies identifiziert:  Zunehmende Skalenerträge entstehen aufgrund von  Spezialisierung (Arbeitsteilung) und Lerneffekten (Erfahrungskurve) in der Produktion,  Modul- und Plattformstrategien oder hohem Gleichteileanteile in der Fertigung  Forschungs- und Entwicklungsinvestitionen bei breitem Produktportfolio oder hoher Abdeckung verschiedener Wertschöpfungsstufen  reduzierten Risiken, Portfoliostrategien bei Produkten, Parenting Advantage bei übergreifenden Dachmarken und Internalisierung von Ressourcen (bspw. interner Arbeitsmarkt und Fortbildung, Insourcing von Wertschöpfungsstufen)  positiven direkten und indirekten Netzwerkeffekten auf der Nachfrageseite und Zugehörigkeit zu technologischen oder ökonomischen Ökosystemen (mehrseitigen Plattformen bei digitalen Geschäftsmodellen) und bei  technisch bedingten unteilbaren Einsatzfaktoren und dadurch besserer Auslastung der Technologie sowie Möglichkeiten der Rationalisierung. 0 K, L Δq abnehmende Skalenerträge zunehmende Skalenerträge 45°-Linie + - Δ(K,L)=3 %Δq<3 % 0 K,L Δq 45°-Linie + - Δ(K,L)=1 % Δq>1 % <?page no="225"?> Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge 225  Abnehmende Skalenerträge sind verursacht durch  begrenzte Managementkapazität (Führungsspanne, Kommunikation oder Projektgrößen), Organisation (Komplexität, Konglomerat-Strukturen, Hierarchien, internationale Tochtergesellschaften etc.) sowie organisatorischer Trägheit (bspw. in Form von Meeting-Strukturen oder begrenzter Veränderungsgeschwindigkeit oder -dynamik von Unternehmen),  komplexere Überwachung (regulatorische Rahmenbedingungen) und ineffiziente Governance-Strukturen (Abstimmung und Kontrolle interner Gremien),  Fehlen geeigneter Fertigungsprozesse und Maschinen, um Großserien oder Massenproduktion zu ermöglichen,  ausgelastete Technologie und fehlende Verfügbarkeit gut ausgebildeter Mitarbeiter resp. Fähigkeiten (d.h. fehlende Additivität). Zunehmende Skalenerträge unterstützen oft schnelles und überproportionales Wachstum: Entstehende Marktchancen oder Nachfragewachstum können realisiert werden, weil keine oder allenfalls unterproportional zusätzliche Ressourcen erforderlich sind. Bei abnehmenden Skalenerträgen erfordert Unternehmenswachstum eine überproportionale Erhöhung des Arbeits- und Kapitaleinsatzes - d.h. allerdings auch, dass das Ergreifen jeder Markchance unmittelbar die Einstellung neuer Mitarbeiter erfordert, rückläufige Nachfrage aber auch zum Abbau von Arbeitsplätzen führt. Abbildung 5.9: Übergang von zunehmenden zu abnehmenden Skalenerträgen. Entlang des Wachstumsprozesses von Unternehmen kann in Abhängigkeit der Größe (aber auch im Zeitablauf) eine Abfolge von zunehmenden, dann abnehmenden Skalenerträgen beobachtet werden. Zunächst skaliert die Organisation und Lernkurveneffekte erhöhen die Produktion überproportional, dann dominieren Komplexität und begrenzte Managementfähigkeiten und limitieren die Möglichkeiten für effizientes Wachstum wie in ► Abbildung 5.9 gezeigt. Dies erklärt zum einen, weshalb kleine Unternehmen typischerweise höhere Wachstumsraten (auch bei höherer Varianz) im Vergleich mit größeren Unternehmen aufweisen (vgl. schwach ausgeprägte zunehmende Skalenerträge stark ausgeprägte zunehmende Skalenerträge abnehmende Skalenerträge K 0 L q 3 =500 q 1 =200 q 2 =400 q 4 =600 zunehmende Skalenerträge L 1 K 1 abnehmende Skalenerträge K 0 L q 2 =800 q 1 =200 q 3 =1000 q 4 =1200 L 1 K 1 K 2 L 2 zunehmende Skalenerträge <?page no="226"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 226 weiterführend Münter 1999), aber auch, weshalb Unternehmen auf Basis neuer digitaler Geschäftsmodelle exponentielle Wachstumsraten erzielen können (Arthur 1996 sowie Nielsen und Lund 2015). Die skizzierten Überlegungen in den Unternehmen schlagen sich entsprechend wechselseitig auf Industrien und Marktstruktur nieder. Sind die zunehmenden Skalenerträge wenig ausgeprägt oder wird relativ schnell der Bereich abnehmender Skalenerträge erreicht, so  sind geringe Größenvorteile vorhanden, d.h. Unternehmen sind tendenziell kleiner,  bei gegebener Nachfrage und Größe des Marktes sind tendenziell viele Unternehmen im Markt vertreten und  relatives Unternehmenswachstum wird durch technologische Rahmenbedingungen erschwert und erfordert überproportional steigenden Ressourceneinsatz. Sind umgekehrt die zunehmenden Skalenerträge deutlich ausgeprägt und wird der Bereich abnehmender Skalenerträge spät erreicht, dann  besitzen die Unternehmen erhebliche Größenvorteile, d.h. Unternehmen sind tendenziell größer, in der Folge sind  bei gegebener Nachfrage und Größe des Marktes tendenziell wenige Unternehmen im Markt und  relatives Unternehmenswachstum wird durch technologische Rahmenbedingungen unterstützt und erfordert unterproportional steigenden Ressourceneinsatz. Die Möglichkeit, zunehmende Skalenerträge zu erzielen, unterscheiden sich deutlich über Industrien: Je umfangreicher Skalenerträge vorliegen, desto größer sind tendenziell die Unternehmen einer Industrie (d.h. höhere absolute Produktion bei absolut höherem Kapital- und Arbeitseinsatz) - bspw. Telekommunikation, Energie oder netzgebundene Transportunternehmen. Auch zahlreiche neue Geschäftsmodelle, basierend auf mehrseitigen Plattformen, zeichnen sich durch umfangreiche zunehmende Skalenerträge aus: Um rapide wachsende Mitgliederzahlen oder Kunden auf Social-Media-Plattformen zu verwalten, sind nur deutlich unterproportionale Zuwächse an Kapital und Mitarbeitern notwendig (Arthur 1996, van Alstyne et al. 2016 sowie Hirt und Wilmott 2014). Skalenerträge in langfristigen Produktionsfunktionen Die Größe und Art der Skalenerträge eines Unternehmens kann empirisch durch Analyse der Produktionsfunktion ermittelt werden. Verwendet man bspw. die Cobb-Douglas- Produktionsfunktion aus ► Kapitel 5.1, so ist nach einigen Umstellungen schnell zu erkennen, dass die Produktion infolge einer Ver-m-fachung aller Einsatzfaktoren nicht um das m-Fache ansteigt. Vielmehr hängt der Anstieg von der Summe der partiellen Produktionselastizitäten 𝛼𝛼𝛼𝛼 und 𝛽𝛽𝛽𝛽 ab, wie man aus der Analyse von (5.21) 𝑞𝑞𝑞𝑞 0 = 𝑇𝑇𝑇𝑇(𝐸𝐸𝐸𝐸, 𝐿𝐿𝐿𝐿) = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 𝛽𝛽𝛽𝛽 und (5.22) 𝑞𝑞𝑞𝑞 1 = 𝑇𝑇𝑇𝑇(𝑆𝑆𝑆𝑆𝐸𝐸𝐸𝐸, 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿) = 𝐴𝐴𝐴𝐴(𝑆𝑆𝑆𝑆𝐸𝐸𝐸𝐸) 𝛼𝛼𝛼𝛼 (𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿) 𝛽𝛽𝛽𝛽 erkennen kann. Multipliziert man Gleichung (5.22) aus, so ergibt sich <?page no="227"?> Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge 227 (5.23) 𝑞𝑞𝑞𝑞 1 = 𝑇𝑇𝑇𝑇(𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆, 𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆) = 𝐴𝐴𝐴𝐴(𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆) 𝛼𝛼𝛼𝛼 (𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆) 𝛽𝛽𝛽𝛽 = 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 𝐴𝐴𝐴𝐴𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼 𝑆𝑆𝑆𝑆 𝛽𝛽𝛽𝛽 = 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 𝑞𝑞𝑞𝑞 0 . Die neue Produktionsmenge 𝑞𝑞𝑞𝑞 1 , die sich bei einer gleichmäßigen Ver-m-fachung der Einsatzfaktoren 𝑆𝑆𝑆𝑆 und 𝑆𝑆𝑆𝑆 ergibt, entspricht der mit dem Faktor 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 multiplizierten ursprünglichen Produktionsmenge 𝑞𝑞𝑞𝑞 0 . Bei marginalen Änderungen der Einsatzmengen kann man durch Addition der partiellen Produktionselastizitäten die Veränderungsrate der Produktionsmenge ermitteln:  Ist die Summe 𝛼𝛼𝛼𝛼 + 𝛽𝛽𝛽𝛽 gleich eins, dann liegen konstante Skalenerträge vor,  ist die Summe 𝛼𝛼𝛼𝛼 + 𝛽𝛽𝛽𝛽 größer eins, liegen zunehmende Skalenerträge vor,  ist die Summe 𝛼𝛼𝛼𝛼 + 𝛽𝛽𝛽𝛽 kleiner eins, hat das Unternehmen abnehmende Skalenerträge. Die Summe von 𝛼𝛼𝛼𝛼 und 𝛽𝛽𝛽𝛽 wird als Skalenelastizität bezeichnet.  Case Study | Turbinenhersteller bei langfristiger symmetrischer Veränderung aller Einsatzfaktoren Bei marginalen Änderungen der Einsatzmengen kann man durch Addition der partiellen Produktionselastizitäten die Veränderungsrate der Produktionsmenge ermitteln. Betrachtet wird wieder der mittelständische Turbinenhersteller mit einer Cobb-Douglas- Produktionsfunktion (5.24) 𝑞𝑞𝑞𝑞 0 = 𝑇𝑇𝑇𝑇(𝑆𝑆𝑆𝑆 = 100, 𝑆𝑆𝑆𝑆 = 200) = 4,12 ⋅ 100 0,79 ⋅ 200 0,50 = 2.215,20 und einer Produktionsmenge 𝑞𝑞𝑞𝑞 0 von 2.215,20. Erhöht man den Kapital- und den Arbeitseinsatz um 1 %, so ergibt sich eine neue Produktionsmenge von (5.25) 𝑞𝑞𝑞𝑞 1 = 𝑇𝑇𝑇𝑇(𝑆𝑆𝑆𝑆 = 101, 𝑆𝑆𝑆𝑆 = 202) = 4,12 ⋅ 101 0,79 ⋅ 202 0,50 = 2.243,81 , d.h. die Produktionsmenge steigt auf 101,29 % ⋅ 𝑞𝑞𝑞𝑞 0 : Der Anstieg entspricht der Summe der partiellen Produktionselastizitäten 𝛼𝛼𝛼𝛼 = 0,79 und 𝛽𝛽𝛽𝛽 = 0,50 . In gleicher Weise kann man langfristige und wechselseitige Effekte prüfen, wie bspw. einen Anstieg des Kapitaleinsatzes um 1 % bei gleichzeitiger Reduktion des Arbeitseinsatzes um 1 %. Die neue Produktionsmenge beträgt (5.26) 𝑞𝑞𝑞𝑞 2 = 𝑓𝑓𝑓𝑓(𝑆𝑆𝑆𝑆 = 101, 𝑆𝑆𝑆𝑆 = 198) = 4,12 ⋅ 101 0,79 ⋅ 198 0,50 = 2.221,49 , im Vergleich mit der ursprünglichen Produktionsmenge 𝑞𝑞𝑞𝑞 0 ein Anstieg um 0,29 %. Dieser ergibt sich wieder durch Addition der partiellen Produktionselastizität gewichtet mit der Veränderung des Faktoreinsatzes, in diesem Fall als 0,79 ⋅ 1 % − 0,50 ⋅ 1 % = 0,29 % und entsprechend 𝑞𝑞𝑞𝑞 2 = 100,29 % ⋅ 𝑞𝑞𝑞𝑞 0 .  Case Study | Kühlschränke bei langfristigem Anstieg der Nachfrage und Anpassung aller Einsatzfaktoren Der Kühlschrankhersteller aus ► Kapitel 5.2 plant jetzt langfristig - aufgrund positiver Marktforschungsergebnisse - die Produktion von 12 Mio. auf 36 Mio. Kühlschränke auszuweiten. Die zentrale Frage für das Management ist jetzt, ob dazu weitere Fabriken etabliert werden sollen, oder ob die Produktion in der bestehenden Fabrik angesiedelt werden sollte. <?page no="228"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 228 Die Ausgangssituation ist durch (5.27) 𝑞𝑞𝑞𝑞 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 1𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 1 𝛽𝛽𝛽𝛽 mit 𝐴𝐴𝐴𝐴 = 0,10348, 𝛼𝛼𝛼𝛼 = 0,8, 𝛽𝛽𝛽𝛽 = 0,6 und einen Faktoreinsatz von 𝐸𝐸𝐸𝐸 1 = 80.000.000 und 𝐿𝐿𝐿𝐿 1 = 800 beschrieben. Die Produktionsmenge beträgt entsprechend 𝑞𝑞𝑞𝑞 1 = 12.000.000 . Das Ziel des Unternehmens ist jetzt, durch langfristige Anpassung um den Faktor 𝑆𝑆𝑆𝑆 der Einsatzfaktoren 𝐸𝐸𝐸𝐸 und 𝐿𝐿𝐿𝐿 , die Produktionsmenge zu verdreifachen, so dass (5.28) 𝑞𝑞𝑞𝑞 2 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 2𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 2 𝛽𝛽𝛽𝛽 = 36.000.000 mit (5.29) 𝑞𝑞𝑞𝑞 2 = 𝐴𝐴𝐴𝐴(𝑆𝑆𝑆𝑆𝐸𝐸𝐸𝐸 1 ) 𝛼𝛼𝛼𝛼 (𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 1 ) 𝛽𝛽𝛽𝛽 = 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 1𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 1 𝛽𝛽𝛽𝛽 ≤≥ 36.000.000 . Zunächst kann man prüfen, was bei einer Verdreifachung der Einsatzfaktoren passiert - im Ergebnis steigt die Produktionsmenge auf den Wert: (5.30) 𝑞𝑞𝑞𝑞 2 (𝑆𝑆𝑆𝑆 = 3) = 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 1𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 1 𝛽𝛽𝛽𝛽 = = 3 0,8𝛼0,6 ⋅ 0,10348 ⋅ 80.000.000 0,8 ⋅ 800 0,6 = = 3 1,4 ⋅ 0,10348 ⋅ 80.000.000 0,8 ⋅ 800 0,6 = 55.866.589 Eine Verdreifachung des Arbeits- und Kapitaleinsatzes würde aufgrund zunehmender Skalenerträge mit einer Skalenelastizität 𝛼𝛼𝛼𝛼 + 𝛽𝛽𝛽𝛽 = 1,4 zu einer deutlich überproportionalen Vergrößerung der Produktion führen - so ist klar, dass aus strategischer Perspektive in jedem Fall die bestehende Fabrik ausgebaut werden sollte und nicht zusätzliche kleine Fabriken etabliert werden sollten. Die nächste Frage ist, um wieviel zusätzliches Kapital und um wie viele zusätzliche Stellen das Unternehmen wachsen soll, um die geplante Erhöhung der Produktion zu realisieren. Aus der Bedingung (5.31) 𝑞𝑞𝑞𝑞 2 = 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 1𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 1 𝛽𝛽𝛽𝛽 → 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 𝑞𝑞𝑞𝑞 1 = 𝑞𝑞𝑞𝑞 2 ergibt sich, dass (5.32) 𝑆𝑆𝑆𝑆 𝛼𝛼𝛼𝛼𝛼𝛽𝛽𝛽𝛽 = 𝑞𝑞𝑞𝑞2 𝑞𝑞𝑞𝑞1 und (5.33) 𝑆𝑆𝑆𝑆 = � 𝑞𝑞𝑞𝑞2 𝑞𝑞𝑞𝑞1 � 1 𝛼𝛼𝛼𝛼𝛼𝛼𝛼𝛼𝛼 gelten muss. Setzt man die vorhandenen Werte in Gleichung (5.33) ein, so ergibt sich mit (5.34) 𝑞𝑞𝑞𝑞2 𝑞𝑞𝑞𝑞1 = 36.000.000 12.000.000 = 3 entsprechend (5.35) 𝑆𝑆𝑆𝑆 = � 𝑞𝑞𝑞𝑞2 𝑞𝑞𝑞𝑞1 � 1 𝛼𝛼𝛼𝛼𝛼𝛼𝛼𝛼𝛼 = (3) 1 0,8𝛼0,6 = 2,19 , d.h., für eine Verdreifachung der Produktionsmenge müssen aufgrund vorliegender zunehmender Skalenerträge die Einsatzfaktoren Kapital und Arbeit jeweils nur um den Faktor 𝑆𝑆𝑆𝑆 = 2,19 angepasst werden. <?page no="229"?> Langfristige Entscheidungen: Technischer Fortschritt und Skalenerträge 229 Natürlich hätte man neben der bestehenden ersten Fabrik zwei identische weitere etablieren können. Dieses Vorgehen führt natürlich dazu, dass die Produktionsmenge auf 36. Mio. Kühlschränke ansteigt, allerdings ist dieser Weg ineffizient: Drei „kleine Fabriken“ benötigen entsprechend einen jeweiligen Kapital- und Arbeitseinsatz von (5.36) 𝐸𝐸𝐸𝐸 1 = 𝐸𝐸𝐸𝐸 2 = 𝐸𝐸𝐸𝐸 3 = 80.000.000 → ∑𝐸𝐸𝐸𝐸 𝑃𝑃𝑃𝑃 = 240.000.000 und 𝐿𝐿𝐿𝐿 1 = 𝐿𝐿𝐿𝐿 2 = 𝐿𝐿𝐿𝐿 3 = 800 → ∑𝐿𝐿𝐿𝐿 𝑃𝑃𝑃𝑃 = 2.400 Eine „große Fabrik“ kommt jedoch mit einer Ver-m-fachung von 2,19 zu einer Verdreifachung der Produktionsmenge, d.h. der Kapitaleinsatz beträgt 175.200.000 und es werden 1.752 Mitarbeiter benötigt, so dass sich eine Ineffizienz in Höhe von (5.37) 𝐸𝐸𝐸𝐸 ′1 = 2,19 ⋅ 80.000.000 = 175.200.000 𝐿𝐿𝐿𝐿 ′1 = 2,19 ⋅ 800 = 1.752 und ∆𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸 = −27 % und ∆𝐿𝐿𝐿𝐿 𝐿𝐿𝐿𝐿 = −27 % ergibt. Produktivität, Kapitalintensität und Skalenerträge Aus Managementperspektive sind - gerade bei technischem Fortschritt - die lang- und kurzfristigen Konzepte von Produktivität, Kapitalintensität und Skalenerträgen eng verwoben. Vor dem Hintergrund geringerer Profitabilität des Volkswagen Konzerns, vor allem der Kernmarke VW, im Vergleich mit Wettbewerbern hat das Management wiederholt Kostensenkungsinitiativen und Restrukturierungen der Organisation vorgenommen (Süddeutsche Zeitung 2014, Manager Magazin 2014, Handelsblatt 2014 und Frankfurter Allgemeine Zeitung 2017): Im Kern werden Prozessoptimierung, Werkschließungen, Stellenreduktion und weitere Automatisierung resp. Digitalisierung diskutiert. Abstrahierend von der Kostensituation sind in ► Tabelle 5.4 die Entwicklungen einiger zentraler Kennzahlen des Volkswagen Konzerns dargestellt. Das Unternehmen ist zwar im betrachteten Zeitraum gewachsen, allerdings liegen die Wachstumsraten von Kapital und Mitarbeitern deutlich über derjenigen der Produktion - in der Konsequenz ist die Produktivität gesunken. Eine erste Erklärung kann sein, dass das deutliche Wachstum an Kapital und Mitarbeitern zu Ineffizienz in der Organisation des Konzerns geführt hat. Zweitens könnte der Mitarbeiter- und Kapitalaufbau inkonsistent mit den vorliegenden Skalenerträgen sein, d.h., Volkswagen hat entweder zu viele kleine Standorte oder einzelne der Standorte sind absolut zu groß. Überträgt man die Daten in ► Abbildung 5.10, wird eine mögliche weitere Erklärung für das Dilemma von Volkswagen sichtbar: Gegebenenfalls befindet sich der Volkswagen Konzern 2014 am Übergang von konstanten zu abnehmenden Skalenerträgen. <?page no="230"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 230 Volkswagen Konzern: Technischer Fortschritt, Produktivität und Kapitalintensität Jahr 2006 2010 2014 CAGR 2006-2010 CAGR 2010-2014 Produktion in Mio. Fahrzeugen 5,66 7,36 10,21 6,80 % 8,50 % Mitarbeiter in Tsd. 329 389 583 4,30 % 10,60 % Kapital in Mrd. EUR 136,5 196,7 351 9,60 % 15,60 % Kapitalintensität in Tsd. EUR 414 505 602 5,10 % 4,50 % Produktivität in Fahrzeugen pro Mitarbeiter 17,2 18,9 17,5 2,40 % -1,90 % Skalenelastizität ~ 0,98 ~ 0,65 Tabelle 5.4: Volkswagen Konzern: Technischer Fortschritt und Kapitalintensität. Daten: Volkswagen-Factbook und Geschäftsberichte diverse Jahrgänge, eigene Berechnungen. Abbildung 5.10: Übergang von konstanten zu abnehmenden Skalenerträgen bei Volkswagen 2006 bis 2014. abnehmende Skalenerträge konstante Skalenerträge Kapital in Mrd. EUR 0 Arbeit in Tsd. Mitarbeiter q 2006 = 5,66 Mio. 136 351 329 389 583 q 2010 = 7,36 Mio. q 2014 = 10,21 Mio. 196 q* = 10 Mio. ~280 ~450 <?page no="231"?> Zusammenfassung 231 Eine deutliche Ausweitung von Kapital und Arbeit hatte zwischen 2010 und 2014 einen signifikant unterproportionalen Anstieg der Produktion zur Folge. Rechnet man die Produktion von 10 Mio. Fahrzeugen auf Basis der Kapitalintensität und Effizienz der Jahre 2006 und 2010 zurück, so müsste Volkswagen bei effizienter Produktionsfunktion und Rückkehr zu konstanten Skalenerträgen mit ca. 450.000 Mitarbeitern und einem Eigen- und Fremdkapital von ca. 280 Mrd. EUR auskommen - entsprechend groß könnte der Restrukturierungsbedarf sein. 5.4 Zusammenfassung Die Produktionsfunktion ist das zentrale Analyseinstrument und Managementkonzept, um strategische Entscheidungen über die Produktionskapazität zu treffen und die Zusammensetzung der Einsatzfaktoren Kapital und Arbeit festzulegen. Eine Produktionsfunktion kann einfach über ökonometrische Verfahren aus vorhandenen Unternehmensdaten (bspw. Produktionsmenge, Eigen- und Fremdkapitaleinsatz und Mitarbeiterzahl) ermittelt werden. Aus Managementperspektive ist die Unterscheidung in eine kurz- und langfristige Perspektive wesentlich. Kurzfristig kann der Einsatz von Mitarbeitern, d.h. der Einsatzfaktor Arbeit, variiert werden, z.B. durch Anordnung von Überstunden oder Beschaffung zusätzlicher Mitarbeiter über ein Zeitarbeitsunternehmen. Das Grenzprodukt der Arbeit und die Produktivität zeigen kurzfristig an, wie sich die Produktionsmenge verändern. Typischerweise beobachtet man positive, aber abnehmende Grenzprodukte, d.h., die Produktion steigt durch zusätzliche Mitarbeiter unterproportional an, entsprechend geht die Produktivität zurück. Langfristig ist von zentraler Bedeutung, ob, in welcher Weise und wie leicht oder schnell Kapital und Arbeit substituiert werden können. Typischerweise beobachtet man in vielen Industrien einen Anstieg der Kapitalintensität und einhergehend arbeitssparenden technischen Fortschritt. Die Gründe hierfür liegen im Wesentlichen in langfristig steigenden Kosten für den Einsatzfaktor Arbeit (steigende Lohnsätze und Gehälter) im Vergleich mit relativ konstanten Kosten für Kapital (schwankende, aber im Niveau relativ stabile Zinssätze für Eigen- und Fremdkapital) und den so begründeten Anreiz, Innovationen und technische Neuerungen umzusetzen, die einen langfristigen Anstieg der Kapitalintensität zur Folge haben. Aus strategischer Perspektive sind zwei weitere Punkte zentral: Bei langfristigen Anpassungen der Produktionskapazität durch Anpassung des Kapital- und Arbeitseinsatzes können zunehmende, konstante oder abnehmende Skalenerträge entstehen. Die Analyse der Art und des Umfangs der Skalenerträge unterstützen bei Entscheidungen über Größe und Anzahl von Fabriken innerhalb eines Unternehmens, sind aber daneben auch Indikator für die bei sonst gegebenen Rahmenbedingungen zu erwartende Marktstruktur, d.h. Anzahl und Größenverteilung der Wettbewerber. Zudem sind Skalenerträge einer der wesentlichen Erfolgstreiber neuer digitaler Geschäftsmodelle: Bei der Planung und Gestaltung neuer Geschäftsmodelle und oftmals exponentieller Wachstumsprozessen steht die Frage nach Skalierbarkeit, also der strategischen Realisierung von umfangreichen zunehmenden Skalenerträgen, im Mittelpunkt. <?page no="232"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 232  Literaturtipps Wer mehr zu Digitalisierung aus mikroökonomischer Perspektive und deren Auswirkung auf Arbeit und Kapital sucht, wird bei Brynjolfsson, E. und McAfee, A., The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, New York 2014, fündig. Umfassende Darstellungen zur Produktionstheorie finden sich bei Mas-Colell, A. Winston, M.D. und Green, J.R., Microeconomic Theory, New York 1995.  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von Entscheidungen zu Technologie und Unternehmensgröße aus mikroökonomischer Perspektive sowie deren Grenzen, Vor- und Nachteile! [2] Wie kann man die Produktionsfunktion eines Unternehmens ermitteln? Welche Parameter können bspw. in der Cobb-Douglas Produktionsfunktion identifiziert werden? [3] Beschreiben Sie die Begriffe Kapital und Arbeit unter Bezug auf den Zeithorizont von unternehmerischen Entscheidungen! Geben Sie je zwei Beispiele für kurz- und langfristige Anpassungen der Einsatzfaktoren! [4] Beschreiben Sie den Zusammenhang zwischen Grenzprodukt und Produktivität bei Ausweitung der Produktionsmenge! [5] Ermitteln Sie für eine Cobb-Douglas Produktionsfunktion mit den Parametern technische Effizienz A = 2,5, partielle Produktionselastizität des Kapitals 𝛼𝛼𝛼𝛼 = 0,5 und partielle Produktionselastizität der Arbeit 𝛽𝛽𝛽𝛽 = 0,4 folgende Größen: a) Produktionsmenge bei Kapitaleinsatz in Höhe von K = 100 (in Mio. EUR) und Arbeitseinsatz in Höhe von L = 200 (in Mitarbeitern pro Jahr), b) Grenzprodukt, Produktivität (bei dieser Produktionsmenge) sowie Skalenerträge! c) Das Unternehmen verliert aufgrund der „Rente mit 63“-Regelung jetzt 5 % der Mitarbeiter und findet keinen Ersatz - um wie viel Prozent muss der Kapitaleinsatz steigen, damit die Produktionsmenge konstant gehalten werden kann? Was passiert mit der Produktivität in diesem Unternehmen? [6] In zwei Fabriken A und B, die identische Produkte an unterschiedlichen Standorten herstellen, beträgt die Produktivität 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝐴𝐴𝐴𝐴 = 9 resp. 𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 𝐵𝐵𝐵𝐵 = 10 und die jeweiligen Grenzprodukte 𝑀𝑀𝑀𝑀𝐴𝐴𝐴𝐴 𝐴𝐴𝐴𝐴 = 11 resp. 𝑀𝑀𝑀𝑀𝐴𝐴𝐴𝐴 𝐵𝐵𝐵𝐵 = 9 - erläutern Sie anhand von Abbildungen, welche Entscheidungen ein Produktionsvorstand aus diesen Werten ableiten kann? [7] Erläutern Sie mögliche Ursachen, weshalb es in einigen Industrien eher ‚viele kleine Unternehmen‘ gibt, in anderen Industrien aber ‚wenige große Unternehmen‘ und geben Sie je drei Beispiele (Industrien). [8] Beschreiben Sie das Konzept der Skalenerträge. In welcher Weise hilft es bei Entscheidungen über die Zahl von Produktionsstätten oder Fabriken? Unternehmen weisen oft zunächst zunehmende, dann abnehmende Skalenerträge auf - woran kann das liegen? [9] Weshalb ist für viele Industrien langfristig ein Anstieg der Kapitalintensität zu beobachten? <?page no="233"?> Zusammenfassung 233 [10] Sie planen, ein neues Geschäftsmodell zu etablieren - wie erklären Sie potenziellen Investoren, dass Ihr Geschäftsmodell skaliert und zunehmende Skalenerträge möglich sind?  Literatur Acemoglu, D., Dorn, D., Hanson, G. und Price, B., Return of the Solow paradox? IT, productivity, and employment in US manufacturing, American Economic Review, 2014, 104, 5, 394-399. Aghion, P. und Howitt, P.W., The economics of growth, Boston 2009. Andries, A.M. und Capraru, B., The nexus between competition and efficiency: the European banking industries experience, International Business Review, 2014, 23, 3, 566-579. Arthur, W.B., Increasing returns and the new world of business, Harvard Business Review, July/ August 1996, 31-53. Belitz, H., Eickelpasch, A., Mouel, M.L. und Schiersch, A., Wissensbasiertes Kapital in Deutschland: Analyse zu Produktivitäts- und Wachstumseffekten und Erstellung eines Indikatorsystems, DIW Berlin, 2017. Black, S.E. und Lynch, L.M., Measuring organisational capital in the new economy, in: Corrado, C., Haltiwanger, J. und Sichel, D. (Hrsg.), Measuring capital in a new economy, Chicago 2005, 205-236. Bloem, J., van Doorn, M., Duivestein, S., Excoffier, D., Maas, R. und van Ommeren, E., The fourth industrial revolution - things to tighten the link between IT and OT, Groningen 2014. Bloom, N. und van Reenen, J., Measuring and explaining management practices across firms and countries, Quarterly Journal of Economics, 2007, 122, 4, 1351-1408. Bonin, H., Gregory, T. und Zierahn, U., Übertragung der Studie von Frey/ Osborne (2013) auf Deutschland, ZEW Kurzexpertise Nr. 57, Mannheim 2015. Brynjolfsson, E. und Hitt, L.M., Beyond computation: information technology, organizational transformation and business performance, Journal of Economic Perspectives, 2000, 14, 4, 23-48. Bughin, J., Hazan, E., Ramaswamy, S., Chui, M., Allas, T., Dahlström, M., Henke, N. und Trench, M., Artificial Intelligence: the next digital frontier, McKinsey Global Institute 2017. Frey, C.B. und Osborne, M.A., The future of employment: how susceptible are jobs to computerization? , Technological Forecasting and Social Change, 2017, 114, 254-280. Hay, D.A. und Liu, G.S., The efficiency of firms: what difference does competition make? , Economic Journal, 1997, 107, 442, 597-617. Hirt, M. und Willmott, P., Strategic principles for competing in the digital age, McKinsey Quarterly, May 2014, 1-13. Holmes, T.J. und Schmitz, J.A., Competition and productivity: a review of evidence, Annual Review of Economics, 2010, 2, 619-642. Läsker, K., Winterkorn verdonnert VW zu radikalem Sparkurs, Süddeutsche Zeitung, 15. Juli 2014. McGowan, M.G., Andrews, D., Criscuolo, C. und Nicoletti, G., The future of productivity, OECD, Paris 2015. Münter, M.T., Wettbewerb und die Evolution von Industrien, Bayreuth 1999. Müssgens, C. und Jung, M., Streit um Sparprogramm wird zur Chefsache, Frankfurter Allgemeine Zeitung, 13. Februar 2017. Nielsen, C. und Lund, M., The concept of business model scalability, Aalborg University, mimeo, 2015. o.V., Alle VW-Marken müssen ihre Kosten senken, Handelsblatt, 24.11.2014. o.V., Volkswagen eröffnet neues Werk in China, Manager Magazin, 24.10.2013. o.V., VW-Betriebsratschef Osterloh will McKinsey aus dem Haus jagen, Manager Magazin, 25.7.2014. <?page no="234"?> Unternehmensgröße, Technologie und Produktionsentscheidungen 234 Syverson, C., What determines productivity? , Journal of Economic Literature, 2011, 49, 2, 326-365. Tambe, P., Big data investment, skills, and firm value, Management Science, 2014, 60, 6, 1452-1469. van Alstyne M.W., Parker,G.G. und Choudary, S.P., Pipelines, platforms and the new rules of strategy, Harvard Business Review, April 2016, 2-9. von Tunzelmann, N., Historical coevolution of governance and technology in the industrial revolutions, Structural Change and Economic Dynamics, 2003, 14, 4, 365-384. <?page no="235"?> 6 Kosten, Restrukturierung und M&A Entscheidungen zur Kostenstruktur, zur Restrukturierung eines bestehenden Unternehmens oder zum Erwerb eines anderen Unternehmens zielen immer auf eine nachhaltige Verbesserung der Wettbewerbsfähigkeit eines Unternehmens. Die Kostenstruktur kann bspw. beeinflusst werden, indem ein Unternehmen langfristig durch Outsourcing Teile der fixen Kosten variabilisiert - Banken z.B. durch Auslagerung an spezialisierte IT- oder BPO-Dienstleister - oder durch Verlagerung der Produktion in Niedriglohnländer Faktorpreisunterschiede ausnutzt, wie dies in weiten Teilen der Textil- und Bekleidungsindustrie erfolgt, aber zunehmend auch für Tätigkeiten im Bereich Accounting oder Customer Care. Eine Restrukturierung zielt auf eine dauerhafte Anpassung der Kosten sowie der Kostenstruktur infolge veränderter Faktorpreise oder dauerhaft veränderter Nachfragestruktur. Damit geht der Auf- oder Abbau von Stellen und die Anpassung von Finanzierungsstruktur und Höhe von Eigen- und Fremdkapital einher. Die Übernahme eines oder der Zusammenschluss mit einem Wettbewerber soll dagegen - neben anderen Zielen wie dem Aufbau von Knowhow, dem Zugang zu neuen Märkten oder der Risikodiversifikation - durch M&A- Transaktionen (Unternehmensübernahmen und -zusammenschlüsse) kostenseitige Wettbewerbsvorteile generieren. Zum einen wird durch diese strategischen Maßnahmen beabsichtigt, die Profitabilität eines Unternehmens durch Kostensenkungen zu erhöhen oder wiederherzustellen, zum anderen wird versucht, durch Economies of Scale oder Economies of Scope kostenseitige Wettbewerbsvorteile in Form von fixkostenbasierten Größenvorteilen oder Synergien aus unterschiedlichen Produktportfolien oder Marktsegmenten zu etablieren. Die Kosten eines Unternehmens sind ein maßgeblicher Einflussfaktor der Wettbewerbsfähigkeit: Konkurrieren Unternehmen mit - aus Kundenperspektive - schwach oder nicht differenzierten Produkten und herrscht Preiswettbewerb, so kann die Kostensituation eines Unternehmens dessen Überlebensfähigkeit bestimmen. Dabei gelten natürlich alle Konzepte zu Produktionsentscheidungen aus ► Kapitel 5 fort: Abnehmende Grenzprodukte und variierende Skalenerträge schlagen sich entsprechend in Kostenfunktionen nieder. Zwischen Produktions- und Kostenfunktion existiert eine Dualität - beide bilden, kurzwie langfristig, Transformationsprozesse der Unternehmen ab: Einmal reduziert auf Einsatzfaktoren und Produktionsmenge, das andere Mal bewertet durch Faktorpreise in Kosten, versucht das Management Effizienz durch minimalen Faktoreinsatz gleichbedeutend mit Kostenminimierung bei gegebener oder geplanter Produktionsmenge herzustellen. <?page no="236"?> Kosten, Restrukturierung und M&A 236  Lernziele Dieses Kapitel beschäftigt sich mit  der Entwicklung eines grundlegenden Verständnisses, welche Kosten aus lang- und kurzfristiger Perspektive für Entscheidungen von Unternehmen relevant sind,  wie sich der Wechsel aus zunehmenden und abnehmenden Grenzprodukten auf Grenzkosten auswirkt und wie zunehmende und abnehmende Skalenerträge die langfristige Kostenentwicklung von Unternehmen bestimmt,  welche kurz- und langfristigen Effekte von Lohnsatzsteigerungen und Nachfragerückgang auf die Kosten von Unternehmen und deren strategische Reaktionsmöglichkeiten und  wie die Konzepte Economies of Scale und Economies of Scope für strategische Entscheidungen für Unternehmensübernahmen und -zusammenschlüsse (Mergers and Acquisitions, kurz M&A) von Unternehmen herangezogen werden können. 6.1 Kostenfunktion, Entscheidungen und Wettbewerbsfähigkeit Aus Managementperspektive ist entscheidend, in welchem Zeithorizont welche Kosten durch welche Maßnahmen beeinflusst werden können und wie dadurch schließlich Wettbewerbsvorteile aufgebaut werden können. Mit anderen Worten: Aus strategischer und mikroökonomischer Perspektive sind zukünftige Kosten entscheidend, nicht - wie bspw. aus Perspektive von Finanzen und Controlling - die Analyse oder Dokumentation vergangener Kosten in einer Gewinn- und Verlustrechnung oder sonstiger externer Rechnungslegung. Kurzfristige Entscheidungen bestimmen über zukünftige Kosten maßgeblich den Gewinn des Unternehmens: Eine Preissenkung für Mobilfunkangebote kann zu höherer Nachfrage und steigender Produktionsmenge führen, aber ein Manager muss hier immer auch die Entwicklung der Stückkosten bei höherer Produktionsmenge (Datennutzung, Telefonminuten, SMS aber insbesondere auch stärkere Callcenter-Nutzung zur Kundenbetreuung) berücksichtigen. Langfristige Entscheidungen zu Kostenstrukturen können Wettbewerbsvorteile schaffen: Betrachtet man einige erfolgreiche digitale Plattform-Geschäftsmodelle wie Google, Facebook, Airbnb, Whats- App, Uber oder Alibaba, so basieren alle auch auf strategischen Entscheidungen zu extrem hohen Fixkosten. Die damit relativ geringeren variablen Kosten mit Grenzkosten nahe Null schaffen so Wettbewerbsvorteile gegenüber Konkurrenten (Ellison und Ellison 2005, Lambrecht et al. 2014, Probst et al. 2015, de Jong und van Dijk 2015). Künftige Kosten können immer als entscheidungsrelevante Opportunitätskosten betrachtet werden. Diese sind mit der Umsetzung einer bestimmten Strategie verbunden und berücksichtigen die entgangenen Möglichkeiten der besten alternativen Strategie und werden daher zur Planung, in Entscheidungsrechnungen und in Business Cases herangezogen. Opportunitätskosten entstehen bspw., wenn für ein internes Innovationsprojekt zum Aufbau von Neugeschäft die besten Mitarbeiter aus anderen Bereichen abgezogen werden - der damit verbundene Rückgang an Erlösen im Bestandsgeschäft stellt dann Opportunitätskosten dar. In gleicher Weise sind die Kosten für große Meetings oder Offsites in Unternehmen (bei denen <?page no="237"?> Kostenfunktion, Entscheidungen und Wettbewerbsfähigkeit 237 die meisten Teilnehmer nur zuhören oder sich anderweitig beschäftigten) Opportunitätskosten - die Menschen könnten stattdessen arbeiten (Rogelberg et al. 2007). Damit sind die aus historischen Daten per Regression ermittelten Kostenfunktionen natürlich nur dann für künftige Entscheidungen verwendbar, wenn sie strukturell auch zukünftig gelten. Fixkosten, Sunk Costs und variable Kosten Die zukünftigen Kosten eines Unternehmens können anhand von Fixkosten und variablen Kosten beschrieben werden. Fixkosten ( 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 Fixed Costs) sind Kosten, die kurzfristig von der Produktionsmenge unabhängig sind, d.h. alle Kosten der kurzfristig fixen Einsatzfaktoren des Unternehmens. Näherungsweise können Fixkosten mit den Kosten für den Einsatzfaktor Kapital gleichgesetzt werden. Fixkosten können nur durch Aufgabe der Produktion und Schließung des Unternehmens verändert oder beseitigt werden, sie sind relevant für langfristige Entscheidungen, kurzfristig aber entscheidungsirrelevant: Für die Deutsche Bahn stellen die Kosten der Aufrechterhaltung des Schienennetzes im Wesentlichen Fixkosten dar, unabhängig von der kurzfristigen Zahl der Züge oder Passagiere, und sollten daher bspw. für die kurzfristige Planung von Managern unberücksichtigt bleiben. Fixkosten können gleichzeitig Sunk Costs sein: Sunk Costs basieren auf in der Vergangenheit begründeten Kosten, die mit einer Entscheidung für einen Markteintritt oder für eine bestimmte Technologie verbunden sind, und die bei einem Marktaustritt oder der Aufgabe der Technologie nicht zurückgewonnen werden können. Dies gilt bspw. bei unternehmens- oder industriespezifischen Marketinginvestitionen zur Etablierung einer Mobilfunkmarke oder pfadabhängigen Forschungs- und Entwicklungsaufwendungen für ein Medikament.  Case Study | Pharmaunternehmen und spezifische F&E-Investitionen Betrachtet man ein Pharmaunternehmen und dessen Investitionsentscheidung, so wird die Rolle von Sunk Costs deutlich. Das Unternehmen hatte für ein neues Medikament ursprünglich mit möglichen Erlösen von 20 Mrd. EUR und F&E-Aufwendungen von 15 Mrd. EUR gerechnet. Jetzt kommt ein Wettbewerber mit einem Konkurrenzprodukt auf den Markt und die Erlösprognose wird durch die Marketingabteilung auf 5 Mrd. EUR korrigiert, mittlerweile sind allerdings 12 Mrd. EUR in F&E investiert worden - was sollte das Unternehmen nun tun? Die Entscheidung muss lauten: Fortführung der F&E-Investitionen. Denn nur künftige Erlöse und Kosten sind entscheidungsrelevant, d.h., die jetzt noch möglichen 5 Mrd. EUR an Erlösen abzüglich 3 Mrd. EUR zusätzlicher Kosten versprechen einen Gewinn von 2 Mrd. EUR, unabhängig von den bereits investierten 12 Mrd. EUR, die irreversible Sunk Costs darstellen. In derartigen Fällen liegen irreversible Vergangenheitskosten vor, die zukünftig zwar entscheidungsirrelevant sind, aber maßgeblich die Entscheidungsspielräume eines Unternehmens einschränken und das Unternehmen auf eine bestimmte Strategie festlegen („Commitment“) und indirekt die Marktstruktur beeinflussen (Sutton 1991, Münter 1999, Manez 2009 und Sibony et al. 2017). Als weiteres Beispiel kann die Marketingkampagne für die ursprünglich geplante Eröffnung des Flughafens BER in Berlin im Jahr 2011 dienen. Die Ausgaben wa- <?page no="238"?> Kosten, Restrukturierung und M&A 238 ren zum einen Fixkosten, d.h. unabhängig von der Zahl der abgefertigten Passagiere, zum anderen sind sie aufgrund der abgesagten Eröffnung des Flughafens entscheidungsirrelevant für die nachfolgend geplanten Eröffnungstermine seit 2012 - die Ausgaben sind unwiederbringlich verloren und für künftige Entscheidungen nicht maßgeblich. Hier setzt allerdings bei zahlreichen Managern ein Sunk-Cost-Denkfehler ein: Man versucht - insbesondere aufgrund der hohen bisherigen Kosten - durch weitere Investitionen bisherige Fehlentscheidungen zu rechtfertigen, anstatt eine vollständig neue Alternative zu entwickeln oder nur künftige Kosten und Erlöse zu betrachten (Arkes und Blumer 1985, Pararye 1995, Reinstein et al. 2017, Roeder 2017 sowie ► Kapitel 3). Fixkosten und Sunk Costs sind teilweise exogen durch industriespezifische Gegebenheiten, Gesetzgebung und wettbewerbspolitische Regulierung oder Technologie vorgegeben, aber Unternehmen können auch aktiv über deren Höhe entscheiden. Gerade durch Forschungs- und Entwicklungsund/ oder Marketinginvestitionen werden wesentlich endogene Sunk Costs mit dem Ziel verursacht, Eintrittsbarrieren, Produktdifferenzierung oder Wettbewerbsvorteile aufzubauen, um auf diese Weise Marktstruktur und Wettbewerbssituation zu beeinflussen (► Kapitel 4). Variable Kosten ( 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 Variable Costs) sind Kosten, die kurzfristig von Kostentreibern wie Produktionsmenge, Kundenzahl, Anzahl an Lieferungen oder Zahl an Projekten abhängen, d.h. alle Kosten der kurzfristig variablen Einsatzfaktoren der Produktion. In Abhängigkeit vom Zeithorizont können hier stark vereinfachend bspw. alle Kosten für Arbeit, für Material oder Vertriebsprovisionen bedingt durch die Produktionsmenge zusammengefasst werden. Diese sind kurzfristig entscheidungsrelevant, bspw. für die Anpassung der Zuordnung von Mitarbeitern zu Fertigungslinien oder zur Steuerung einer Marketingkampagne. Die kurzfristigen Gesamtkosten ( 𝑇𝑇𝑇𝑇𝐸𝐸𝐸𝐸 Total Costs) eines Unternehmens ergeben sich dann als (6.1) 𝑇𝑇𝑇𝑇𝐸𝐸𝐸𝐸 = 𝑇𝑇𝑇𝑇𝐸𝐸𝐸𝐸(𝑞𝑞𝑞𝑞, 𝐸𝐸𝐸𝐸, 𝐿𝐿𝐿𝐿) = 𝐹𝐹𝐹𝐹𝐸𝐸𝐸𝐸 + 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 aus der Summe der fixen und der variablen Kosten. Die Grenzkosten ( 𝑀𝑀𝑀𝑀𝐸𝐸𝐸𝐸 Marginal Costs) entsprechen der Veränderung der Gesamtkosten infolge einer marginalen Veränderung der Produktionsmenge oder anderer Kostentreiber. Die Höhe der Grenzkosten unterscheidet sich industriespezifisch sehr stark. Ist die Kapitalausstattung oder die Kapazität nicht vollständig ausgelastet, dann verursacht eine weitere Suchanfrage bei Google oder eine weitere Telefonminute bei Telefonica nahezu keine zusätzlichen Kosten, d.h. die Grenzkosten sind nahezu Null. Ein zusätzliches Fahrzeug bei BMW oder die Produktion eines zusätzlichen Smartphones bei Samsung erhöht dagegen aber spürbar die Gesamtkosten, d.h. die Grenzkosten sind deutlich positiv. Allerdings sind die Grenzkosten auch vom Geschäftsmodell abhängig: Die Grenzkosten eines Exemplars der Bild-Zeitung in gedruckter und in digitaler Form unterscheiden sich aufgrund von Druckkosten, Distribution und Logistik deutlich. Mathematisch werden die Grenzkosten durch Ableitung der Gesamtkostenfunktion (6.2) 𝑀𝑀𝑀𝑀𝐸𝐸𝐸𝐸 = ∆𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 ∆𝑞𝑞𝑞𝑞 für ∆→ 0: 𝑀𝑀𝑀𝑀𝐸𝐸𝐸𝐸 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 nach der Produktionsmenge ermittelt. Bezieht man die so definierten Kosten auf die Produktionsmenge, so ergeben sich mit (6.3) <?page no="239"?> Kostenfunktion, Entscheidungen und Wettbewerbsfähigkeit 239 (6.3) 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 , 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 = 𝑉𝑉𝑉𝑉𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 , 𝐴𝐴𝐴𝐴𝐹𝐹𝐹𝐹𝑇𝑇𝑇𝑇 = 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 die totalen Durchschnittskosten ( 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 Average Total Costs, oftmals auch als Stückkosten bezeichnet), die variablen Durchschnittskosten ( 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 Average Variable Costs) und die durchschnittlichen Fixkosten ( 𝐴𝐴𝐴𝐴𝐹𝐹𝐹𝐹𝑇𝑇𝑇𝑇 Average Fixed Costs). Dabei gilt offensichtlich, dass die totalen Durchschnittskosten sich als (6.4) 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 = 𝑉𝑉𝑉𝑉𝐶𝐶𝐶𝐶+𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 + 𝐴𝐴𝐴𝐴𝐹𝐹𝐹𝐹𝑇𝑇𝑇𝑇 darstellen lassen. Empirische Ermittlung von Kostenkurven und Kostenfunktion Kostenkurven oder Kostenfunktionen einzelner Unternehmen werden - prinzipiell in ähnlicher Vorgehensweise wie bei Produktionsfunktionen - durch Regressionen über empirische Kostenstrukturen aus aufbereiteten Daten der Gewinn- und Verlustrechnung oder Bilanz sowie Zeiträume ermittelt oder rekonstruiert. In ► Abbildung 6.1 links sind Produktionsmenge 𝑞𝑞𝑞𝑞 und Gesamtkosten 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 über den Zeitraum 2002 bis 2010 zu erkennen, die auf den ersten Blick kein Muster vermuten lassen. In ► Abbildung 6.1 rechts sind die gleichen Daten mit mikroökonomischem Blick betrachtet. Es ist eine Gesamtkostenfunktion abgebildet, die über den Zeitraum 2002 bis 2010 den Zusammenhang zwischen Produktionsmenge 𝑞𝑞𝑞𝑞 und Gesamtkosten 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 aufzeigt: Oft beobachtet man nichtlineare S-förmige Gesamtkostenverläufe mit zunächst unterproportional, dann überproportional steigenden Gesamtkosten. Die Ursache für kurzfristig nichtlineare Kostenverläufe liegt in der Produktion. Weist die Produktionsfunktion bei konstanten Faktorpreisen eine Abfolge von zunehmenden und dann abnehmenden Grenzprodukten auf, dann steigen die Gesamtkosten erst unter-, dann überproportional. Abbildung 6.1: Empirische Ermittlung der Kostenfunktion. Natürlich hat jede empirische Kostenfunktion zahlreiche Kostentreiber: Neben der Produktionsmenge 𝑞𝑞𝑞𝑞 insbesondere die Einsatzmengen an Kapital 𝐸𝐸𝐸𝐸 und die Zahl der Mitarbeiter 𝐿𝐿𝐿𝐿 TC Produktionsmenge q q 2001 q 2002 q 2003 q 2004 q 2005 q 2006 q 2007 q 2008 q 2009 q 2010 unterproportionaler Anstieg der Gesamtkosten überproportionaler Anstieg der Gesamtkosten TC, FC, VC Produktionsmenge q FC VC TC q 2001 q 2002 q 2003 q 2004 q 2005 q 2006 q 2007 q 2008 q 2009 q 2010 <?page no="240"?> Kosten, Restrukturierung und M&A 240 sowie deren jeweilige Faktorpreise, den Lohnsatz 𝐻𝐻𝐻𝐻 und den gewichteten Eigen- und Fremdkapitalkostensatz 𝑟𝑟𝑟𝑟 . Allerdings kann alleine über den in ► Abbildung 6.1 beschriebenen abstrakten Zusammenhang zwischen Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 und Produktionsmenge 𝑞𝑞𝑞𝑞 unmittelbar die Kostensituation jedes Unternehmens analysiert werden.  Case Study | Ermittlung der Kostenfunktion eines Turbinenherstellers Betrachtet man wieder den Turbinenhersteller aus ► Kapitel 5, so ist in ► Abbildung 6.2 links oben unmittelbar der enge Zusammenhang zwischen Produktionsmenge und Gesamtkosten zu erkennen. Durch Division der Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 mit der Produktionsmenge 𝑞𝑞𝑞𝑞 ergeben sich hier die durchschnittlichen Gesamtkosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 , wie in ► Abbildung 6.2 oben rechts zu sehen, bei etwa 140.000 liegen und im Zeitablauf relativ konstant sind. Abbildung 6.2: Produktion, Gesamtkosten und durchschnittliche Gesamtkosten als Bestandteile der Kostenfunktion (oben) und Regressionsanalyse der Gesamtkosten (unten). Die Gesamtkostenfunktion 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) als Funktion der Produktionsmenge kann dann durch eine Regression der Gesamtkosten auf die Produktionsmenge empirisch geschätzt werden. In ► Abbildung 6.2 sind zwei Fälle skizziert. Der linke untere lineare Fall ist offensichtlich, trotzt relativ hohem Signifikanzniveau, nicht plausibel: Die Fixkosten wären negativ - der rechte untere Fall einer nichtlinearen Gesamtkostenfunktion ist dagegen typisch. Produktion q und Gesamtkosten TC durchschnittliche Gesamtkosten ATC lineare Regression nicht lineare Regression 0 500 1000 1500 2000 2500 3000 3500 4000 0 100000000 200000000 300000000 400000000 500000000 600000000 q1/ 2004 q3/ 2004 q1/ 2005 q2/ 2005 q4/ 2005 q1/ 2006 q3/ 2006 q1/ 2007 q2/ 2007 q4/ 2007 q1/ 2008 q3/ 2008 q1/ 2009 TC q TC q 50000 70000 90000 110000 130000 150000 170000 190000 ATC TC = 1 40.257,87 q - 4.061 .801 ,55 R² = 0,94 300000000 350000000 400000000 450000000 500000000 550000000 2200 2400 2600 2800 3000 3200 3400 3600 TC Linear (TC) q TC TC = 32,88 q2 - 31.255,40 q + 217.711.520,48 R² = 0,97 300000000 350000000 400000000 450000000 500000000 550000000 2200 2400 2600 2800 3000 3200 3400 3600 TC Poly. (TC) TC q <?page no="241"?> Kurzfristige Entscheidungen: Fixkosten und Grenzkosten 241 Analysiert man nun die Kostensituation des Turbinenherstellers anhand dieser ökonometrisch geschätzten Gesamtkostenfunktion von (6.5) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) = 𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 + 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 𝜓𝜓𝜓𝜓 1 𝑞𝑞𝑞𝑞 2 + 𝜓𝜓𝜓𝜓 2 𝑞𝑞𝑞𝑞 + 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = = 32,88𝑞𝑞𝑞𝑞 2 − 31.255,40𝑞𝑞𝑞𝑞 + 217.711.520,48 , so ergeben sich für die betrachtete Bandbreite der Produktionsmenge von ca. 2.200 bis 3.600 Stück Fixkosten 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 in Höhe von etwa 218 Mio. EUR, die variablen Kosten sind mit 𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 = 32,88𝑞𝑞𝑞𝑞 2 − 31.255,40𝑞𝑞𝑞𝑞 nicht konstant und hängen von der Produktionsmenge 𝑞𝑞𝑞𝑞 ab und die Grenzkosten ergeben sich als 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 65,76𝑞𝑞𝑞𝑞 − 31.255,40 und variieren ebenfalls mit der Produktionsmenge. Damit sind allerdings auch die durchschnittlichen variablen Kosten nicht konstant, wie aus 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶/ 𝑞𝑞𝑞𝑞 = 32,88𝑞𝑞𝑞𝑞 − 31.255,40 zu erkennen ist. Bei einer Ausweitung der Produktionsmenge steigen für dieses Unternehmen die Stückkosten an - entgegen der in Unternehmen oft in Business Cases und Planungsrechnungen zu beobachtenden Annahme konstanter Stückkosten. Verwendet man frei zugängliche Daten von Wettbewerbern, so können mittels einfacher ökonometrischer Verfahren wie Regressionsanalysen auch deren Gesamtkostenfunktionen sowie zugehörige Fixkosten, variable Kosten und Grenzkosten zumindest annähernd ermittelt werden. Die zentrale Bedeutung der Grenzkosten für Entscheidungen im strategischen Wettbewerb und der Analyse der Wettbewerber wird in ► Kapitel 10 betrachtet. 6.2 Kurzfristige Entscheidungen: Fixkosten und Grenzkosten Kurzfristig kann die Produktionsmenge bei gegebener Kapitalausstattung durch Veränderung des Arbeitseinsatzes verändert werden. Für Manager ist wesentlich, die kurzfristig entscheidungsrelevanten variablen Kosten zu identifizieren und daneben die Veränderung der Gesamtkosten - die Grenzkosten - bei einer Veränderung der Produktionsmenge abschätzen zu können. Die kurzfristige Analyse konzentriert sich daher bspw. auf die Frage, wie sich die Gesamtkosten verändern, wenn bei gegebener Kapitalausstattung  kurzfristige Anpassungen der Produktionsmenge (in Abhängigkeit des Grenzproduktes der Arbeit) vorgenommen werden oder  eine Entscheidung zur Zuordnung der Produktion auf Fabriken mit unterschiedlichen Kostenfunktionen erfolgen kann. Um mögliche Entscheidungen in kurzfristiger Perspektive zu betrachten und herauszuarbeiten ist in ► Tabelle 6.1 die Kostensituation eines Unternehmens beispielhaft dargestellt. <?page no="242"?> Kosten, Restrukturierung und M&A 242 Kurzfristige Kostenstruktur Produktionsmenge (1) Fixkosten (2) variable Kosten (3) Gesamtkosten (4) Grenzkosten (5) durchschnittliche Gesamtkosten (6) durchschnittliche variable Kosten (7) durchschnittliche Fixkosten (8) q FC VC TC MC ATC=TC/ q AVC=VC/ q AFC=FC/ q 1 1000 620 1620 620 1620 620 1000 2 1000 920 1920 300 960 460 500 3 1000 1020 2020 100 673 340 333,33 4 1000 1080 2080 60 520 270 250 5 1000 1200 2200 120 440 240 200 6 1000 1440 2440 240 407 240 166,67 7 1000 1847 2847 407 407 264 142,86 8 1000 2527 3527 680 441 316 125 9 1000 3627 4627 1100 514 403 111,11 10 1000 5427 6427 1800 643 543 100 Tabelle 6.1: Kurzfristige Kostenstruktur (ATC, AVC und AFC teilweise gerundet). Das Unternehmen hat für eine Produktionsmenge von 1 bis 10 Fixkosten in Höhe von 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 1000 und aufgrund der nichtlinear ansteigenden variablen Kosten (3) auch einen nichtlinearen Gesamtkostenanstieg (4) - die Gesamtkostenkurve verläuft wie in ► Abbildung 6.3 links oben zu erkennen S-förmig. Ermittelt man anhand der Gleichungen (6.2) und (6.3) die Grenz- und Durchschnittskosten, so ergibt sich bspw. (6.6) 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = ∆𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 ∆𝑞𝑞𝑞𝑞 = 2440−2200 6−5 = 240 , das heißt ein Anstieg der Gesamtkosten um 240, wenn die Produktionsmenge von 5 auf 6 erhöht wird, sowie totale Durchschnittskosten bei einer Produktionsmenge 𝑞𝑞𝑞𝑞 = 5 von (6.7) 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑞𝑞𝑞𝑞 = 2200 5 = 440 . Betrachtet man in ► Tabelle 6.1 die Grenzkosten (5) sowie die variablen (7) und totalen Durchschnittskosten (6), so ist mit steigender Produktionsmenge jeweils ein Rückgang und nachfolgend einen Anstieg zu beobachten. Offensichtlich sind U-förmige Kostenverläufe. Die durchschnittlichen Fixkosten (8) gehen dagegen mit zunehmender Produktionsmenge kontinuierlich zurück (Fixkostendegression). <?page no="243"?> Kurzfristige Entscheidungen: Fixkosten und Grenzkosten 243 Um zum einen detaillierten und analytischen Blick auf die kurzfristige Kostenstruktur zu gewinnen, zum anderen aber auch die typische Vorgehensweise anhand von realen Unternehmensdaten zu zeigen, sind die Daten der Produktionsmenge (1) und der Gesamtkosten (4) mittels Regressionsanalyse überprüft. Es ergibt sich als Schätzgleichung (6.8) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 + 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 16,432𝑞𝑞𝑞𝑞 3 − 185,95𝑞𝑞𝑞𝑞 2 + 751,61𝑞𝑞𝑞𝑞 + 1025,30 mit deutlich nichtlinearen variablen Kosten 𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 = 16,432𝑞𝑞𝑞𝑞 3 − 185,95𝑞𝑞𝑞𝑞 2 + 751,61𝑞𝑞𝑞𝑞 und Fixkosten 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 1025,30 bei einem einfachen Bestimmtheitsmaß von 𝑅𝑅𝑅𝑅 2 = 0,99 . Offenbar werden durch die Regression die Fixkosten (die ja tatsächlich 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 1000 betragen) mit 1025,30 knapp überschätzt, dennoch bildet die Regressionslinie, in Abbildung 6.3 links oben, die empirischen Daten hinreichend ab. Abbildung 6.3: Regressionsanalyse der kurzfristigen Kostenstruktur aus Tabelle 6.1. Zur Analyse der Daten kann man auf Basis von Gleichung (6.8) nun zwei Wege gehen: Man kann über (6.2) die Grenzkosten (6.9) 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 49,296𝑞𝑞𝑞𝑞 2 − 371,90𝑞𝑞𝑞𝑞 + 751,61 ermitteln sowie über (6.3) die Durchschnittskosten als (6.10) 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝑞𝑞𝑞𝑞 = 16,432𝑞𝑞𝑞𝑞 2 − 185,95𝑞𝑞𝑞𝑞 + 751,61 + 1025,30 𝑞𝑞𝑞𝑞 und (6.11) 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 = 𝑉𝑉𝑉𝑉𝑇𝑇𝑇𝑇 𝑞𝑞𝑞𝑞 = 16,432𝑞𝑞𝑞𝑞 2 − 185,95𝑞𝑞𝑞𝑞 + 751,61 . Aufgrund der quadratischen Terme verlaufen offensichtlich alle Kostenkurven (6.9) bis (6.10) Uförmig. Setzt man nun Gleichungen (6.9) und (6.10) resp. Gleichungen (6.9) und (6.11) gleich, so erhält man, dass die Grenzkosten identisch mit den totalen Durchschnittskosten für 𝑞𝑞𝑞𝑞 𝑀𝑀𝑀𝑀𝑇𝑇𝑇𝑇=𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 7 sowie Grenzkosten identisch mit den variablen Durchschnittskosten bei 𝑞𝑞𝑞𝑞 𝑀𝑀𝑀𝑀𝑇𝑇𝑇𝑇=𝐴𝐴𝐴𝐴𝑉𝑉𝑉𝑉𝑇𝑇𝑇𝑇 = 6 sind. Beide 0 200 400 600 800 1000 1200 1400 1600 1800 2000 0 2 4 6 8 10 12 MC 0 200 400 600 800 1000 1200 1400 1600 1800 2000 0 2 4 6 8 10 12 ATC AVC 0 200 400 600 800 1000 1200 1400 1600 1800 2000 0 2 4 6 8 10 12 MC ATC AVC y = 16,432x 3 - 185,95x 2 + 751,61x + 1025,3 R² = 0,9993 0 1000 2000 3000 4000 5000 6000 7000 0 2 4 6 8 10 12 TC Poly. (TC) <?page no="244"?> Kosten, Restrukturierung und M&A 244 Werte sind in ► Abbildung 6.3 rechts unten eingezeichnet. Bis zu diesen Werten liegen die Grenzkosten unter den variablen bzw. totalen Durchschnittskosten, danach darüber. Die dahinterliegende ökonomische Begründung erfolgt analog zum Zusammenhang von Produktivität und Grenzprodukten: Sind die Grenzkosten kleiner als die Durchschnittskosten, dann führt eine Ausweitung der Produktion zu einem unterproportionalen Anstieg der Gesamtkosten und zu einem Rückgang der Durchschnittskosten et vice versa. Abbildung 6.4: Grenzkosten, Durchschnittskosten und Wettbewerbsfähigkeit. Ein Vergleich der Grenzkosten mit den Durchschnittskosten, wie in ► Abbildung 6.4 gezeigt, ermöglicht aus Managementperspektive eine unmittelbare Entscheidbarkeit: Liegen die Grenzkosten unter den Durchschnittskosten, dann führt eine Erhöhung der Produktion zu einer Reduktion der Durchschnittskosten und einer kurzfristig realisierbaren Erhöhung der Wettbewerbsfähigkeit eines Unternehmens - eine Ausweitung der Produktion bei gegebenen Preisen erhöht unmittelbar den Gewinn (vgl. auch ► Kapitel 7 zu Entscheidungen über die Produktionsmenge auf Basis der Grenzkosten). Kostenminimierung und Standortplanung bei gegebener Produktionshöhe Neben der Analyse, ob eine Veränderung der Produktionsmenge die Wettbewerbsfähigkeit erhöht, müssen Unternehmen entscheiden, an welchen Standorten oder in welchen Fertigungslinien welche Produktionsmengen realisiert werden sollen - das gilt bspw. für Automobilhersteller und deren internationale Werke wie auch für Callcenter-Betreiber und deren Zuordnung von Mitarbeitern zu Service-Lines. Sind die hergestellten Produkte oder Dienstleistungen identisch, dann reduziert sich das Ziel auf eine Minimierung der Gesamtkosten bei vorgegebener Produktionsmenge, die durch die Nachfrageseite, langfristige Lieferverträge oder Service Level Agreements festgelegt ist. MC<AVC: kurzfristige Wettbewerbsfähigkeit steigt bei Ausweitung der Produktionsmenge MC>AVC: kurzfristige Wettbewerbsfähigkeit sinkt bei Ausweitung der Produktionsmenge MC, ATC, AVC q 0 MC AVC ATC minimale AVC minimale ATC <?page no="245"?> Kurzfristige Entscheidungen: Fixkosten und Grenzkosten 245 Typisch sind Situationen, in denen eine bestimmte Produktionsmenge (6.12) 𝑞𝑞𝑞𝑞 = 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 + 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 = 𝑓𝑓𝑓𝑓𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 fest vereinbart ist, die allerdings in zwei Fabriken A oder B mit den jeweiligen Produktionsmengen 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 und 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 hergestellt werden kann. Das Ziel des Managements ist dann eine kurzfristige Minimierung der Gesamtkosten durch (6.13) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 + 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝑆𝑆𝑆𝑆! die Wahl der jeweiligen Produktionsmengen 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 und 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 . Dieses Problem einer Optimierung der Zielfunktion unter einer Nebenbedingung kann man anhand einer Lagrange- Funktion lösen. Die Lagrange-Funktion ist nicht beschränkt auf nur eine Nebenbedingung oder zwei Produktionsstandorte (und ist zudem bspw. als Solver in Excel hinterlegt) und lässt sich formulieren als (6.14) 𝑍𝑍𝑍𝑍 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 + 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 + 𝜆𝜆𝜆𝜆(𝑞𝑞𝑞𝑞 − 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 − 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 ) → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝑆𝑆𝑆𝑆! D.h., die Lagrange-Funktion kombiniert die Zielfunktion 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 + 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝑆𝑆𝑆𝑆! mit der Nebenbedingung 𝑞𝑞𝑞𝑞 = 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 + 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 unter Verwendung des Lagrange-Multiplikators 𝜆𝜆𝜆𝜆 . Die Lagrange- Funktion wird allgemein optimiert, indem man nach den Kontrollvariablen - das sind die durch das Management beeinflussbaren Größen und in diesem Fall die Produktionsmengen 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 und 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 - sowie dem Langrange-Multiplikator 𝜆𝜆𝜆𝜆 ableitet, so dass sich (6.15) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝐴𝐴𝐴𝐴 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 − 𝜆𝜆𝜆𝜆 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 − 𝜆𝜆𝜆𝜆 = 0 und 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 = 𝜆𝜆𝜆𝜆 (6.16) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝐵𝐵𝐵𝐵 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 − 𝜆𝜆𝜆𝜆 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 − 𝜆𝜆𝜆𝜆 = 0 und 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 = 𝜆𝜆𝜆𝜆 und (6.17) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 = 𝑞𝑞𝑞𝑞 − 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 − 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 = 0 gleichbedeutend mit 𝑞𝑞𝑞𝑞 = 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 + 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 ergibt. Aus (6.15) und (6.16) folgt, dass der Lagrange-Multiplikator den Grenzkosten entspricht und bei Auflösen nach 𝜆𝜆𝜆𝜆 unmittelbar 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 folgt - d.h., ein Unternehmen optimiert die Gesamtkosten über zwei (oder mehr) Fabriken hinweg genau dann, wenn die Grenzkosten in den Fabriken gleich groß sind (vgl. in ► Kapitel 5 das Gleichsetzen der Grenzprodukte in zwei Bankfilialen zur Maximierung der Produktionsmenge).  Case Study | Standortplanung eines Automobilzulieferers Ein Automobilzulieferer steht vor der Entscheidung, wie die geplante Gesamtproduktion 𝑞𝑞𝑞𝑞 = 32.000 kurzfristig zwischen zwei Fabriken mit unterschiedlichen Kostenfunktionen aufgeteilt werden soll. Die Kostenfunktionen an den beiden Standorten 𝐴𝐴𝐴𝐴 und 𝐵𝐵𝐵𝐵 sind durch (6.18) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 = 0,6𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴2 + 16.000.000 und 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 = 0,2𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵2 + 24.000 .000 gegeben, die Nebenbedingung ist (6.19) 𝑞𝑞𝑞𝑞 = 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 + 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 = 32.000 . Um die Entscheidung zu treffen, wird die Lagrange-Funktion als (6.20) 𝑍𝑍𝑍𝑍 = 0,6𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴2 + 16.000.000 + 0,2𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵2 + 24.000.000 + <?page no="246"?> Kosten, Restrukturierung und M&A 246 𝜆𝜆𝜆𝜆(32.000 − 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 − 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 ) → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻! formuliert. Leitet man nun (6.20) nach den Kontrollvariablen 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 und 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 ab, so ergibt sich (6.21) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐴𝐴𝐴𝐴 = 1,2𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 − 𝜆𝜆𝜆𝜆 = 0 mit 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 = 1,2𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 (6.22) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞𝐵𝐵𝐵𝐵 = 0,4𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 − 𝜆𝜆𝜆𝜆 = 0 mit 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 = 0,4𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 sowie (6.23) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 = 32.000 − 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 − 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 = 0 . Setzt man nun 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 mit 1,2𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 = 0,4𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 gleich, so ergibt sich unter Verwendung von (6.23), dass die Produktionsmenge in Fabrik A gleich 𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴 = 8.000 und 𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵 = 24.000 betragen muss, um die Kosten zu minimieren, die dann (6.24) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴 + 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝐵𝐵𝐵𝐵 = (0,6𝑞𝑞𝑞𝑞 𝐴𝐴𝐴𝐴2 + 16.000.000) + (0,2𝑞𝑞𝑞𝑞 𝐵𝐵𝐵𝐵2 + 24.000.000) = 193.600.000 betragen. Ein einfacher Vergleich in ► Tabelle 6.2 zeigt: Wäre die Produktion zu gleichen Teilen in beide Fabriken aufgeteilt, betragen die Gesamtkosten 245 Mio. - ein Einsparpotenzial von 51 Mio. oder ca. 26 % im Vergleich zur optimierten Kostenstruktur auf Basis der Lagrange-Funktion. Produktionsentscheidungen und relativer Kostenvorteil Strategie Produktionsmenge Fixkosten FC in Mio. variable Kosten VC in Mio. TC in Mio. TC in Mio. Kostennachteil Grenzkosten MC totale Durchschnittskosten ATC Grenzkosten gleichsetzen Fabrik A 8.000 16 38 54 194 0 % 9.600 6.800 Fabrik B 24.000 24 115 139 9.600 5.800 50 % / 50 % Aufteilung Fabrik A 16.000 16 154 170 245 26 % 19.200 10.600 Fabrik B 16.000 24 51 75 6.400 4.700 Durchschnittskosten gleichsetzen Fabrik A 3.799 16 9 25 208 7 % 4.558,8 6.490 Fabrik B 28.201 24 159 183 11.280,4 6.490 Tabelle 6.2: Strategien betreffend Produktionsmengen und relativer Kostenvorteil. Auch eine Aufteilung nach der Heuristik „Durchschnittskosten gleichsetzen“ - regelmäßig zu beobachten in Unternehmen (siehe auch ► Kapitel 5 zur Zuordnung von Mitarbeitern in Filialen) - verursacht höhere Kosten: Selbst bei den in diesem Beispiel vergleichsweise geringen Grenzkostenunterschieden und relativ hohen Fixkostenblöcken beträgt der Kostennachteil 16 Mio. oder ca. 7 %. <?page no="247"?> Langfristige Entscheidungen: Anpassung der Kostenstruktur 247 6.3 Langfristige Entscheidungen: Anpassung der Kostenstruktur Langfristig können alle Einsatzfaktoren angepasst werden. Die Analyse konzentriert sich daher bspw. auf Fragen, wie sich die Gesamtkosten verändern, wenn  eine langfristige und dauerhafte Veränderung der Produktionsmenge (in Abhängigkeit der Art der Skalenerträge) oder  eine dauerhafte Änderung der absoluten oder relativen Faktorpreise, typischerweise steigender Lohnsätzen, stattfindet. Damit werden Entscheidungen in den Blick genommen, welche die Kostenstruktur (und die Kapitalintensität) betreffen, Investition in dauerhafte Kapitalstöcke haben oder potenziell Sunk-Cost-Eigenschaften aufweisen. Alle diese Entscheidungen sind, neben dem auch langfristig geltenden Ziel der Kostenminimierung, geeignet, um die dauerhafte Wettbewerbsfähigkeit eines Unternehmens sicherzustellen oder zu erhöhen. Porter (1980) hat darauf aufbauend das Konzept der Kostenführerschaft in Industrien mit schwacher Produktdifferenzierung beschrieben. Zudem kann anhand absoluter oder relativer Kostenvorteile im internationalen Handel auch die Wechselwirkung zwischen der Wettbewerbsfähigkeit von Ländern einerseits und Unternehmen sowie Industrien andererseits erklärt werden (Dosi et al. 2015, Krugman 1996 und Porter 1990). Dabei ist die Bedeutung von „kurzfristig“ versus „langfristig“ wiederum von der Industrie und deren Kapitalintensität abhängig - kurzfristig ist der Zeitraum, in dem der Kapitaleinsatz nicht oder nur sehr kostspielig verändert werden kann (Levy 1994). Über Industrien hinweg können die Möglichkeiten, Kosten durch Prozessinnovation, Outsourcing oder Faktorsubstitution zu beeinflussen, stark differieren. Die langfristige Kostenfunktion eines Unternehmens ergibt sich aus der Addition der Kosten für Kapital 𝑟𝑟𝑟𝑟𝐸𝐸𝐸𝐸 , d.h. dem Kapitaleinsatz 𝐸𝐸𝐸𝐸 multipliziert mit dem Zinssatz 𝑟𝑟𝑟𝑟 , und den Kosten für Arbeit 𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 , d.h. dem Arbeitseinsatz 𝐻𝐻𝐻𝐻 multipliziert mit dem Lohnsatz 𝐻𝐻𝐻𝐻 , als (6.25) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑟𝑟𝑟𝑟𝐸𝐸𝐸𝐸 + 𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 mit 𝐸𝐸𝐸𝐸𝐶𝐶𝐶𝐶 = 𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻 und 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 𝑟𝑟𝑟𝑟𝐸𝐸𝐸𝐸 . Unternehmen müssen zur Optimierung der Kostenstruktur, bei gegebener Produktionshöhe oder -planung, langfristig insbesondere die Faktorpreise, d.h. Zinsen und Lohnsätze, in die Betrachtung einbeziehen. Veränderungen der Faktorpreise oder internationale Faktorpreisunterschiede führen dann zu einer Anpassung der Kostenstruktur: Die relativen Anteile von Arbeits- und Kapitalkosten werden angepasst. So hat der damalige Personalvorstand des Volkswagen Konzerns, Horst Neumann, in einem Interview 2015 die langfristig ausgerichtete Automatisierungsstrategie begründet, dass eine Mitarbeiter-Arbeitsstunde in Deutschland 40 EUR, in Osteuropa um 10 EUR, in China unter 10 EUR kostete - aber eine Roboter- Arbeitsstunde inklusive Instandhaltung und Energiekosten im Durchschnitt bei weniger als 6 EUR liegt (Focus Money 2015). Um langfristige Kostenentscheidungen zu betrachten, wird Gleichung (6.25) in ► Abbildung 6.4 übertragen. Bei gegebenen Faktorpreisen kann man die langfristigen Gesamtkosten als Isokostenlinie zeichnen (analog zur Budgetlinie in ► Kapitel 2). Die Isokostenlinie beschreibt für gegebene Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 alternativ mögliche Kombinationen der Einsatzfak- <?page no="248"?> Kosten, Restrukturierung und M&A 248 toren 𝐸𝐸𝐸𝐸 und 𝐿𝐿𝐿𝐿 bei gegebenen Faktorpreisen 𝐻𝐻𝐻𝐻 und 𝑟𝑟𝑟𝑟 . Die Schnittpunkte mit der Kapital- und Arbeitsachse geben die maximale Menge an Kapital- und Arbeitseinsatz an, wenn der andere Faktor nicht eingesetzt wird - d.h., dass das gesamte verfügbare Budget des Unternehmens nur für einen Einsatzfaktor verwendet wird. Die Steigung der Isokostenlinie wird durch die relativen Faktorpreise, das Lohn/ Zins-Verhältnis - 𝐻𝐻𝐻𝐻/ 𝑟𝑟𝑟𝑟 , bestimmt: Mit relativ steigendem Lohnsatz 𝐻𝐻𝐻𝐻 nimmt die Steigung der Isokostenlinie zu. Gleichzeitig kann aber durch Umstellen von (6.25) für 𝐿𝐿𝐿𝐿 0 = 0 zu (6.26) 𝐸𝐸𝐸𝐸 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 − 𝑤𝑤𝑤𝑤𝑝𝑝𝑝𝑝 𝐿𝐿𝐿𝐿 und 𝐸𝐸𝐸𝐸 0 = 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 durch den Achsenabschnitt 𝐸𝐸𝐸𝐸 0 auch das absolute Kostenniveau beschrieben werden. Abbildung 6.5: Isokostenlinie und maximaler Einsatz von Einsatzfaktoren. Betragen beispielweise für einen Produktionsbereich der als Cost Center geführt wird die aktuellen Faktorpreise für Arbeit 𝐻𝐻𝐻𝐻 = 12 und Kapital 𝑟𝑟𝑟𝑟 = 0,05 bei maximalen Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 240.000 , dann können, wie in ► Abbildung 6.5 rechts zu erkennen, maximal 20.000 Stunden Arbeit oder maximal 4,8 Mio. EUR Kapital finanziert werden, sowie alle Kombinationen aus Arbeit und Kapital auf oder unterhalb der Isokostenlinie. Wenn der Lohnsatz auf 𝐻𝐻𝐻𝐻 = 16 und der Kapitalkostensatz gleichzeitig auf 𝑟𝑟𝑟𝑟 = 0,08 bei gleichbleibendem Budget in Höhe der Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 240.000 steigt, dann geht offensichtlich die maximale Menge an Kapital und Arbeit zurück. Zudem ändert sich das Lohn-Zins-Verhältnis von − 𝑤𝑤𝑤𝑤0 𝑝𝑝𝑝𝑝0 = −240 auf − 𝑤𝑤𝑤𝑤1 𝑝𝑝𝑝𝑝1 = −200 und die Isokostenlinie verläuft aufgrund des relativ stärkeren Anstiegs des Zinses jetzt flacher. Bringt man die Überlegungen von Produktion (aus ► Kapitel 5) und Kosten zusammen und fügt in ► Abbildung 6.5 Isoquanten und Indifferenzkurven ein, wird unmittelbar klar, dass nachfolgend eines Anstiegs der Faktorpreise bei konstantem Budget die Produktion zurückgehen muss. Kapital 0 Arbeit 0 0 r w − Isokostenlinie Kapital in mn. EUR Arbeit in h 0 4,8 3,0 20.000 15.000 q = F(K,L) w1,r1 q = F(K,L) w2,r2 - 12 / 0,05 = - 240 - 16 / 0,08 = - 200 K 0 = TC r 0 − w 0 r 0 L = TC r 0 L 0 = TC w 0 − r 0 w 0 K = TC w 0 <?page no="249"?> Langfristige Entscheidungen: Anpassung der Kostenstruktur 249 Abbildung 6.6: Grenzrate der technischen Substitution und Effizienz. In ► Abbildung 6.6 ist dieser Zusammenhang detailliert graphisch dargestellt. Verlaufen die Isoquanten konvex zum Ursprung, dann können zwei wesentliche Zusammenhänge abgeleitet werden. Zum einen kann es bei gegebenem Budget nur eine optimale, d.h. kostenminimierende Kombination von Kapital und Arbeit bei Punkt A geben, denn dieser liegt auf der niedrigsten Isokostenlinie. Zum anderen ist an diesem Punkt A die Steigung der Isokostenlinie gleich der Steigung der Isoquante - so dass allgemein die Bedingung langfristig kostenminimierender Produktion erfüllt ist, wenn das Faktorpreisverhältnis dem Verhältnis der Grenzprodukte der Einsatzfaktoren entspricht, d.h. der Grenzrate der technischen Substitution GRT . Punkt B wäre ineffizient, weil zum einen höhere Kosten verursacht werden (zu sehen an der höheren Isokostenlinie), zum anderen bei gegebenem Faktorpreisverhältnis der Faktor Arbeit zu viel, der Faktor Kapital zu wenig eingesetzt wird. Dieses Unternehmen kann die Effizienz steigern, indem anhand einer Restrukturierung mehr Kapital und weniger Arbeit eingesetzt wird - also Stellen reduziert werden und stärker in Automatisierung investiert wird. Allgemein können die Zusammenhänge aus ► Abbildung 6.5 und ► Abbildung 6.6 auch mathematisch beschrieben werden. Ist eine beliebige langfristige Produktionsfunktion mit (6.27) 𝑞𝑞𝑞𝑞 = 𝑇𝑇𝑇𝑇(𝐸𝐸𝐸𝐸, 𝐿𝐿𝐿𝐿) gegeben, dann kann man anhand des totalen Differentials (6.28) 𝑑𝑑𝑑𝑑𝑞𝑞𝑞𝑞 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝐸𝐸𝐸𝐸 𝑑𝑑𝑑𝑑𝐸𝐸𝐸𝐸 + 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿 𝑑𝑑𝑑𝑑𝐿𝐿𝐿𝐿 die Steigung entlang einer Isoquante, auf der 𝑑𝑑𝑑𝑑𝑞𝑞𝑞𝑞 = 0 gilt, als Grenzrate der technischen Substitution 𝐺𝐺𝐺𝐺𝑅𝑅𝑅𝑅𝑇𝑇𝑇𝑇 durch das Verhältnis (6.29) 𝐺𝐺𝐺𝐺𝑅𝑅𝑅𝑅𝑇𝑇𝑇𝑇 = − 𝑛𝑛𝑛𝑛𝐸𝐸𝐸𝐸 𝑛𝑛𝑛𝑛𝐿𝐿𝐿𝐿 = 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 = 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃𝜕𝜕𝜕𝜕 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃𝜕𝜕𝜕𝜕 beschreiben. Die Grenzrate der technischen Substitution beschreibt das aktuelle vorliegende Austauschverhältnis der Einsatzfaktoren gemessen durch die jeweiligen Grenzprodukte der Arbeit 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝐿𝐿𝐿𝐿 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿 und des Kapitals 𝑀𝑀𝑀𝑀𝑃𝑃𝑃𝑃 𝐸𝐸𝐸𝐸 = 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝐸𝐸𝐸𝐸 und misst, welche Veränderung des Kapitaleinsat- Kapital 0 Arbeit L K A B Kapital 0 Arbeit L 0 K 0 A B L 1 K 1 GRT = − ∆K ∆L = F L F K q = F(K, L) − wr q = F(K, L) TC 1 r TC 0 r TC 1 r TC 0 r <?page no="250"?> Kosten, Restrukturierung und M&A 250 zes 𝑑𝑑𝑑𝑑𝐸𝐸𝐸𝐸 notwendig ist, um bei einer Veränderung des Arbeitseinsatzes 𝑑𝑑𝑑𝑑𝐿𝐿𝐿𝐿 die Produktionsmenge konstant zu halten. Wie einfach diese Anpassung gelingt, hängt wiederum von der im Unternehmen verwendeten Technologie ab. Da bei effizienter und kostenminimierender Produktion die Steigung der Isokostenlinie - 𝐻𝐻𝐻𝐻/ 𝑟𝑟𝑟𝑟 gleich der Steigung der Isoquante 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 𝐿𝐿𝐿𝐿 / 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 𝐸𝐸𝐸𝐸 ist, entspricht wegen (6.30) − 𝑤𝑤𝑤𝑤𝑝𝑝𝑝𝑝 = 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝜕𝜕𝜕𝜕 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝜕𝜕𝜕𝜕 im Kostenminimum das Verhältnis der Grenzprodukte dem Verhältnis der Faktorpreise (► Kapitel 2 zu analogen Ergebnissen betreffend der Preisverhältnisse von Produkten und relativem Grenznutzen). Um diese langfristigen Anpassungsprozesse zu verdeutlich, werden im Folgenden zwei typische Beispiele betrachtet. Zunächst wird aus Managementperspektive analysiert, wie Unternehmen auf einen dauerhaften Rückgang der Nachfrage reagieren, danach werden die Reaktionsmöglichkeiten einer dauerhaften Erhöhung eines Faktorpreises, typischerweise des Lohnsatzes 𝐻𝐻𝐻𝐻 , betrachtet. Restrukturierung bei dauerhaftem Produktionsrückgang Regelmäßig müssen Unternehmen Maßnahmen zur Kostenoptimierung ergreifen, wenn die Nachfrage dauerhaft und langfristig zurückgeht. Osram als Hersteller von Leuchtmitteln war seit 2012 wiederholt von neuen Mindestanforderungen, Verboten und Einschränkungen im Vertrieb und der Produktion von konventionellen Glühbirnen betroffen, und hat in der Folge massiv Stellen abgebaut und Werke aufgegeben (Augsburger Allgemeine Zeitung 2015 und Handelsblatt 2017). In ähnlicher Weise sind Unternehmen wie Siemens und General Electric gezwungen, nachfolgend verschiedener nationaler und internationaler Vereinbarungen zur Energiewende und starkem Rückgang der Nachfrage nach Gas- und Dampfturbinen, Stellen abzubauen und das Unternehmen zu restrukturieren (Köhn 2017). Eine Restrukturierung beschreibt eine Neuorganisation des Unternehmens, in deren Umsetzung sowohl Kapital als auch Arbeit an die neuen Rahmenbedingungen angepasst werden: Oftmals verbunden mit dem Umbau des Geschäftsmodells, Standortverlagerungen oder neuen Eigentümern. Unternehmen müssen infolge eines dauerhaften Rückgangs der Nachfrage, bei konstanten Faktorpreisen, die Produktion reduzieren. Entsprechend dem Produktionsrückgang müssen die eingesetzten Mengen an Kapital und Arbeit reduziert werden, um die Kosten zu reduzieren sowie Effizienz herzustellen. Alternativ kann das Management versuchen, eine Reduktion der Faktorpreise durchzusetzen - bspw. durch Gehaltsverzicht bei den Mitarbeitern oder Neuverhandlung von Kreditkonditionen. Anhand von ► Abbildung 6.7 kann man erkennen, dass typischerweise kurzfristig die Zahl der Stellen reduziert wird, und bei anhaltendem Nachfragerückgang langfristig auch der Kapitaleinsatz (Eigen- und Fremdkapital) reduziert wird: <?page no="251"?> Langfristige Entscheidungen: Anpassung der Kostenstruktur 251  In der Ausgangsituation (1) produziert das Unternehmen mit einem Kapitaleinsatz 𝐸𝐸𝐸𝐸 0 und einem Arbeitseinsatz 𝐿𝐿𝐿𝐿 0 eine Produktionsmenge 𝑞𝑞𝑞𝑞 0 bei Gesamtkosten von 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 - die Produktion ist effizient, da die Isokostenlinie die Isoquante am Punkt 𝐴𝐴𝐴𝐴 tangiert.  Nachfolgend einem durch dauerhaften Nachfragerückgang ausgelösten Produktionsrückgang von 𝑞𝑞𝑞𝑞 0 auf 𝑞𝑞𝑞𝑞 1 (2) ist die Produktion nicht mehr effizient - die Isoquante 𝑞𝑞𝑞𝑞 1 schneidet die Isokostenlinie - und so wird typischerweise zu viel Kapital und Arbeit eingesetzt.  Kurzfristig kann der Kapitaleinsatz 𝐸𝐸𝐸𝐸 0 nicht reduziert werden, so dass die kurzfristige Reaktion des Unternehmens nur ein Stellenabbau auf 𝐿𝐿𝐿𝐿 0 ‘ ist (3) - tatsächlich sinken die Kosten zwar auf 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 ‘ , aber die Produktion ist ineffzient, da am Punkt 𝐴𝐴𝐴𝐴‘ die verschobene Isokostenlinie die Isoquante 𝑞𝑞𝑞𝑞 1 weiterhin schneidet.  Langfristig kann das Unternehmen den Kapitaleinsatz auf 𝐸𝐸𝐸𝐸 1 reduzieren (4), so dass am Punkt 𝐵𝐵𝐵𝐵 jetzt wieder effizient produziert wird - damit geht eine weitere Reduktion der Kosten von 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 ′ auf 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 1 einher. Abbildung 6.7: Langfristige Perspektive bei Produktionsrückgang. Infolge der reduzierten Produktionsmenge wird der Einsatz beider Einsatzfaktoren 𝐸𝐸𝐸𝐸 und 𝐿𝐿𝐿𝐿 reduziert, in jedem Fall reduzieren sich bei konstanten Faktorpreisen langfristig auch die Gesamtkosten. Damit geht meist eine Änderung der Kapitalintensität einher, allerdings hängt die Richtung der Veränderung von der tatsächlichen Produktionsfunktion und der Substituierbarkeit der Einsatzfaktoren ab. K 0 L L 0 A K 0 0 L L 0 L 0 ‘ 1 TC 0 / r 0 q 0 K 0 L L 0 A K 0 2 TC 0 / r 0 q 0 q 1 K A K 0 3 TC 0 / r 0 q 0 q 1 A‘ 0 L L 0 K A 4 TC 0 / r 0 q 0 q 1 B L 1 TC 0 ‘/ r 0 K 1 TC 1 / r 0 TC 0 ‘/ r 0 K 0 <?page no="252"?> Kosten, Restrukturierung und M&A 252  Case Study | Produktionsrückgang bei einem Leuchtmittelhersteller Die Produktionsfunktion eines Leuchtmittelherstellers ist als (6.31) 𝑞𝑞𝑞𝑞 = 20𝐸𝐸𝐸𝐸 0,05 𝐿𝐿𝐿𝐿 0,9 gegeben, das Unternehmen produziert 𝑞𝑞𝑞𝑞 0 = 3,2 Mrd. Leuchtmittel. Infolge einer geänderten Gesetzgebung bricht der Absatz an Glühbirnen ein. Das Unternehmen rechnet mit einem dauerhaften Rückgang auf 𝑞𝑞𝑞𝑞 1 = 2,0 Mrd. Leuchtmittel bei konstanten Faktorpreisen von 𝑟𝑟𝑟𝑟 = 0,02 und 𝐻𝐻𝐻𝐻 = 20 . Die Situation lässt sich analog ► Abbildung 6.7 darstellen - zudem kann man neben der qualitativen Analyse aber auch eine quantitative Analyse durchführen. Diese ist im Unternehmensalltag aus mindestens zwei Gründen notwendig:  Um den notwendigen Stellenabbau durchzusetzen, müssen zwischen Arbeitnehmer- und Arbeitgeberseite typischerweise Interessenausgleich und Sozialplan verhandelt werden - zur Versachlichung kann hier maßgeblich ein robustes und nachvollziehbares Zahlengerüst beitragen.  Die Reduktion des Kapitaleinsatzes bedeutet eine Reduktion an Eigen- und Fremdkapital - auch hier hilft ein tragfähiges Zahlenwerk, um Banken, bisherige Eigentümer und den Kapitalmarkt präzise über die Restrukturierung des Unternehmens zu informieren. Die quantitative Analyse erfolgt über eine Lagrange-Funktion, da wieder eine Optimierung unter Nebenbedingungen durchzuführen ist. Zunächst ist für die Ausgangsituation das Kostenminimum und der dazugehörige Kapital- und Arbeitseinsatz zu ermitteln, so dass sich unter der Nebenbedingung einer aktuellen Produktion von (6.32) 𝑞𝑞𝑞𝑞 = 20𝐸𝐸𝐸𝐸 0,05 𝐿𝐿𝐿𝐿 0,9 mit 𝑞𝑞𝑞𝑞 0 = 3,2 und einem Zinssatz von 𝑟𝑟𝑟𝑟 = 0,02 sowie einem Stundenlohn von 𝐻𝐻𝐻𝐻 = 20 zur Optimierung der Kostensituation (6.33) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 𝑟𝑟𝑟𝑟𝐸𝐸𝐸𝐸 0 + 𝐻𝐻𝐻𝐻𝐿𝐿𝐿𝐿 0 = 0,02𝐸𝐸𝐸𝐸 0 + 20𝐿𝐿𝐿𝐿 0 die Lagrange-Funktion als (6.34) 𝑍𝑍𝑍𝑍 0 = 0,02𝐸𝐸𝐸𝐸 0 + 20𝐿𝐿𝐿𝐿 0 + 𝜆𝜆𝜆𝜆𝜆3,2 − 20𝐸𝐸𝐸𝐸 00,05 𝐿𝐿𝐿𝐿 00,9 � → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻! ergibt. Diese wird durch Wahl der von Unternehmen beeinflussbaren Strategieparameter (Kontrollvariable) 𝐸𝐸𝐸𝐸 0 und 𝐿𝐿𝐿𝐿 0 optimiert, so dass (6.35) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕0 𝜕𝜕𝜕𝜕𝐸𝐸𝐸𝐸0 = 0,02 − 𝜆𝜆𝜆𝜆𝜆20 ⋅ 0,05𝐸𝐸𝐸𝐸 0−0,95 𝐿𝐿𝐿𝐿 00,9 � = 0 → 𝜆𝜆𝜆𝜆 = 0,02 20⋅0,05𝐸𝐸𝐸𝐸0−0,95𝐿𝐿𝐿𝐿00,9 (6.36) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕0 𝜕𝜕𝜕𝜕𝐿𝐿𝐿𝐿0 = 20 − 𝜆𝜆𝜆𝜆𝜆20 ⋅ 0,9𝐸𝐸𝐸𝐸 00,05 𝐿𝐿𝐿𝐿 0−0,1 � = 0 → 𝜆𝜆𝜆𝜆 = 20 20⋅0,9𝐸𝐸𝐸𝐸00,05𝐿𝐿𝐿𝐿0−0,1 (6.37) 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 = 3,2 − 20𝐸𝐸𝐸𝐸 00,05 𝐿𝐿𝐿𝐿 00,9 = 0 erfüllt sein muss. Setzt man nun 𝜆𝜆𝜆𝜆 aus (6.35) und (6.36) gleich, dann erhält man mit (6.38) 0,02 20⋅0,05𝐸𝐸𝐸𝐸0−0,95𝐿𝐿𝐿𝐿00,9 = 20 20⋅0,9𝐸𝐸𝐸𝐸00,05𝐿𝐿𝐿𝐿0−0,1 → 𝐸𝐸𝐸𝐸 0 = 55,55𝐿𝐿𝐿𝐿 0 und (6.39) 𝑞𝑞𝑞𝑞 0 = 3,2 = 20𝐸𝐸𝐸𝐸 00,05 𝐿𝐿𝐿𝐿 00,9 = 20(55,55𝐿𝐿𝐿𝐿 0 ) 0,05 𝐿𝐿𝐿𝐿 00,9 <?page no="253"?> Langfristige Entscheidungen: Anpassung der Kostenstruktur 253 den in der Ausgangsituation optimalen Arbeits- und Kapitaleinsatz als (6.40) 𝐿𝐿𝐿𝐿 0 = � 3,2 20⋅55,550,05 0,95 = 0,1176 und 𝐸𝐸𝐸𝐸 0 = 55,55𝐿𝐿𝐿𝐿 0 = 6,5332 , so dass sich bei gegeben Faktorpreisen Gesamtkosten in Höhe von (6.41) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 = 𝑟𝑟𝑟𝑟𝐸𝐸𝐸𝐸 0 + 𝐻𝐻𝐻𝐻𝐿𝐿𝐿𝐿 0 = (0,02 ⋅ 6,5332) + (20 ⋅ 0,1176) = 2,4826 ergeben. Mit anderen Worten: Zur Produktion von 3,2 Mrd. Glühbirnen wird ein Kapitaleinsatz von 6,5 Mrd. EUR und 0,12 Mrd. Stunden Arbeit (bei 1.700 Arbeitsstunden je Mitarbeiter pro Jahr gleichbedeutend mit etwa 69.000 Stellen) benötigt und die Gesamtkosten betragen 2,48 Mrd. EUR - die totalen Durchschnittskosten jeder Glühbirne liegen entsprechend bei 0,78 EUR. Im zweiten Schritt muss die Auswirkung des Produktionsrückgangs auf 𝑞𝑞𝑞𝑞 1 = 2,0 auf die Stellenzahl 𝐿𝐿𝐿𝐿 0 ‘ des Unternehmens bestimmt werden - unter der Rahmenbedingung, dass der Kapitaleinsatz kurzfristig konstant bei 𝐸𝐸𝐸𝐸 = 6,5332 ist. Damit ergibt sich über (6.42) 𝑞𝑞𝑞𝑞 1 = 2,0 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 0𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 0 ′ 𝛽𝛽𝛽𝛽 = 20 ⋅ 6,5332 0,05 𝐿𝐿𝐿𝐿 0 ′ 0,9 dass die Zahl der Arbeitsstunden auf (6.43) 𝐿𝐿𝐿𝐿 0 ′ = � 2,0 20⋅6,53320,05 0,9 = 0,0697 zurückgeht - das bedeutet bei 1.700 Arbeitsstunden je Mitarbeiter pro Jahr umgerechnet einen Rückgang auf eine Zielstellenzahl von ca. 41.000, so dass der Stellenabbau ca. 28.000 Stellen beträgt. Die Gesamtkosten gehen kurzfristig auf (6.44) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0′ = 0,02𝐸𝐸𝐸𝐸 0 + 20𝐿𝐿𝐿𝐿 0 ′ = 1,5258 zurück, im Vergleich zu 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 = 2,4826 eine Einsparung von knapp 1 Mrd. EUR. Im dritten und letzten Schritt wird nun die langfristige Kostenreduktion bei Reduktion des Kapitaleinsatzes ermittelt. Die Analyse ist identisch mit (6.36) bis (6.44) für die jetzt neue langfristig reduzierte Produktionsmenge 𝑞𝑞𝑞𝑞 1 = 2,0 , so dass über die Lagrange- Funktion (6.45) 𝑍𝑍𝑍𝑍 1 = 0,02𝐸𝐸𝐸𝐸 1 + 20𝐿𝐿𝐿𝐿 1 + 𝜆𝜆𝜆𝜆�𝑞𝑞𝑞𝑞 1 − 20𝐸𝐸𝐸𝐸 10,05 𝐿𝐿𝐿𝐿 10,9 � → 𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆! der langfristig optimale Einsatz der Einsatzfaktoren als (6.46) 𝐿𝐿𝐿𝐿 1 = � 2,0 20⋅55,550,05 0,95 = 0,0717 und 𝐸𝐸𝐸𝐸 1 = 55,55𝐿𝐿𝐿𝐿 1 = 3,9835 ergibt. Der Arbeitseinsatz steigt im Vergleich zur kurzfristigen Optimierung jetzt wieder leicht an, der Grund hierfür liegt in der Reduktion des Kapitaleinsatzes um ca. 1,6 Mrd. EUR. Damit geht eine weitere - wenngleich geringe - Kostensenkung einher, so dass sich die langfristigen Gesamtkosten als (6.47) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 1 = 0,02𝐸𝐸𝐸𝐸 1 + 20𝐿𝐿𝐿𝐿 1 = 1,5137 ergeben, eine zusätzliche Kostenoptimierung um 12 Mio. EUR. <?page no="254"?> Kosten, Restrukturierung und M&A 254 Mit Tabellenkalkulationsprogrammen wie Excel lassen sich diese Optimierungen schnell und in Szenarien kalkulieren, wie in ► Abbildung 6.8 zu sehen ist. Tatsächlich würde der Produktionsrückgang um 37,50 % dauerhaft zu einem Abbau von ca. 26.997 FTE (von 69.175 auf 42.179 FTE) führen, ca. 39,03 %. Die Gesamtkosten gehen langfristig von 2,48 Mrd. EUR um ca. 0,97 Mrd. EUR auf ca. 1,51 Mrd. EUR zurück, d.h. ebenso um etwa 39,03 %. Der überproportionale Rückgang der Gesamtkosten ist begründet in abnehmenden Skalenerträgen der Produktionsfunktion mit 𝛼𝛼𝛼𝛼 + 𝛽𝛽𝛽𝛽 = 0,95 , so dass bei einem Rückgang der Produktion überproportional Arbeit und Kapital reduziert werden können. Abbildung 6.8: Ermittlung der kurz- und langfristigen Optimierung für den Leuchtmittelhersteller. Restrukturierung bei steigenden Lohnsätzen Zahlreiche Unternehmen müssen infolge eines Anstiegs der Löhne (bspw. in Folge neuer Tarifverträge mit den Gewerkschaften) bei konstanter Produktionsmenge die Effizienz der Produktion durch Substitution von Arbeit durch Kapital optimieren. So hat die Deutsche Bahn mit ihrer Tochtergesellschaft DB Schenker Rail 2015 infolge neuer Tarifverträge angekündigt, bis zu 5.000 Stellen im Konzern abzubauen und durch höheren Kapitaleinsatz zu substituieren (Die Zeit 2015). q 3,2 2,0 2,0 r 0,02 0,02 0,02 w 20,0 20,0 20,0 A 20,00 20,00 20,00 alpha 0,05 0,05 0,05 beta 0,9 0,9 0,9 F(K; L) 3,200 2,000 2,000 K 6,533280321 6,533280321 3,983530558 L 0,117599046 0,069759574 0,07170355 TC 2,482646522 1,525857078 1,513741612 d K 0 -2,549749763 d L -0,047839472 0,001943976 d TC -0,956789444 -0,012115465 q 3,2 2 2 -37,50% L in FTE 69.175,91 41.035,04 42.178,56 (* 1.000.000.000 / 1.700 h) -28140,87 1143,52 -39,03% K in Mrd. EUR 6,53 6,53 3,98 0,00 -2,55 -39,03% Ausgangssituation kurzfristige Optimierung langfristige Optimierung Leuchtmittelhersteller Rahmenbedingungen Ergebnis der Optimierung Anpassung der Produktionsfaktoren absolute und relative Effekte <?page no="255"?> Langfristige Entscheidungen: Anpassung der Kostenstruktur 255 Typischerweise werden infolge einer Lohnsatzerhöhung die Gesamtkosten bei konstanter Produktionshöhe unmittelbar steigen. Entsprechend dem veränderten Lohn-Zins-Verhältnis ist nun Arbeit relativ zu Kapital teurer geworden - so muss der Lohnsatzsteigerung langfristig eine Anpassung von Kapital und Arbeit folgen, um die Kosten zu reduzieren. Da die relativen Kosten der Arbeit im Vergleich zu Kapital gestiegen sind, wird nach Automatisierungsmöglichkeiten gesucht, mittelfristig wird die Stellenzahl reduziert und der Kapitaleinsatz erhöht. Abbildung 6.9: Langfristige Perspektive bei Lohnsatzsteigerung. Anhand von ► Abbildung 6.9 kann man diese Zusammenhänge schematisch erkennen:  In der Ausgangsituation (1) produziert das Unternehmen bei einem ursprünglichen Lohn- Zins-Verhältnis - 𝐻𝐻𝐻𝐻 0 / 𝑟𝑟𝑟𝑟 0 mit einem Kapitaleinsatz 𝐸𝐸𝐸𝐸 0 und einem Arbeitseinsatz 𝐿𝐿𝐿𝐿 0 eine Produktionsmenge 𝑞𝑞𝑞𝑞 0 bei Gesamtkosten von 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 - die Produktion ist effizient, da die Isokostenlinie die Isoquante am Punkt 𝐴𝐴𝐴𝐴 tangiert.  Ein Anstieg des Lohn-Zins-Verhältnisses (2) von - 𝐻𝐻𝐻𝐻 0 / 𝑟𝑟𝑟𝑟 0 auf - 𝐻𝐻𝐻𝐻 1 / 𝑟𝑟𝑟𝑟 0 hat bei gegebener Produktionsmenge eine Drehung der Isokostenlinie im Punkt A und unmittelbar einen Anstieg der Gesamtkosten auf 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 0 ‘ zur Folge - die Produktion ist ineffizient, da die Isokostenlinie die Isoquante in Punkt A schneidet und das Unternehmen nicht reagieren kann, da eine Substitution von Arbeit durch Kapital kurzfristig unmöglich ist. K 0 L L 0 A K 0 1 TC 0 / r 0 q 0 K 0 L L 0 A K 0 2 TC 0 / r 0 q 0 K TC 0 ‘/ r 0 0 L L 0 A 3 TC 0 / r 0 q 0 TC 0 ‘/ r 0 B L 1 K 1 K 0 0 L L 1 A 4 TC 0 / r 0 q 0 TC 0 ‘/ r 0 TC 1 / r 0 B K 1 K -w 0 / r 0 -w 1 / r 0 -w 1 / r 0 -w 1 / r 0 <?page no="256"?> Kosten, Restrukturierung und M&A 256  Langfristig (3) kann das Unternehmen den Kapitalstock von 𝐸𝐸𝐸𝐸 0 auf 𝐸𝐸𝐸𝐸 1 erhöhen und im gleichen Zug die Zahl der Stellen von 𝐿𝐿𝐿𝐿 0 auf 𝐿𝐿𝐿𝐿 1 reduzieren - die Produktion ist jetzt wieder effizient, da in Punkt B die parallel nach links verschobene Isokostenlinie mit der Steigung - 𝐻𝐻𝐻𝐻 1 / 𝑟𝑟𝑟𝑟 0 jetzt die Isoquante tangiert.  Damit geht eine Kostensenkung (4) von 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 0 ‘ auf 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 1 , abzulesen am Kapital- Achsenabschnitt, einher.  Case Study | Automatisierung bei Lohnsatzerhöhungen in einem Bahnunternehmen Die Produktionsfunktion eines schienengebundenen Transportdienstleisters ist mit (6.48) 𝑞𝑞𝑞𝑞 = 12𝐸𝐸𝐸𝐸 0,4 𝐿𝐿𝐿𝐿 0,7 gegeben. Das Unternehmen produziert auf Basis langfristiger Verträge 2,4 Mrd. Tonnen- Kilometer Transportleistung. Die Gewerkschaften erreichen eine Erhöhung des Stundenlohns von 𝐻𝐻𝐻𝐻 0 = 22 auf 𝐻𝐻𝐻𝐻 1 = 24 , die Kapitalkosten sind konstant bei 𝑟𝑟𝑟𝑟 = 0,05 . Das Unternehmen muss jetzt kurz- und langfristige Effekte auf den Kapital- und Arbeitseinsatz sowie die Gesamtkosten ermitteln, wenn die Produktionsmenge vertragsgemäß weiter 2,4 Mrd. Tonnen-Kilometer betragen soll. Mit einer Lagrange-Funktion kann man die Analyse quantitativ abbilden, so dass sich bei einer Ausgangssituation von (6.49) 𝑞𝑞𝑞𝑞 = 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸 0𝛼𝛼𝛼𝛼 𝐿𝐿𝐿𝐿 0𝛽𝛽𝛽𝛽 = 12𝐸𝐸𝐸𝐸 00,4 𝐿𝐿𝐿𝐿 00,7 = 2,4 und (6.50) 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 0 = 𝑟𝑟𝑟𝑟𝐸𝐸𝐸𝐸 0 + 𝐻𝐻𝐻𝐻 0 𝐿𝐿𝐿𝐿 0 = 0,05𝐸𝐸𝐸𝐸 0 + 22𝐿𝐿𝐿𝐿 0 eine durch Wahl der strategischen Parameter 𝐸𝐸𝐸𝐸 und 𝐿𝐿𝐿𝐿 zu minimierende Lagrange- Funktion (6.51) 𝑍𝑍𝑍𝑍 0 = 0,05𝐸𝐸𝐸𝐸 + 22𝐿𝐿𝐿𝐿 + 𝜆𝜆𝜆𝜆(12𝐸𝐸𝐸𝐸 0,4 𝐿𝐿𝐿𝐿 0,7 − 2,4) → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻! ergibt. Nach Ableitung von (6.50) und Umstellung ergeben sich die ursprünglichen Kosten und der Faktoreinsatz als (6.52) 𝐿𝐿𝐿𝐿 0 ≈ 0,031 und 𝐸𝐸𝐸𝐸 0 ≈ 7,80 mit 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 0 = 0,05𝐸𝐸𝐸𝐸 0 + 22𝐿𝐿𝐿𝐿 0 ≈ 1,072 . Steigt nun der Lohnsatz auf 𝐻𝐻𝐻𝐻 1 = 24 , dann ergeben sich mit den weiterhin gegebenen Werten von 𝐿𝐿𝐿𝐿 0 ≈ 0,031 und 𝐸𝐸𝐸𝐸 0 ≈ 7,80 die neuen Gesamtkosten 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 0 ‘ als (6.53) 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 0′ = 0,05𝐸𝐸𝐸𝐸 0 + 24𝐿𝐿𝐿𝐿 0 ≈ 1,134 - d.h., die Lohnsatzerhöhung bedeutet einen unmittelbaren Anstieg der Gesamtkosten um 62 Mio. EUR auf 1,134 Mrd. EUR. Das Unternehmen wird nun versuchen - bspw. durch weitere Automatisierung - Stellen durch höheren Kapitaleinsatz zu substituieren. Das Ausmaß der Restrukturierung kann jetzt wieder durch eine Optimierung der Gesamtkosten anhand einer Lagrange-Funktion bemessen werden, so dass sich über (6.54) 𝑍𝑍𝑍𝑍 1 = 0,05𝐸𝐸𝐸𝐸 1 + 24𝐿𝐿𝐿𝐿 1 + 𝜆𝜆𝜆𝜆(12𝐸𝐸𝐸𝐸 10,4 𝐿𝐿𝐿𝐿 10,7 − 2,4) → 𝑆𝑆𝑆𝑆𝐻𝐻𝐻𝐻𝐻𝐻𝐻𝐻! neue optimale Faktoreinsätze und Gesamtkosten von (6.55) 𝐿𝐿𝐿𝐿 1 ≈ 0,0300 und 𝐸𝐸𝐸𝐸 1 ≈ 8,244 mit 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 1 = 0,05𝐸𝐸𝐸𝐸 1 + 24𝐿𝐿𝐿𝐿 1 = 1,133 ergeben. Die Gesamtkosten können bei gegebener Produktionsfunktion nur um ca. 10 Mio. EUR reduziert werden. <?page no="257"?> Kostenseitige Wettbewerbsvorteile und M&A 257 In ► Abbildung 6.10 sind alle Ergebnisse und deren Effekte zusammengefasst. Tatsächlich würde die Lohnsatzerhöhung um ca. 9,09 % zu einem Abbau von ca. 568 FTE führen, ca. -3,11 %. Die Gesamtkosten steigen langfristig um ca. 61 Mio. EUR, ca. 0,6 %. Abbildung 6.10: Ermittlung der kurz- und langfristigen Optimierung für das Bahnunternehmen. 6.4 Kostenseitige Wettbewerbsvorteile und M&A Unternehmen können - langwie kurzfristig - strategisch Kostenstrukturen in zwei Dimensionen in Wettbewerbsvorteile umwandeln: Economies of Scale und Economies of Scope. Beide Strategien liegen zahlreichen Geschäftsmodellen zugrunde, sie sind integraler Bestandteil für mehrseitige digitale Plattformen wie TripAdvisor, LinkedIn oder Amazon (Evans und Schmalensee 2016 und ► Kapitel 2) und helfen zu verstehen, wie groß Unternehmen innerhalb einer Industrie sind und wie vielfältig das Produktportfolio ist (Chandler 1990). Daneben bieten beide Konzepte mögliche Begründungen für Unternehmenszusammenschlüsse oder -übernahmen. q 2,4 2,4 2,4 r 0,05 0,05 0,05 w 22,0 24,0 24,0 A 12,0 12,0 12,0 alpha 0,4 0,4 0,4 beta 0,7 0,7 0,7 F(K; L) 2,400 2,400 2,400 K 7,800264054 7,800264054 8,244352846 L 0,031023777 0,031023777 0,030057536 TC 1,072536307 1,134583862 1,133598516 d K 0 0,444088792 d L 0 -0,000966241 d TC 0,062047555 -0,000985346 q 2,4 2,4 2,4 0,00% L in FTE 18.249,28 18.249,28 17.680,90 (* 1.000.000.000 / 1.700 h) 0,00 -568,38 -3,11% K in Mrd. EUR 7,80 7,80 8,24 0,00 0,44 5,69% Bahnunternehmen Ausgangssituation kurzfristige Effekte langfristige Optimierung Rahmenbedingungen Ergebnis der Optimierung Anpassung der Produktionsfaktoren absolute und relative Effekte <?page no="258"?> Kosten, Restrukturierung und M&A 258 Ziel ist hier die Realisierung von Synergien aus Größe (Economies of Scale) oder von Synergien aus Diversifikation (Economies of Scope). Economies of Scale („Größenvorteile“) sind unternehmensspezifische kostenseitige Wettbewerbsvorteile - mit steigender Unternehmensgröße oder Produktionsmenge fallen die totalen Durchschnittskosten oder Stückkosten: Wenn ein Unternehmen die Produktion um 80 % ausweitet, die Gesamtkosten aber nur um 60 % steigen, liegen Economies of Scale vor. Ursachen können hohe Fixkosten (bspw. aufgrund von Unteilbarkeiten im Innovationsprozess, im Marketing oder der Unternehmensorganisation), zunehmende Skalenerträge in der Produktion oder die Nutzung von Big Data sein. Ein besonderer Wettbewerbsvorteil kann im Zeitablauf entstehen: Sinken für ein Unternehmen infolge über Jahre hinweg kumulierter Produktionsmengen die Durchschnittskosten, dann liegen Lernkurveneffekte (Erfahrung und Learning-By-Doing) vor. Diese auf Routinen basierenden Wettbewerbsvorteile können bspw. in höherer Arbeitsgeschwindigkeit oder verringertem Ausschuss liegen. Ein Unternehmen mit Lernkurveneffekten hat dann einen Wettbewerbsvorteil gegenüber einem neu eintretenden Unternehmen ohne entsprechende Erfahrung und kumulierte Produktionsmenge. Als Faustregel gilt weiter die von Dutton und Thomas (1984) über eine Vielzahl von empirischen Studien ermittelte 80 %-Regel, d.h., bei einer Verdopplung der kumulierten Produktion gehen die Durchschnittskosten auf etwa 80 % des vorherigen Niveaus zurück. Allerdings verblassen diese Lernkurveneffekte, wenn die Produktion ausgesetzt wird oder die verwendete Technologie verändert wird (Spence 1981, Argote und Epple 1990 und Malerba 1992).  Fragen │ Wie kann man die Kosten schneller senken - Economies of Scale oder Lernkurveneffekte? Wenn Unternehmen kostenseitige Wettbewerbsvorteile erzielen wollen, müssen immer Economies of Scale und Lernkurveneffekte berücksichtigt werden. Aus Managementperspektive sind diese Effekte sowohl bei Neuprodukteinführung und Zielkostenplanung wie auch beim Aufholen von Kostennachteilen gegenüber Wettbewerbern relevant. Abbildung 6.11: Lernkurveneffekte und Economies of Scale im Vergleich. Lernkurveneffekte ATC 200 300 400 10 12 100 q 8 500 A ATC 200 300 400 10 12 100 8 500 A B C A‘ 7 9 Economies of Scale 7 <?page no="259"?> Kostenseitige Wettbewerbsvorteile und M&A 259 In ► Abbildung 6.11 links ist der fallende Verlauf der totalen Durchschnittskosten eines Herstellers von Grafikprozessoren zu sehen. Bei einer aktuellen Produktionsmenge von 𝑞𝑞𝑞𝑞 = 200 betragen die Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 10 . Wird die Produktionsmenge im kommenden Jahr auf 𝑞𝑞𝑞𝑞 = 400 verdoppelt, dann sinken die Durchschnittskosten aufgrund von Economies of Scale auf 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 9 entlang der bestehenden Kostenkurve. Wenn das Unternehmen alternativ Lernkurveneffekte erzielen kann, verschiebt sich die Kostenkurve parallel nach unten. Die Durchschnittskosten sinken dann im kommenden Jahr aufgrund von Erfahrung auch bei gleichbleibender Produktionsmenge auf 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 8 . Wenn beide Effekte zusammenkommen - die Kostenkurve verschiebt sich nach unten und das Unternehmen wird größer - dann betragen die Kosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 = 7 , d.h. beide Effekte addieren sich. Welcher der beiden Effekte in der Realität stärker die Kosten reduziert, hängt vom tatsächlichen Verlauf der Kostenkurve und den Wachstumsmöglichkeiten des Unternehmens ab. Economies of Scope („Diversifikationsvorteile“ oder „Verbundvorteile“) sind ebenfalls unternehmensspezifische kostenseitige Wettbewerbsvorteile. Sie basieren darauf, dass mit wachsender Vielfalt des Produktportfolios die totalen Durchschnittskosten der einzelnen Produktarten aufgrund von Synergien aus Diversifikation zurückgehen. Wenn ein Konsumgüterunternehmen die Produktion auf Zahnpasta ausweitet, und die Durchschnittskosten der Produktion von Waschmittel deshalb zurückgehen, liegen Economies of Scope vor. Ursachen können wieder hohe Fixkosten (Branding von Dachmarken oder Vertriebsstruktur), gemeinsam genutzte Basistechnologie (Produktionstechnologie oder flexible Produktplattformen wie bspw. in der Automobil- oder Computerhardwareindustrie), Risikodiversifikation durch negativ korrelierte Kostenentwicklung bei F&E-Projekten, Kuppelproduktion (in der Chemie- oder Pharmaindustrie) oder auf verschiedene Produktarten oder -segmente anwendbares Knowhow oder Patente sowie komplementäre Verwendungszusammenhänge der Kunden sein. Industrien und Unternehmen unterscheiden sich teilweise deutlich betreffs der Bedeutung von Economies of Scale und Scope. Einerseits sind diese - basierend auf Skalenerträgen - durch technologische, produktionsseitige und kostenseitige Rahmenbedingungen vorbestimmt. So basieren zahlreiche Geschäftsmodelle grundlegend auf Economies of Scale und Scope:  Banken können mit zunehmender Größe fixkostenintensive Marken, IT-Plattformen oder globale Handelsnetze zu niedrigeren Durchschnittskosten realisieren, durch die Kombination aus Aktivgeschäft (Kreditgewährung und Corporate Finance) und Passivgeschäft (Einlagengeschäft) sowie Transactionbanking (Zahlungsverkehr und Wertpapierabwicklung) entstehen kostenreduzierende Synergien und Wettbewerbsvorteile (Altunbas und Molyneux 1996).  Bei Automobilherstellern sind - neben absoluten Größenvorteilen - Economies of Scope durch die modell- und serienübergreifende Produktion von Motoren, Antriebsstrang und Innenausstattung gegeben. Bei BMW beträgt der Gleichteileanteil innerhalb von Diesel- oder Benzinmotoren jeweils über 60 %, der Gleichteileanteil antriebsübergreifend immer noch mehr als 30 % (BMW 2015). <?page no="260"?> Kosten, Restrukturierung und M&A 260  In der Konsumgüter/ FMCG-Industrie zielen Unternehmen wie Procter & Gamble oder Unilever ebenfalls auf Economies of Scale als auch Economies of Scope: Starke Treiber sind hier fixe Marketing-/ Branding-Aufwendungen sowie gemeinsam genutzte B2B- Vertriebsstrukturen, Logistik- und Produktionsplattformen über die Produkte hinweg, dies setzt sich schließlich fort bis in den B2C-Vertrieb bei großen Discountern wie Aldi, Walmart oder Carrefour. Andererseits können Unternehmen aktiv darauf zielen, durch Economies of Scale und Scope mehrseitige Märkte aufzubauen oder zu skalieren (Hagiu und Wright 2015):  Alphabet, die Muttergesellschaft von Google, adressiert sowohl Economies of Scale (Big Data in den jeweiligen Geschäftsmodelle Google oder YouTube) als auch Economies of Scope (Verknüpfung der Daten über die Geschäftsmodelle Android, Google oder Chrome hinweg).  Amazon realisiert über absolute Größe und Produktportfolio eigene Economies of Scale und Scope und skaliert diese durch Einbindung von Drittanbietern auf Amazon Marketplaces und durch Bereitstellung der Zahlungsplattform Amazon Payment.  LinkedIn, eine Karriereplattform und Tochterunternehmen von Microsoft, erzielt aus zunehmender Nutzerzahl Economies of Scale auf der fixkostenintensiven IT-Plattform. Zudem werden durch Services auch von Partnerunternehmen zunehmend Economies of Scope durch Portfolioerweiterungen realisiert. Economies of Scale, Mindestbetriebsgröße und Marktstruktur Economies of Scale haben nicht nur für einzelne Unternehmen Bedeutung. Wenn Unternehmen einer Industrie ähnliche Technologie verwenden, dann gilt der in ► Kapitel 6.3 beschriebene S-förmige Gesamtkostenverlauf - wie schematisch in ► Abbildung 6.12 links unten zu sehen - für die gesamte Industrie und es können Industriekostenkurven identifiziert werden. Unternehmen nehmen dann entsprechend ihrer Produktionsmenge und Unternehmensgröße Positionen in unterschiedlichen Bereichen der Kostenkurve ein und können aus der jeweiligen Positionierung strategische Implikationen ableiten. Mit einer Ausweitung der Produktionsmenge steigen die Gesamtkosten. Dies kann proportional, unter- oder überproportional erfolgen. Man kann den Effekt einer Veränderung der Produktionsmenge auf die Gesamtkosten anhand der Gesamtkostenelastizität (6.56) 𝑙𝑙𝑙𝑙 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = ∆𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 ⁄ ∆𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 ⁄ = ∆𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 ∆𝑞𝑞𝑞𝑞 ⁄ 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶/ 𝑞𝑞𝑞𝑞 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 mit 𝑙𝑙𝑙𝑙 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 ≷ 1 für 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 ≷ 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 messen, der Relation von Grenzkosten zu totalen Durchschnittskosten. Economies of Scale liegen vor, wenn die Gesamtkosten unterproportional ansteigen: Das ist immer der Fall, wenn die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 kleiner als die totalen Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 sind - Unternehmen erzielen aus Wachstum und Größe einen Wettbewerbsvorteil und 𝑙𝑙𝑙𝑙 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 < 1 . Diseconomies of Scale liegen vor, wenn die Kosten überproportional ansteigen und 𝑙𝑙𝑙𝑙 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 > 1 , d.h. die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 liegen über den totalen Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 . <?page no="261"?> Kostenseitige Wettbewerbsvorteile und M&A 261 Abbildung 6.12: Schematische Industriekostenkurve und Economies of Scale. In ► Abbildung 6.12 oben ist - in Analogie zu Skalenerträgen aus ► Kapitel 5 - der Effekt einer Veränderung der Produktionsmenge auf die Gesamtkosten zu sehen. Liegen Economies of Scale vor, führt eine Erhöhung der Produktionsmenge zu einem unterproportionalen Anstieg, damit ist aber bei einem Rückgang der Produktionsmenge auch nur ein unterproportionaler Kostenrückgang möglich. Liegen Diseconomies of Scale vor, dann hat eine Erhöhung der Produktionsmenge einen überproportionalen Anstieg der Gesamtkosten zur Folge, damit ist bei einem Rückgang der Produktionsmenge ebenfalls eine überproportionale Kostenreduktion möglich. Die Skalenelastizität ist auch für die Durchschnittskostenkurve in ► Abbildung 6.12 unten rechts erkennbar. Typischerweise hat die totale Durchschnittskostenkurve für viele Industrien dann einen badewannenförmigen Verlauf. Bis zu einer Größe 𝑞𝑞𝑞𝑞 0 sinken die Durchschnittskosten und es entstehen Wettbewerbsvorteile aus Wachstum, ab 𝑞𝑞𝑞𝑞 1 sind Kostennachteile aus zunehmender Größe zu beobachten. Eine Größe 𝑞𝑞𝑞𝑞 0 wird als Mindestbetriebsgröße (Minimum Efficient Size 𝑀𝑀𝑀𝑀𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 ) bezeichnet. Ein Unternehmen mit geringerer Größe als 𝑞𝑞𝑞𝑞 0 hat somit Kostennachteile - in empirischen Studien ergeben sich durchschnittliche Kostennachteile von 15 %, wenn ein Unternehmen nur ein Viertel der erforderlichen Mindestbetriebsgröße erreicht (Weiss 1975). q 1 linearer Anstieg Gesamtkosten TC economies of scale economies of scale TC 0 q A q 0 TC 0 B TC 1 ATC 0 q q 0 ATC 0 q 1 ATC 1 A B horizontaler Verlauf Durchschnittskosten diseconomies of scale diseconomies of scale e TC < 1 e TC = 1 e TC > 1 economies of scale diseconomies of scale 0 q ΔTC 45°-Linie + - Δq=3 % ΔTC<3 % 0 q ΔTC 45°-Linie + - Δq=1 % ΔTC>1 % <?page no="262"?> Kosten, Restrukturierung und M&A 262 Zudem können über die Mindestbetriebsgröße und Economies of Scale auch Aussagen über die Marktstruktur, d.h. Größe und Größenverteilung der Unternehmen in einer Industrie, getroffen werden (Münter 1999). In ► Abbildung 6.13 sind schematisch zwei Industrien mit den jeweiligen badewannenförmigen Industriekostenkurven zu sehen:  Auf der linken Seite ist eine relativ hohe Mindestbetriebsgröße zu sehen und ein relativ breites Spektrum an optimalen Unternehmensgrößen, d.h., der Boden der Badewanne ist stark ausgeprägt - die Unternehmen unterscheiden sich stark in Größe und Marktanteilen.  Auf der rechten Seite ist eine relativ geringe Mindestbetriebsgröße zu sehen und ein relativ enges Spektrum an optimalen Unternehmensgrößen, d.h., der Boden der Badewanne ist wenig ausgeprägt - die Unternehmen unterscheiden sich kaum in Größe und Marktanteilen. Abbildung 6.13: Mindestbetriebsgröße und Marktstruktur. Die Mindestbetriebsgröße in Relation zur Größe des Marktes, d.h. der Mindestmarktanteil, gibt darüber hinaus einen Hinweis auf die Zahl der Unternehmen in diesem Markt (siehe auch weiterführend ► Kapitel 10). In ► Tabelle 6.3 ist für einige US-amerikanische Industrien dieser Mindestmarktanteil angegeben. Der Kehrbruch des Mindestmarktanteils bietet eine grobe Orientierungsgröße für die tatsächliche in dieser Industrie zu erwartende Zahl an Unternehmen. 0 q q 1 q 2 0 q 4 q 3 ATC ATC breites Spektrum an optimalen Unternehmensgrößen enges Spektrum an optimalen Unternehmensgrößen q MES MES <?page no="263"?> Kostenseitige Wettbewerbsvorteile und M&A 263 Industrie MES als % der Marktgröße Industrie MES als % der Marktgröße Rübenzucker 1,87 Frühstückscerealien 9,47 Rohrzucker 12,01 Mineralwasser 0,08 Mehl 0,68 Kaffee 5,82 Backwaren 0,12 Tierfutter 3,02 Dosengemüse 0,17 Babynahrung 2,59 Tiefkühlkost 0,92 Bier 1,37 Tabelle 6.3: Mindestbetriebsgröße in Relation zur Gesamtproduktion des Marktes Quelle: Sutton 1991, S. 393 ff. In ► Abbildung 6.14 sind schematisch für die Automobil- und die Bierindustrie die Industriekostenkurven wiedergegeben, um strategische Implikationen zu erkennen. Für die Automobilindustrie ist offensichtlich, dass Marken wie Tesla oder Porsche zwar keine Mindestbetriebsgröße erreichen, aber aufgrund hoher Preissetzungsspielräume auch bei hohen Durchschnittskosten überlebensfähig sind. In der Bierindustrie ist der 2020 durch Zusammenschluss entstandene Konzern AB Inbev/ SAB Miller zwar auf ca. 29 % Marktanteil gewachsen, damit war bei einem Mindestmarktanteil von 𝑆𝑆𝑆𝑆 = 𝑞𝑞𝑞𝑞/ 𝑄𝑄𝑄𝑄 = 1,37 % aber keine Senkung der Durchschnittskosten verbunden - vielmehr kommt der Konzern jetzt einer Obergrenze von ca. 45 % näher, ab dem die Durchschnittskosten wieder ansteigen könnten (Tremblay und Tremblay 2005 sowie Barth-Haas Group 2020). Abbildung 6.14: Marktstruktur und Industriekostenkurven (schematisch). economies of scale ATC 0 q q 0 ATC 0 q 1 ATC 1 horizontaler Verlauf Durchschnittskosten diseconomies of scale Audi Porsche BMW VW Mercedes -Benz Tesla Toyota economies of scale ATC, p 0 ATC 0 p horizontaler Verlauf Durchschnittskosten diseconomies of scale q/ Q MES=1,37 % ~ 28 % ~ 45 % AB Invev (inkl. SAB Miller) <?page no="264"?> Kosten, Restrukturierung und M&A 264 Signifikante Economies of Scale in einer Industrie bedeutet aber nicht zwingend nur ein oder wenige Unternehmen. In der weltweiten Bierindustrie gibt es mit AB InBev, SAB Miller, China Snow und Heineken zwar nur wenige sehr große Anbieter (mit einer Vielzahl von zugehörigen Marken), aber parallel auch sehr viele sehr kleine Anbieter. Die Koexistenz ist, neben horizontaler Produktdifferenzierung auf Basis von Marketing und regional geprägter Präferenzen der Kunden, insbesondere durch hinreichend hohe Preise gewährleistet. Allerdings sind neben dem typischen badewannenförmigen Verlauf der Industriekostenkurve auch die Extremfälle der Kostenverläufe in ► Abbildung 6.15 möglich. Auf der linken Seite ist der Fall skizziert, dass mit zunehmender Produktionsmenge die totalen Durchschnittskosten ATC kontinuierlich zurückgehen. Je größer ein Unternehmen ist, desto niedriger sind dessen Durchschnittskosten. Sinkt nun der Preis von 𝑝𝑝𝑝𝑝 auf 𝑝𝑝𝑝𝑝‘ , so ist nur das größere der beiden Unternehmen mit der Produktionsmenge 𝑞𝑞𝑞𝑞 2 in der Lage, seine totalen Durchschnittskosten zu decken, das kleinere Unternehmen bei 𝑞𝑞𝑞𝑞 1 muss entweder wachsen oder aus dem Markt austreten. Damit kann das größte Unternehmen strategisch andere Wettbewerber aus dem Markt drängen, so dass eine Tendenz zu einem natürlichen Monopol entsteht. Abbildung 6.15: Größenvorteile versus „small is smart“. Diese Möglichkeit ist in ► Abbildung 6.16 für die Suchmaschinenindustrie verdeutlicht: Google hat mit großem Abstand den größten Marktanteil, bspw. gegenüber Bing und Yahoo. Die Kostensituation ist durch hohe Fixkosten und konstante Grenzkosten je Suchabfrage nahe Null gekennzeichnet, so dass die totalen Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 kontinuierlich fallend verlaufen. Das Geschäftsmodell der Wettbewerber basiert auf dem Verkauf oder der Auktion von Werbeplätzen. Dabei kann - wie in ► Abbildung 6.16 zu erkennen ist - Google die Preise 𝑝𝑝𝑝𝑝 unter das Niveau der totalen Durchschnittskosten der Wettbewerber ansetzen: Für die Werbekunden heißt das bei niedrigen Preisen großer Marktzugang, für die Wettbewerber bedeutet das kontinuierliche Verluste und ohne weitere Maßnahmen den Austritt aus dem Markt. 0 ATC q q 1 q 2 0 ATC q q 3 q 4 p p‘ Größenvorteile „natürliches Monopol“ keine Größenvorteile „small is smart“ <?page no="265"?> Kostenseitige Wettbewerbsvorteile und M&A 265 Abbildung 6.16: Marktstruktur bei Suchmaschinen (schematisch). Mit dauerhaft fallenden 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 bietet Größe einen Effizienz- und Wettbewerbsvorteil und Industrien können zu natürlichen Monopolen werden: Typisch ist dies bei extrem hohen Fixkosten aufgrund des Aufbaus und Erhalts von Infrastruktur wie Bahn, Energie oder Telekommunikation. Wettbewerb ist unmöglich und derartige Industrien werden häufig wettbewerbspolitisch durch staatliches Eingreifen reguliert, eine Herausforderung die auch für die digitalen Märkte besteht (► Kapitel 7). Umgekehrt kann es sein, dass mit zunehmender Größe kontinuierlich ansteigende Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 vorliegen. Größe hat Nachteile („Small is Smart“) und in diesen Industrien gibt es typischerweise viele, aber im Umkehrschluss kleine Unternehmen: Restaurants, Rockbands oder Autoren profitieren nur begrenzt von zunehmender Größe und die Überlebensfähigkeit der Organisation geht mit zunehmender Größe zurück. Economies of Scale und Scope und Unternehmenszusammenschlüsse Wenn Größenvorteile nicht durch organisches Wachstum auf Basis von Marketing- oder Vertriebsstrategien erzielbar sind, dann kann alternativ anorganisches Wachstum zur Erzielung von Größenvorteilen durch den Zusammenschluss mit Wettbewerbern adressiert werden. In zahlreichen Industrien versuchen Unternehmen durch Zusammenschlüsse mit oder Übernahmen von Konkurrenten Wettbewerbsvorteile aufzubauen, um den Gewinn zu erhöhen (Jansen 2016 und Trautwein 1990). Hier stehen drei mögliche Maßnahmen im Mittelpunkt:  der Erwerb neuer Fähigkeiten (bspw. Mitarbeiter, Patente oder Technologien) und Kernkompetenzen,  der Auf- oder Ausbau von Marktmacht zur Kontrolle strategischer Parameter (bspw. Preissetzungsspielräume auf der Absatz- oder Beschaffungsseite oder regionale Exklusivität) und 0 ATC, MC, p q Google q Yahoo q Bing Größenvorteile bei „digital pure plays“ ATC MC p π > 0 π < 0 q <?page no="266"?> Kosten, Restrukturierung und M&A 266  die Senkung von Kosten durch Realisierung von Economies of Scale und Economies of Scope (im Wesentlichen der Reduktion von Fixkosten) oder durch Erzielung von Transaktionskostenvorteilen (Veränderung der Unternehmensgrenzen, Vereinfachung der Organisation und Optimierung der unternehmensinternen Koordination und Kommunikation). Abbildung 6.17: Typen von Unternehmenszusammenschlüssen. Unternehmenszusammenschlüsse können dann wie in ► Abbildung 6.17 gezeigt klassifiziert werden. Horizontale Zusammenschlüsse - bspw. die Übernahme von Tengelmann durch Edeka oder der Erwerb der E-Plus Gruppe durch Telefónica - basieren auf der Zusammenführung gleichartiger Geschäftsmodelle oder adressieren eine oder mehrere gemeinsame Stufen der Wertschöpfungskette einer Industrie in einem Markt. Ziel ist eine Reduktion der Wettbewerbsintensität, die Realisierung von Economies of Scale zur Kostensenkung und daraus folgend der Auf- oder Ausbau der Marktmacht. In ► Abbildung 6.18 ist die Logik des Zusammenschlusses im deutschen Mobilfunkmarkt von Telefónica und der E-Plus-Gruppe vereinfacht dargestellt. Die beiden kleinen Anbieter wurden aufgrund ihres relativen Kostennachteils gegenüber den Marktführern Vodafone und Deutsche Telekom zunehmend durch sinkende Preise in ihrer jeweiligen Profitabilität bedroht. Durch den Zusammenschluss und die so erlangte Größe kann die neue Telefónica die totalen Durchschnittskosten deutlich senken, insbesondere durch die Eliminierung von Fixkosten in Form des Abbaus von Doppelfunktionen in administrativen Bereichen, die Zusammenlegung der IT und des Mobilfunknetzes sowie durch reduzierte Marketingaufwendungen aufgrund reduzierter Wettbewerbsintensität. Breite des Produktportfolios Unternehmensgröße horizontaler Zusammenschluss diversifizierender Zusammenschluss economies of scale economies of scope transaction costs <?page no="267"?> Kostenseitige Wettbewerbsvorteile und M&A 267 Abbildung 6.18: Logik des Zusammenschlusses von Telefonica und E-Plus. Vertikale Zusammenschlüsse erfolgen entlang der Wertschöpfungskette einer Industrie in einem Markt durch strategische Vorwärts- oder Rückwärtsintegration mit dem Ziel einer verbesserten Kontrolle der Wertschöpfungskette und einer Reduktion der Transaktionskosten. Damit werden die Unternehmensgrenzen angepasst, bspw. auch durch Out- oder Insourcing, und die unternehmensinternen Kosten reduziert (vgl. auch ► Kapitel 4). In ► Abbildung 6.19 ist ein derartiger vertikaler Zusammenschluss zwischen einer Retail-Bank und einem FinTech- Dienstleister zu sehen: so hat in 2019 die Deutsche Bank einen 5 % Anteil am Fintech Deposit Solutions erworben. Die vormalige Lieferantenbeziehung für Zinsprodukte wurde damit stabilisiert, insbesondere um Know-how zu erwerben, Einkaufskonditionen zu verbessern und ggfs. den Zugriff von Wettbewerbern der Deutschen Bank auf Deposit Solutions zu erschweren. Konglomerate Zusammenschlüsse erfolgen über Industrie- oder Marktgrenzen hinweg mit der Zielsetzung, eine Diversifikation durch Ausbau des Produktportfolios oder den Aufbau eines diversifizierten Konzerns und meist eine Risikoreduktion bei negativ korrelierten Portfolien (► Kapitel 2) sowie der Realisierung von Economies of Scope durch eine Nutzung gemeinsamer Ressourcen zu erreichen. In ► Abbildung 6.19 ist ein konglomerater Zusammenschluss zwischen einem Billing-Dienstleister aus der Telekommunikationsindustrie mit einem Zahlungsverkehrsdienstleister aus der Finanzdienstleisterindustrie skizziert - betrachtet man bspw. die Akquisitionen von fiserv seit 1990 dann fallen einige der M&A-Transaktionen (Akquisition von Information Technology Corp., Check Free, M-Com, CashEdge oder First Data) in diese Gruppe. Durch wiederholte konglomerate Zusammenschlüsse ist hier ein diversifizierter Technologie- und Finanzdienstleister entstanden, der B2B-Kunden aus zahlreichen Industrien adressiert. 0 ATC q 0 ATC q p p‘ Situation vor dem Zusammenschluss E-Plus/ Telefonica Situation nach dem Zusammenschluss E-Plus/ Telefonica E-Plus Telefonica Vodafone Telekom Telefonica / E-Plus Vodafone Telekom <?page no="268"?> Kosten, Restrukturierung und M&A 268 Abbildung 6.19: Systematik von Unternehmenszusammenschlüssen. Oftmals werden strategische Entscheidungen für M&A-Transaktionen überlagert von konjunkturellen Rahmenbedingungen, Trends zu Zusammenschlüssen („Merger Waves“), dem Eigeninteresse von Managern („Empire Building“) und dem Einfluss des Kapitalmarktes (insbesondere durch die Verfügbarkeit und relativen Kosten von Eigen- oder Fremdkapital zum Erwerb eines Unternehmens). Mit dem Zusammenschluss von Unternehmen geht immer die Reduktion der Anzahl an Marktteilnehmern einher. Ziel ist die Vergrößerung von Marktanteilen, so dass Unternehmenszusammenschlüsse wettbewerbsbeschränkende Wirkung entwickeln können und daher gegenüber nationalen oder internationalen Wettbewerbsbehörden (Bundeskartellamt in Deutschland, EU Kommission auf Ebene der Europäischen Union oder der Federal Trade Commission in den USA) anmelde- oder genehmigungspflichtig sind (vgl. weiterführend ► Kapitel 7). Unabhängig davon verfehlen viele (>50 %) Übernahmen die jeweiligen ökonomischen Ziele. Die Hauptgründe sind in der Umsetzung der Transaktion zu sehen. Die Komplexität der Integration und Zusammenführung, fehlende Passgenauigkeit der Technologie, Unterschiede in Unternehmenskultur und überlappende Produktportfolien sowie fehlende Akzeptanz bei Kunden sind wesentliche Faktoren. Zudem werden häufig die Ziele zu hoch und als zu schnell erreichbar angesetzt. Hier spielen eine Überschätzung möglicher Kosten- und Ertragssynergien (vgl. auch ► Kapitel 3 zur Selbstüberschätzung von Managern), Fehler bei der Due- Diligence-Prüfung, ein zu hoher Kaufpreis, eine Überschätzung der Gestaltbarkeit des künftigen Geschäftsmodells und schließlich eine fehlende oder unzureichende Berücksichtigung möglicher Reaktionen der Wettbewerber die wesentlichen Rollen (Gugler et al. 2003, Ferris et al. 2013, Ficery et al. 2007, Malmendier und Tate 2007 sowie Miles et al. 2014). Telekommunikationsindustrie Finanzdienstleisterindustrie MNO Billing- Dienstleister Endgeräte Retail-bank Fintech ZV-Dienstleister horizontaler Zusammenschluss konglomerater Zusammenschluss vertikaler Zusammenschluss <?page no="269"?> Zusammenfassung 269 6.5 Zusammenfassung Kostenentscheidungen zielen auf die kurz- und langfristige Wettbewerbsfähigkeit von Unternehmen. Aus Managementperspektive ist wesentlich, die Unterschiede in der Entscheidungsrelevanz von lang- und kurzfristigen Kosten zu erkennen. Kurzfristig sind Fixkosten als Kosten des Kapitaleinsatzes nicht zu verändern. Produktions- und Kostenentscheidungen basieren auf der Analyse von Grenzkosten zum Aufbau von Wettbewerbsvorteilen. Grenzkosten eines Unternehmens verlaufen typischerweise U-förmig: Bei einer Ausweitung der Produktionsmenge sinken aufgrund zunehmender Grenzprodukte die Grenzkosten, bei abnehmendem Grenzprodukt steigen die Grenzkosten an. Das Ziel des Managements ist grundsätzlich, bei gegebener Produktionsmenge und Preisen, die Gesamtkosten zu minimieren und Effizienz zu gewährleisten. Typische Entscheidungen betreffen bspw. die Aufteilung der Gesamtproduktion auf mehrere Standorte oder Filialen - die Gesamtkosten werden hier minimiert, wenn Produktionsmengen an den einzelnen Standorten so gewählt werden, dass die Grenzkosten identisch sind. Eine strategisch wesentliche Entscheidung - gerade beim Aufbau neuer digitaler Geschäftsmodelle - liegt in der Relation von Fixkosten und variablen Kosten: Sind die variablen Kosten absolut gering, dann kann die Produktionsmenge bei Grenzkosten nahe Null ausgeweitet werden und es entstehen Wettbewerbsvorteile durch Fixkostendegression. Langfristig sind alle Kosten veränderbar: Entscheidungen über die Kostenstruktur (Kapitalintensität) hängen hier von den Faktorpreisen, der langfristig geplanten Produktionshöhe und den Wachstumsplänen des Unternehmens ab. Relative Faktorpreise - das Lohn-Zins- Verhältnis - sind eine zentrale Erklärung für steigende Kapitalintensität in vielen Industrien im Zeitablauf und für die Verlagerung von Produktion in Niedriglohnländer. Bei dauerhaftem Rückgang der Produktionsmenge wird die Kostenstruktur im Rahmen einer Restrukturierung, d.h. einer Reduktion der Stellenzahl und einer Anpassung der Eigen- und Fremdkapitalhöhe, angepasst. Zudem können langfristige Wettbewerbsvorteile in Form von Economies of Scale (Kosten steigen bei Ausweitung der Produktion unterproportional) oder Economies of Scope (Synergien aus Diversifikation und Produktportfolio) vorliegen oder gestaltet werden. Liegen signifikante Größen- und Verbundvorteile vor, dann sind die Unternehmen ceteris paribus größer, zudem können über meist S-förmig verlaufende Industriekostenkurven Marktstrukturen erklärt und Treiber für Unternehmenszusammenschlüsse identifiziert werden.  Literaturtipps Gute und tiefgehende Darstellungen zu Kostentheorie gibt es bei Mas-Colell, A. Winston, M.D. und Green, J.R., Microeconomic Theory, New York 1995, und bei Varian, H., Microeconomic Analysis, New York 1992. Wer mehr zu M&A verstehen möchte, kann gut zu Pepall, L., Richards, D. und Norman, G., Industrial Organization - Contemporary Theory and Empirical Applications, Hoboken 2014, greifen. <?page no="270"?> Kosten, Restrukturierung und M&A 270  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von Entscheidungen zu Kosten aus mikroökonomischer Perspektive sowie deren Grenzen, Vor- und Nachteile! [2] Welche Kosten sind aus mikroökonomischer Sicht entscheidungsrelevant? Weshalb? [3] Zeigen Sie den Zusammenhang zwischen Grenzkosten und Durchschnittskosten für lineare und nichtlineare Gesamtkostenverläufe! Worin können nichtlineare Kostenverläufe begründet sein? [4] Wie kann ein Unternehmen die eigenen oder die Grenzkosten eines Wettbewerbers ermitteln? [5] Welche Regel müssen Manager bei der Allokation der Produktion auf verschiedene Fabriken aus Kostenperspektive beachten? Welche Fehler werden hier häufig gemacht? [6] Welche Folge hat eine Erhöhung des Lohnsatzes (bei konstantem Zins) kurz- und langfristig? [7] Welche Folge hat eine rasch notwendig werdende Erhöhung der Produktion auf die Nachfrage nach Kapital und Arbeit? [8] Langfristig steigt in vielen Industrien die Kapitalintensität - woran kann das liegen? [9] Was ist der Unterschied zwischen Economies of Scale und Economies of Scope? Welche Rolle spielen beide Konzepte bei der Erklärung von M&A-Strategien? [10] Wie kann man aus dem Verlauf der langfristigen Durchschnittskostenkurve auf die Zahl und Größe der Unternehmen einer Industrie rückschließen?  Literatur Altunbas, Y. und Molyneux, P., Economies of scale and scope in European banking, Applied Financial Economics, 1996, 6, 4, 367-375. Argote, L. und Epple, D., Learning curves in manufacturing, Science, 1990, 247, 4945, 920-924. Arkes, H. R. und Blumer, C., The psychology of sunk cost, Organizational Behavior and Human Decision Processes, 1985, 35, 1, 124-140. Barth-Haas Group (Hrsg.), Der neue Barth-Bericht Hopfen 2019/ 2020, Nürnberg 2020. BMW AG, Investor Presentation, München 2015. Chandler, A.D., Scale and scope: the dynamics of industrial capitalism, Cambridge / London 1990. de Jong, M. und van Dijk, M., Disrupting beliefs: a new approach to business-model innovation, McKinsey Quarterly, July 2015. Dosi, G., Grazzi, M. und Moschella, D., Technology and costs in international competitiveness: from countries and sectors to firms, Research Policy, 2015, 44, 1795-1814. Dutton, J.M. und Thomas, A., Treating progress functions as a managerial opportunity, Academy of Management Review, 1984, 9, 2, 235-247. Ellison, G. und Ellison, S.F., Lessons about markets from the internet, Journal of Economic Perspectives, 2005, 19, 2, 139-158. Evans, D.S. und Schmalensee, R., Matchmakers: the new economics of multisided platforms, New York / London 2016. <?page no="271"?> Zusammenfassung 271 Ferris, S.P., Jayaraman, N. und Sabherwal, S., CEO overconfidence and international merger and acquisition activity, Journal of Financial and Quantitative Analysis, 2013, 48, 1, 137-164. Ficery, K., Herd, T. und Pursche, B., Where has all the synergy gone? The M&A puzzle, Journal of Business Strategy, 2007, 28, 5, 29-35. Gruber, H., The learning curve in the production of semiconductor memory chips, Applied Economics, 1992, 24, 885- 894. Gugler, K., Mueller, D.C., Yurtoglu, B.B. und Zulehner, C., The effects of mergers: an international comparison, International Journal of Industrial Organization, 2003, 21, 5, 625-653. Hagiu, A. und Wright, J., Multi-sided platforms, International Journal of Industrial Organization, 2015, 43, 162-174. Jansen, S.A., Mergers & Acquisitions: Unternehmensakquisitionen und -kooperationen, 6. Auflage, Wiesbaden 2016. Köhn, R., Stellenabbau bei Siemens - es brennt lichterloh auf den Märkten, Frankfurter Allgemeine Zeitung, 16. November 2017, 13. Krugman, P., Making sense of the competitiveness debate, Oxford Review of Economic Policy, 1996, 12, 3, 17-25. Lambrecht, A., Goldfarb, A., Bonatti, A., Ghose, A., Goldstein, D.G., Lewis, R., Rao, A., Sahni, N. und Yao, S., How do firms make money selling digital goods online? , Marketing Letters, 2014, 25, 3, 331-341. Levy, D., Output, capital, and labor in the short and long run, Southern Economic Journal, 1994, 60, 4, 946-960. Malerba, F., Learning by firms and incremental technical change, Economic Journal, 1992, 102, 413, 845-859. Malmendier, U. und Tate, G., Who makes acquisitions? CEO overconfidence and the market’s reaction, Journal of Financial Economics, 2008, 89, 1, 20-43. Manez, J.A., Rochina-Barrachina, M.E., Sanchis, A. und Sanchis, J.A., The role of sunk costs in the decision to invest in R&D, Journal of Industrial Economics, 2009, 57, 4, 712-735. Miles, L., Borchert, A. und Ramanathan, A., Why some merging companies become synergy overachievers, Bain & Company 2014. Münter, M.T., Wettbewerb und die Evolution von Industrien, Bayreuth 1999. o.V., Bahn will Tausende Stellen streichen, Die Zeit, 18. Oktober 2015. o.V., Lampenhersteller streicht 1300 Jobs, Handelsblatt, 13. November 2017. o.V., Neuer Osram-Chef drückt aufs Tempo - und hält am Stellenabbau fest, Augsburger Allgemeine, 4. Februar 2015. o.V., VW will Menschen durch Roboter ersetzen - Kosten von höchstens sechs Euro pro Stunde, Focus Money, Februar 2015. Parayre, R., The strategic implications of sunk costs: A behavioral perspective, Journal of Economic Behavior and Organization, 1995, 28, 3, 417-442. Porter, M.E., Competitive advantage of nations, New York 1990. Porter, M.E., Competitive strategy: techniques for analyzing industries and competitors, New York 1980. Probst, L., Frideres, L., Pedersen, K., Lide, S., und Kasselstrand, E., New business models - freemium: zero marginal cost, OECD Case Study 49, Paris 2015. Reinstein, A., Bayou, M.E., Williams, P.F., Grayson, M.M., Resolving the sunk cost conflict, Advances in Management Accounting, 2017, 28, 123-154. Roeder, F.C., Berlin’s Zombie Airport: a textbook example of the sunk-cost fallacy, in: Handelsblatt Global Edition, 20. Juli 2017. Rogelberg, S. G., Scott, C. und Kello, J., The science and fiction of meetings, MIT Sloan Management Review, 2007, 48, 2, 18-21. <?page no="272"?> Kosten, Restrukturierung und M&A 272 Sibony, O., Lovallo, D. und Powell, T.C., Behavioral strategy and the strategic decision architecture of the firm, California Management Review, 2017, 59, 3, 5-21. Spence, A.M., The learning curve and competition, Bell Journal of Economics, 1981, 12, 1, 49-70. Sutton, J., Sunk costs and market structure: price competition, advertising, and the evolution of concentration, London 1991. Trautwein, F., Merger motives and merger prescriptions, Strategic Management Journal, 1990, 11, 4, 283-295. Tremblay, V.J. und Tremblay, C.H., The US brewing industry: data and economic analysis, Cambridge/ London 2005. Weiss, L.W., Optimal plant size and the extent of suboptimal capacity, in: Masson, R.T. und Qualls, P.D. (Hrsg.), Essays on Industrial Organization in Honor of Joe S. Bain, Cambridge 1975, 126-134. <?page no="273"?> 7 Vollständige Konkurrenz, Monopol und Wettbewerbspolitik Unternehmen unterscheiden sich offensichtlich in Größe, Produktportfolio, Unternehmensstrategie oder Technologie. Weniger offensichtlich ist, dass Unternehmen sehr unterschiedliche Fähigkeiten und Möglichkeiten besitzen, strategische Parameter (Preise, Qualität, Art und Grad an Produktdifferenzierung etc.), die Rahmenbedingungen der Wettbewerbssituation (Eintrittsbarrieren, industriespezifische Technologie, Einflussnahme auf Gesetzgebung etc.) oder die Art und Weise des Wettbewerbsprozesses mit anderen Unternehmen (Preis- oder Kapazitätswettbewerb, F&E-Intensität, Innovationsgeschwindigkeit usw.) zu beeinflussen oder zu verändern. Ob ein Unternehmen in der Lage ist, einzelne strategische Parameter oder sogar den Wettbewerbsprozess als solchen zu beeinflussen, wird wesentlich durch Rahmenbedingungen wie Marktstruktur und Wettbewerbssituation bestimmt (► Kapitel 4). Vor diesem Hintergrund können zunächst zwei entgegengesetzte Fälle skizziert werden, die in der Realität zwar selten in absoluter Form vorliegen, aber einen ersten Rahmen für die weitere Analyse bieten: Vollständige Konkurrenz und Monopol. Im ersten Fall kann keines der Unternehmen Einfluss auf strategische Parameter nehmen, im zweiten Fall kann ein Unternehmen alleine diesen kontrollieren und besitzt Marktmacht. Marktmacht bedeutet, dass ein Unternehmen einen strategischen Parameter in eigenem Interesse beeinflussen kann, ohne dass die Wettbewerber dies strategisch ausnutzen können - z.B. kann ein Unternehmen mit Marktmacht den Preis erhöhen, ohne dass es zu Marktanteilsverlusten durch günstigere Angebote oder Preisunterbietung der Wettbewerber kommt. Ebenso könnte dieses Unternehmen durch Verringerung der produzierten Menge oder Auswahl an Produkten, Verschlechterung der Qualität oder Verzicht auf Innovationsanstrengungen Marktmacht ausnutzen - damit derartige Strategien profitabel sein können, müssen Reaktionen der Wettbewerber oder Konsumenten insignifikant sein oder faktisch ausbleiben. Damit kann einhergehen, dass Unternehmen mit Marktmacht nicht nur einzelne Wettbewerbsparameter wie z.B. den Preis bestimmen können, sondern aktiv den Wettbewerb beschränken oder ausschalten. So konnte der Marktführer Lufthansa durch die Übernahme wesentlicher Teile der Fluggesellschaft Air Berlin den Preissetzungsspielraum auf innerdeutschen Flugstrecken ausweiten (FAZ 2017b). Eine solche durch strategisches Verhalten der Unternehmen verursachte Form von Wettbewerbsbeschränkungen begründet die Notwendigkeit für staatliche Wettbewerbspolitik. So wird die geplante Übernahme von deutschen und europäischen Wettbewerbsbehörden geprüft und bei signifikanten Wettbewerbsbeschränkungen wird eine Genehmigung im Rahmen der Fusionskontrolle nur unter Auflagen erteilt, im Fall von Lufthansa/ AirBerlin bspw. durch Versteigerung der Start/ Lande-Slots an den Flughäfen (FAZ 2017c). Wettbewerbspolitik als Teilbereich staatlicher Wirtschaftspolitik hat die übergeordnete Zielsetzung, Rahmenbedingungen für funktionsfähigen Wettbewerb zu schaffen, so dass Innovationen und Wohlfahrtssteigerung möglich sind. Im Kern geschieht dies durch nationale und internationale Gesetzgebung und Rechtsprechung gerichtet auf wettbewerbsbeschränkende Verhaltensweisen oder Marktmacht von Unternehmen. <?page no="274"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 274 Aus Managementperspektive sind zwei Aspekte zentral: Erstens abzuschätzen, ob und in welchem Umfang für das eigene Unternehmen strategische Freiheitsgrade vorhanden sind, und zweitens, ob das Ausnutzen dieser Freiheitsgrade auf Basis von Marktmacht im Konflikt zu wettbewerbsrechtlichen Regelungen steht.  Lernziele Dieses Kapitel beschäftigt sich mit  den Konzepten der vollständigen Konkurrenz und des Monopols als Rahmen und Messlatte für staatliche Wettbewerbspolitik sowie möglichen Ursachen von Marktmacht und marktbeherrschendem Verhalten,  Unterschieden im Marktergebnis (Gewinne, Mengen und Preise) bei gewinnmaximierendem Verhalten in Abhängigkeit der Marktstruktur (Zahl und Verhalten der Unternehmen),  Effekten auf die ökonomische Wohlfahrt bei Marktmacht und der Relevanz von Wettbewerbspolitik, den Aufgaben und Rollen deutscher Wettbewerbsbehörden sowie einigen Fällen zu wettbewerbsbeschränkendem Verhalten von Unternehmen. 7.1 Entscheidungen eines Unternehmens bei vollständiger Konkurrenz Zahlreiche Industrien sind geprägt von - relativ zur Größe des Marktes - kleinen Unternehmen, deren Produkte sich aus Kundenperspektive nicht wahrnehmbar unterscheiden, die sich einer großen Zahl an Endkunden gegenübersehen. In diesen Industrien haben Unternehmen oft wenige Freiheitsgrade, da durch die Wettbewerbssituation und das Verhalten der Wettbewerber das eigene strategische Verhalten eingeengt und vorbestimmt ist. Zudem haben häufig alle Unternehmen Zugang zu denselben Ressourcen (bspw. Mitarbeitern, Lieferanten oder Rohstoffen), es liegen kostenseitig keine signifikanten Economies of Scale vor und keines der Unternehmen ist in der Lage, strategische Parameter der Industrie zu beeinflussen. Typische Beispiele sind Friseure, freie Gebrauchtwagenhändler, kostenlose E-Mail-Services, Brennholz für den Kamin, Restaurants, regionale Lieferdienste („weiße Lieferwagen“) oder die Containerschifffahrt. Märkte mit vollständiger Konkurrenz sind charakterisiert durch folgende Eigenschaften:  Markteintritt- und austritt ohne Sunk Costs - Unternehmen können frei (d.h. ohne Sunk Costs) in den Markt ein- oder austreten. Es gibt keine strategischen, rechtlichen oder strukturellen Eintrittsbarrieren. Entsprechend gibt es keine Mindestbetriebsgröße, alle Unternehmen haben Zugang zur besten Technologie und zu allen anderen Ressourcen. Fehlende Eintrittsbarrieren (bspw. Branding oder Kundenloyalität) bedeuten aber auch, dass Kunden keine Präferenz für einzelne Unternehmen oder Marken haben.  Große Zahl an kleinen Unternehmen - es gibt eine große Zahl an Unternehmen und Kunden im Markt. Alle sind klein und strategisch unbedeutend, so dass jeder den Marktpreis als gegeben annehmen muss und diesen nicht beeinflussen kann. In der Realität ist <?page no="275"?> Entscheidungen eines Unternehmens bei vollständiger Konkurrenz 275 es schon hinreichend, wenn eine potenziell große Zahl an kleinen Marktteilnehmern existiert.  Homogene Produkte und vollständige Information - die angebotenen Produkte sind im Wesentlichen gleichartig. In der Realität ist es ausreichend, dass die Produkte derart ähnlich und vergleichbar sind, dass Kunden die Unterschiede nicht berücksichtigen oder nicht erkennen - als Konsequenz kann zumindest mittelfristig nur ein Preis existieren. Alle Kunden und Anbieter haben vollständige Informationen, daraus folgt, dass alle relevanten Veränderungen sofort allen Marktteilnehmern bekannt sind. Abbildung 7.1: Restaurants in Berlin. Quelle: Google Maps 2017. Ein Markt, für den diese Bedingungen sehr gut gelten, sind bspw. regionale Lieferdienste - aber auch Restaurants in Berlin, wie in ► Abbildung 7.1 dargestellt. Über Google Maps und gängige Portale wie TripAdvisor wird nahezu vollständige Information - für Wettbewerber und Kunden - in Echtzeit geliefert. Die Zahl an Unternehmen beträgt 2017 mehr als 5.000, jedes einzelne Unternehmen ist relativ zur Nachfrage gesehen sehr klein, die Produkte sind relativ homogen - Kunden fragen „einen schönen Abend“ in Vielfalt nach - und mit Ausnahme von Sternerestaurants und Billigketten liegen die Preise sehr eng zusammen. Ein Unternehmen, das versuchen würde, den Preis bei marktüblicher Qualität über das Wettbewerbsniveau zu erhöhen, verliert unmittelbar Kunden. Auch der Marktein- und austritt erfolgt nahezu ohne Sunk Costs - zwar gehen Restaurants sehr häufig pleite, aber typischerweise werden die Räumlichkeiten direkt danach vom nächsten Restaurantbetreiber übernommen, so dass für Küche und Einrichtung keine Sunk Costs entstehen (Giersberg 2016). homogene Produkte und perfekte Information große Zahl an Unternehmen Marktein- und -austritt ohne Sunk Costs nachgefragt und angeboten wird: „ein schöner Abend ohne Selberkochen für 50 EUR“ - nicht ein Wiener Schnitzel mit Pommes <?page no="276"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 276 Aus Managementperspektive befindet sich ein Unternehmen mit großer Wahrscheinlichkeit in vollständiger Konkurrenz, wenn Diskussionen im Management Board weniger um Innovationen und Gestaltung neuer Geschäftsmodelle geführt werden, sondern grundsätzlich Preissenkungen der Wettbewerber zum Anlass eigener Preissenkungen genommen werden und regelmäßige Kostensenkungen im Fokus stehen: Ein Unternehmen kann dann offenbar nicht frei über Preise entscheiden, da Kunden perspektivisch zu Wettbewerbern mit niedrigeren Preisen abwandern und die Produktqualität aus Kundenperspektive offenbar als nicht differenziert wahrgenommen wird - übliche Marketingmaßnahmen sind ohne differenzierende Wirkung im Wettbewerb. Gewinnmaximierung durch Wahl der Produktionsmenge bei vollständiger Konkurrenz Unternehmen in diesen Industrien sehen sich vollständiger Konkurrenz ausgesetzt. Aus Managementperspektive müssen alle strategischen Parameter - insbesondere der Preis - als unbeeinflussbar durch den Markt gegeben und determiniert angenommen werden: Entscheidet ein Unternehmen gegen die am Markt übliche und etablierte Produkt-Preis- Geschäftsmodell-Kombination, wird es entweder keine Kunden finden oder die Kosten nicht decken können. In beiden Fällen ist die Existenz des Unternehmens gefährdet. Individuelle Entscheidungen des Unternehmens betreffen somit lediglich die individuelle Produktionsmenge und die dadurch bedingten Kosten, um Gewinne zu erzielen. Die zentrale Frage für das Management ist dann, ob bei gegebenem Marktpreis und unternehmensspezifischer Kostenfunktion Gewinne zur Sicherung der Überlebensfähigkeit des Unternehmens möglich sind. Abbildung 7.2: Gewinne eines Unternehmens bei vollständiger Konkurrenz. Menge Gewinne p Erlöse R Kosten TC 0 R TC p q 1 q 2 π max q 0 q 3 <?page no="277"?> Entscheidungen eines Unternehmens bei vollständiger Konkurrenz 277 In ► Abbildung 7.2 ist diese Situation abgebildet. Wenn bei vollständiger Konkurrenz der Preis von der Produktionsmenge unabhängig ist, dann verläuft die Erlöskurve 𝑅𝑅𝑅𝑅 , als Preis 𝑝𝑝𝑝𝑝 multipliziert mit der Menge 𝑞𝑞𝑞𝑞 , linear ansteigend. Kombiniert man dies mit einer unternehmensspezifischen Kostenfunktion 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 , so ergibt sich aus der Differenz unmittelbar der Gewinn 𝜋𝜋𝜋𝜋 = 𝑅𝑅𝑅𝑅 − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 eines Unternehmens. Offensichtlich wird der Gewinn bei einer Produktionsmenge 𝑞𝑞𝑞𝑞 2 maximiert - hier ist die Differenz zwischen Erlösen und Gesamtkosten am Größten. Der Gewinn 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) in Abhängigkeit der Produktionsmenge ergibt sich allgemein aus der Differenz zwischen Erlösen 𝑅𝑅𝑅𝑅 und Gesamtkosten 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 als (7.1) 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = 𝑅𝑅𝑅𝑅(𝑞𝑞𝑞𝑞) − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) → 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞)𝑞𝑞𝑞𝑞 − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) . Maximiert man durch Wahl der Produktionsmenge 𝑞𝑞𝑞𝑞 den Gewinn, so ergibt sich mit (7.2) 𝜕𝜕𝜕𝜕𝜋𝜋𝜋𝜋 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 − 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑝𝑝𝑝𝑝 + 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 0 , dass im Gewinnmaximum der Grenzerlös MR den Grenzkosten MC entspricht - mit anderen Worten: Der Erlöszuwachs des letzten verkauften Produktes (der Grenzerlös) deckt gerade die zusätzlichen Kosten (die Grenzkosten). Dieser Zusammenhang gilt allgemein für jede Marktstruktur - hier bei vollständiger Konkurrenz genau wie im Monopol (► Kapitel 7.3) und auch im Oligopol (► Kapitel 10). Bei vollständiger Konkurrenz entspricht der Grenzerlös allerdings auch dem Marktpreis 𝑝𝑝𝑝𝑝 . Wenn kein Unternehmen den Preis beeinflussen kann, dann gilt dieser Preis für jede produzierte Menge und so ergibt sich, dass (7.3) 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 0 gilt - mit anderen Worten: Der Preis wird durch den Wettbewerb im Markt bestimmt und ist gegeben, kein einzelnes Unternehmen kann durch seine Produktionsmenge den Preis beeinflussen. Somit vereinfacht sich Gleichung (7.2) bei vollständiger Konkurrenz zu (7.4) 𝜕𝜕𝜕𝜕𝜋𝜋𝜋𝜋 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 − 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑝𝑝𝑝𝑝 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 0; 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) → 𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆𝑆! ↔ 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 , so dass zur Gewinnmaximierung jedes Unternehmen eine Produktionsmenge 𝑞𝑞𝑞𝑞 wählen muss, bei der die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 dem Marktpreis 𝑝𝑝𝑝𝑝 entsprechen. Dieser abstrakte Zusammenhang lässt sich einfach veranschaulichen: Restaurantbetreiber beobachten den für sie jeweils nicht beeinflussbaren Marktpreis für „ein Abendessen üblicher Qualität“ in ihrer Region und bestimmen nun in Kenntnis ihrer Kostensituation die optimale Größe des Restaurants (Tische und Stühle) sowie die Zahl der zu produzierenden Essen. In ► Abbildung 7.3 ist diese Entscheidung graphisch dargestellt. <?page no="278"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 278 Abbildung 7.3: Kurzfristige Gewinne bei vollständiger Konkurrenz. q p, MC, ATC, AVC 0 q* p 0 AVC ATC MC q p, MC, ATC, AVC 0 q* p AVC ATC MC p 1 p 0 Gewinn negativer Gewinn positiver Deckungsbeitrag q p, MC, ATC, AVC 0 q* p AVC ATC MC p 2 p 1 p 0 negativer Gewinn negativer Deckungsbeitrag <?page no="279"?> Entscheidungen eines Unternehmens bei vollständiger Konkurrenz 279 Bei einem U-förmigen Verlauf der Grenzkosten und einem konstanten, von der Produktionsmenge unabhängigen Marktpreis 𝑝𝑝𝑝𝑝 0 ergibt sich eine eindeutige Produktionsmenge 𝑞𝑞𝑞𝑞 - liegen bei dieser Produktionsmenge die totalen Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 niedriger als der Preis, so erzielt das Unternehmen einen Gewinn, der in ► Abbildung 7.3 links durch eine graue Fläche als 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = (𝑝𝑝𝑝𝑝 − 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇) ∗ 𝑞𝑞𝑞𝑞 eingezeichnet ist. Diese Fläche zeigt den maximal möglichen Gewinn für dieses Unternehmen: Jede Vergrößerung oder Verkleinerung der Produktionsmenge würde den Gewinn reduzieren. Dieser Gewinn ist allerdings nicht notwendigerweise positiv, wie aus ► Abbildung 7.3 Mitte zu erkennen ist. Bei identischer Kostensituation liegt der Marktpreis 𝑝𝑝𝑝𝑝 1 jetzt niedriger. Wählt das Unternehmen wieder eine Produktionsmenge, bei der Preis gleich Grenzkosten gilt, dann deckt jetzt der Preis nicht mehr die totalen Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 , allerdings die variablen Durchschnittskosten 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 . Das Unternehmen macht einen Verlust in Höhe von 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = (𝑝𝑝𝑝𝑝 − 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇) ∗ 𝑞𝑞𝑞𝑞 , aber es erzielt einen positiven Deckungsbeitrag - Teile der Fixkosten werden gedeckt. Die graue Fläche beschreibt wiederum den ‚maximalen‘ Gewinn, in diesem Fall allerdings in Form des kleinstmöglichen Verlustes. In einer Situation, in der bei einer optimal gewählten Produktionsmenge 𝑞𝑞𝑞𝑞 ∗ zwar 𝑝𝑝𝑝𝑝 < 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 aber 𝑝𝑝𝑝𝑝 > 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 gilt, sollte ein Unternehmen kurzfristig in jedem Fall im Markt bleiben: es werden offenbar alle variablen Kosten gedeckt und ein positiver Deckungsbeitrag in Höhe von 𝑝𝑝𝑝𝑝 − 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 auf die Fixkosten erzielt. Würde das Unternehmen die Produktion einstellen, steigen die Verluste unmittelbar an und entsprechen dann der Höhe der Fixkosten 𝐹𝐹𝐹𝐹𝑇𝑇𝑇𝑇 . Damit kann in der Realität leicht geprüft werden, ob ein Unternehmen sich in einem durch vollständige Konkurrenz geprägten Wettbewerbsumfeld befindet: Werden in einer Situation rückläufiger oder negativer Gewinne insbesondere Kostensenkungsmaßnahmen eingeleitet, weil strategisch kein Spielraum für Preiserhöhungen vorhanden ist, dann befindet sich das Unternehmen offenbar bei hoher Wettbewerbsintensität in vollständiger Konkurrenz. In ► Abbildung 7.3 rechts ist bei weiter unveränderter Kostensituation der Marktpreis noch niedriger bei 𝑝𝑝𝑝𝑝 2 . Jetzt führt die Regel 𝑝𝑝𝑝𝑝 = 𝑀𝑀𝑀𝑀𝑇𝑇𝑇𝑇 zu einer Produktionsmenge 𝑞𝑞𝑞𝑞 ∗ , für die nicht nur ein absoluter Verlust eintritt, sondern auch 𝑝𝑝𝑝𝑝 < 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 und 𝑝𝑝𝑝𝑝 < 𝐴𝐴𝐴𝐴𝐸𝐸𝐸𝐸𝑇𝑇𝑇𝑇 gilt - ein Unternehmen sollte jetzt die Produktion einstellen, denn es wird ein negativer Deckungsbeitrag erzielt, d.h., mit jedem produzierten Stück vergrößert sich der Verlust über das Niveau der Fixkosten hinaus. Unternehmensspezifische Angebotskurve und Marktangebotskurve Nimmt man die aus den ► Abbildungen 7.3 gewonnenen Beobachtungen zusammen, dann wählt ein Unternehmen bei vollständiger Konkurrenz zur Maximierung des Gewinns offensichtlich immer Produktionsmengen, für die jeweils der Marktpreis 𝑝𝑝𝑝𝑝 den Grenzkosten 𝑀𝑀𝑀𝑀𝑇𝑇𝑇𝑇 des Unternehmens entspricht. Daraus lässt sich unmittelbar die in ► Abbildung 7.4 links skizzierte unternehmensspezifische Angebotskurve ableiten - sie entspricht dem aufsteigenden Ast der Grenzkostenkurve beginnend im Minimum der variablen Durchschnittskosten. Je höher der Preis liegt, desto mehr wird das Unternehmen in Abhängigkeit des Grenzkostenverlaufs anbieten, um seine Gewinne zu maximieren. Im Bereich zwischen der Kurve der totalen und der variablen Durchschnittskosten (helle Punkte) erzielt ein Unternehmen zwar einen positi- <?page no="280"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 280 ven Deckungsbetrag, macht aber absolut Verluste. Im Bereich oberhalb der totalen Durchschnittskosten erzielt ein Unternehmen positive Gewinne. Abbildung 7.4: Unternehmensspezifische Angebotskurve und Marktangebotskurve. Aus der horizontalen Addition der unternehmensindividuellen Angebotskurven kann dann bei jeweiligen Preisen (hier skizziert für 𝑝𝑝𝑝𝑝 1 , 𝑝𝑝𝑝𝑝 2 und 𝑝𝑝𝑝𝑝 3 ) die Marktangebotskurve ermittelt werden. In ► Abbildung 7.4 rechts ist für drei Unternehmen mit unterschiedlichen Grenzkostenverläufen zu erkennen, dass die gestrichelt eingezeichnete Marktangebotskurve mit zunehmender Unternehmenszahl flacher verläuft und sich nach rechts verschiebt. In der Konsequenz verläuft die Marktangebotskurve bei einer großen Zahl an Unternehmen mit identischen Grenzkosten horizontal. Unternehmensstrategie und Wettbewerbsdynamik bei vollständiger Konkurrenz Durch das Zusammenspiel zwischen Angebot und Nachfrage auf dem Markt und den Entscheidungen der Unternehmen können erste Aussagen über typische Muster im Wettbewerb bei vollständiger Konkurrenz abgeleitet werden. In ► Abbildung 7.5 links ist eine Situation skizziert, in der bei gegebener Nachfragefunktion 𝐷𝐷𝐷𝐷 aktuell eine Angebotskurve 𝑆𝑆𝑆𝑆 1 aller aktiven Unternehmen vorliegt. Die Unternehmen werden in Summe eine Menge 𝑄𝑄𝑄𝑄 1 produzieren und zu einem Preis 𝑝𝑝𝑝𝑝 1 verkaufen können. In ► Abbildung 7.5 rechts ist diese Situation auf ein einzelnes Unternehmen übertragen: Beim Preis 𝑝𝑝𝑝𝑝 1 wählt das Unternehmen entsprechend der Regel ‚Preis gleich Grenzkosten’ eine individuelle Produktionsmenge 𝑞𝑞𝑞𝑞 1 , so dass in der Folge ein Gewinn in Höhe der grauen Fläche entsteht. Angebot der Unternehmen 1, 2 und 3 q p, MC, ATC, AVC 0 q* p=AVC AVC ATC MC p 2 p 1 p 0 q p 0 1 p 1 p 2 p 3 MC 3 MC 2 MC 1 6 9 10 13 15 22 18 41 Marktangebot <?page no="281"?> Entscheidungen eines Unternehmens bei vollständiger Konkurrenz 281 Abbildung 7.5: Gewinne und Markteintritt von neuen Unternehmen. Allerdings sind die Gewinne dieses Unternehmens für neue Unternehmen ein Signal zum Markteintritt, denn offensichtlich ist dieser Markt zumindest kurzfristig attraktiv und es können Gewinne erzielt werden. Wenn nun - wie oben als Rahmenbedingung beschrieben - keine Eintrittsbarrieren vorliegen und potenzielle Unternehmen Zugang zur gleichen Technologie und Ressourcen haben, wird die Situation nicht dauerhaft Bestand haben. Langfristig werden Unternehmen in diesen Markt eintreten. In der Folge wird sich, wie in ► Abbildung 7.5 links gezeigt, die Marktangebotskurve nach rechts verschieben und flacher werden. In Summe wird die Produktionsmenge auf 𝑄𝑄𝑄𝑄 2 ansteigen, die nur bei einem reduzierten Marktpreis 𝑝𝑝𝑝𝑝 2 abgesetzt werden kann. In ► Abbildung 7.5 rechts sind die Konsequenzen für ein im Markt befindliches Unternehmen zu erkennen. Aufgrund des jetzt geringeren Marktpreises 𝑝𝑝𝑝𝑝 2 wird dieses Unternehmen seine Produktionsmenge auf 𝑞𝑞𝑞𝑞 2 reduzieren - langfristig ist die Folge, dass bei identischen Unternehmen solange Markteintritte erfolgen, bis der Preis auf das Minimum der totalen Durchschnittskosten sinkt. Jetzt gilt offenbar 𝑝𝑝𝑝𝑝 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 und keines der Unternehmen erzielt einen Gewinn. Tatsächlich sind bei diesem ökonomischen Gewinn von Null natürlich alle Kosten gedeckt, auch die Kapitalkosten, so dass Eigentümer des Unternehmens bspw. Dividenden erhalten. Aus Managementperspektive ist eine wesentliche Erkenntnis: Obwohl der Gesamtmarkt von 𝑸𝑸𝑸𝑸 𝟏𝟏𝟏𝟏 auf 𝑸𝑸𝑸𝑸 𝟐𝟐𝟐𝟐 wächst, wird bei vollständiger Konkurrenz das eigene Unternehmen gezwungen sein, die Produktionsmenge von 𝒒𝒒𝒒𝒒 𝟏𝟏𝟏𝟏 auf 𝒒𝒒𝒒𝒒 𝟐𝟐𝟐𝟐 zu reduzieren, zudem sinken die Gewinne auf Null. Die Ursache liegt im Fehlen von Eintrittsbarrieren: Potenzielle neue Unternehmen werden ungehindert mit Preissenkungen in den Markt eintreten und kurzfristig vorhandene Gewinnmöglichkeiten realisieren. Der beschriebene Wettbewerbsprozess führt dazu, dass alle Unternehmen im Minimum der totalen Durchschnittskosten produzieren - bei vollständiger Konkurrenz sind ständige Kostensenkungsmaßnahmen die Regel, da Unternehmen mit höheren Durchschnittskosten regelmäßig aus dem Markt verdrängt werden. Vollständige Konkurrenz zwingt Unternehmen zu Effizienz. 0 Q D p, MC Q 1 Q 2 p 2 p 1 S 2 S 1 0 q q 2 p 2 p 1 ATC MC q 1 p, MC Markt individuelles Unternehmen kurzfristig langfristig langfristig (Gewinn = 0) kurzfristig (Gewinn > 0) <?page no="282"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 282 Diese Dynamik ist in ► Abbildung 7.6 als Spiegelbild der Entwicklung aus ► Abbildung 7.5 zu sehen: Hier sind zunächst kurzfristig zahlreiche Unternehmen im Markt und produzieren in Summe eine Menge 𝑄𝑄𝑄𝑄 1 bei einem Preis 𝑝𝑝𝑝𝑝 1 . Offensichtlich ist dieser Marktpreis aber so niedrig, dass jedes einzelne Unternehmen einen Verlust in Höhe der grauen Fläche in ► Abbildung 7.6 rechts realisiert. Wenn alle Unternehmen identische Kostensituationen aufweisen, dann werden in der Folge diejenigen Unternehmen aus dem Markt gedrängt, deren Eigenkapitalbasis diese Verluste nicht decken kann - somit gibt es Marktaustritte, die zu einer Verschiebung der Marktangebotskurve zu 𝑆𝑆𝑆𝑆 2 führen. Die verbleibenden Unternehmen sind jetzt in der Lage, einen höheren Preis 𝑝𝑝𝑝𝑝 2 durchzusetzen, so dass die individuellen Unternehmen wieder im Minimum der totalen Durchschnittskosten 𝐴𝐴𝐴𝐴𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 sind und jedes überlebende Unternehmen infolge der Marktaustritte von 𝑞𝑞𝑞𝑞 1 auf 𝑞𝑞𝑞𝑞 2 wächst. Abbildung 7.6: Verluste und Marktaustritt von Unternehmen. Im langfristigen Marktgleichgewicht, wie durch 𝑝𝑝𝑝𝑝 2 und 𝑄𝑄𝑄𝑄 2 in den ► Abbildungen 7.5 und ► Abbildung 7.6 beschrieben, gibt es keinen Anreiz, in die Industrie ein- oder auszutreten, und der Gleichgewichtspreis kommt bei ausgeglichenem Angebot und Nachfrage zustande. Bei vollständiger Konkurrenz kommt der Wettbewerb aber nicht zum Stillstand. Vielmehr ist die Dynamik in Industrien geprägt durch ein wiederholtes Wechselspiel von Eintritten und Austritten und damit von Gewinnen und Verlusten, aber typischerweise werden Gewinne nahe Null realisiert. Unternehmen können bspw. durch Innovationen kurzfristig Wettbewerbsvorteile realisieren und Gewinne steigern. Diese Gewinne ziehen wieder neue Wettbewerber an, langfristig werden alle Unternehmen lernen und die jeweils beste verfügbare Technologie adaptieren, so dass alle Unternehmen identische Effizienz aufweisen und kurzfristig erzielbare Gewinne wieder erodieren. Entsprechend werden bei fehlenden oder wegfallenden Eintrittsbarrieren und fehlenden Sunk Costs natürlich auch fortwährend Ein- und Austritte von Unternehmen stattfinden (Petrakis et al. 1997, Jovanovic 1982 und Münter 1999). In empirischen Studien zeigt sich die hohe Wettbewerbsintensität bei vollständiger Konkur- 0 Q D Q 1 Q 2 p 2 p 1 S 2 S 1 0 q q 2 p 2 p 1 ATC MC q 1 p, MC p, MC Markt individuelles Unternehmen kurzfristig langfristig langfristig (Gewinn = 0) kurzfristig (Gewinn < 0) <?page no="283"?> Produzenten- und Konsumentenrente als Maßstab für ökonomische Wohlfahrt 283 renz durch dauerhaft hohe Ein- und Austrittsraten und in Unternehmen, die sich aufgrund fehlender Marktmacht sehr stark in ihren Strategien ähneln. Bestes Beispiel hierfür sind in Deutschland Restaurants: In dieser Industrie sind wiederholt die höchsten Ein- und Austrittsraten zu beobachten, gleichzeitig sind - außerhalb der Systemgastronomie, die mittels Branding und einem hohen Automatisierungsgrad Economies of Scale erzielen kann - die ökonomischen Gewinne typischerweise nahe Null. Damit sind derartige Industrien eindeutig dem Market-based View zuzurechnen. Diese Unternehmen unterscheiden sich nicht wesentlich in ihren Strategien, allerdings werden aufgrund fehlender Eintrittsbarrieren keine dauerhaften Gewinne erzielt. Die Marktdynamik und Ergebnisse vollständiger Konkurrenz werden ebenfalls im Rahmen ökonomischer Laborexperimente überprüft. Die Erkenntnisse lassen sich zwei Kategorien zuordnen. Zum einen werden bei gegebenen Rahmenbedingungen die erwarteten Preis- und Mengenniveaus sukzessiv über mehrere Spielrunden gut angenähert, zum anderen spielen Erfahrung, Informationsstand und Historie der experimentellen Marktergebnisse eine entscheidende Rolle (Smith 1962 und 1981 sowie Holt 1995), so gilt allerdings auch, dass selbst unter Laborbedingungen das vollständige Eintreten der Ergebnisse vollständiger Konkurrenz eher die Ausnahme als die Regel ist (► Kapitel 10). 7.2 Produzenten- und Konsumentenrente als Maßstab für ökonomische Wohlfahrt Das im vorangegangenen Abschnitt entwickelte Modell vollständiger Konkurrenz findet in der empirischen Realität insbesondere für Industrien und Märkte Bestätigung, in denen aufgrund hoher Wettbewerbsintensität, fehlender Produktdifferenzierung und fehlenden Eintrittsbarrieren zwar eine Vielzahl von Unternehmen konkurrieren, aber keine Gewinne entstehen (► Kapitel 4). Zudem werden die Unternehmen bei vollständiger Konkurrenz zu Effizienz und Preisen auf Niveau der Grenzkosten gezwungen - so bietet dieses Modell einen ersten Orientierungspunkt für wettbewerbspolitische Analysen oder die Regulierung von Märkten (Neumann 1999 und Motta 2004). Der Grund hierfür ist, dass bei vollständiger Konkurrenz - insbesondere im Vergleich mit anderen Wettbewerbssituationen - die ökonomische Wohlfahrt maximiert wird. Ökonomische Wohlfahrt Ökonomische Wohlfahrt beschreibt den Vorteil aus der Existenz eines Wettbewerbsmarktes für eine Gesellschaft, d.h. für Unternehmen und Kunden. In ► Abbildung 7.7 links sind für eine Vielzahl von Kunden und Unternehmen die jeweils individuelle Zahlungsbereitschaft und die Kostensituationen abgebildet. Am Schnittpunkt der daraus abgeleiteten Nachfrage- und Angebotskurve ergibt sich ein Marktpreis 𝑝𝑝𝑝𝑝 und eine aggregierte Produktionsmenge 𝑄𝑄𝑄𝑄 . In diesem Gleichgewicht gibt es aber offenbar Kunden, deren individuelle Zahlungsbereitschaft 𝑍𝑍𝑍𝑍𝐵𝐵𝐵𝐵 𝑃𝑃𝑃𝑃 den Preis übersteigt - diese Kunden erzielen einen individuellen Nutzen und der aggregierte Nutzen aller Kunden, die zum Preis 𝑝𝑝𝑝𝑝 kaufen, entspricht der Konsumentenrente 𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 . Spiegelbildlich gilt dies auch für die Unternehmen: Bei einem Preis 𝑝𝑝𝑝𝑝 sind zahlreiche Unternehmen in <?page no="284"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 284 der Lage, einen Deckungsbeitrag zu erzielen, da der Preis die Grenzkosten übersteigt. Dieser aggregierte Vorteil der Unternehmen wird als Produzentenrente 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 bezeichnet. Typischerweise ist die Produzentenrente nicht gleich dem Gewinn: Die Marktangebotskurve entspricht den Grenzkostenverläufen, so dass der Unterschied durch Fixkosten begründet ist, so dass 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 - 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 𝜋𝜋𝜋𝜋 gilt. Abbildung 7.7: Produzenten- und Konsumentenrente in einem Marktgleichgewicht. Ein Marktgleichgewicht bei vollständiger Konkurrenz ist sowohl für Kunden und Unternehmen vorteilhaft: Kunden realisieren einen Nutzen, Unternehmen realisieren Gewinne. Der Vorteil aus der Existenz eines Wettbewerbsmarktes kann durch die Addition von Konsumenten- und Produzentenrente ermittelt werden und wird als ökonomische Wohlfahrt bezeichnet - in ► Abbildung 7.7 rechts zu erkennen in Form der beiden Dreiecksflächen. Der Umfang an ökonomischer Wohlfahrt ist zum einen die Messlatte für die Funktionsfähigkeit eines Marktes, zum anderen müssen alle wirtschafts- und wettbewerbspolitischen Maßnahmen und Eingriffe in Märkte betreffend ihrer Wirkung auf die ökonomische Wohlfahrt beurteilt werden. Quantifizierung der Effekte von Preisregulierung auf die ökonomische Wohlfahrt Wirtschaftspolitik greift bspw. in Form der Mietpreisbremse, des Mindestlohns, der Regulierung von Roamingentgelten im Mobilfunk, bei Taxientgelten oder durch Genehmigung von Posttarifen in die Preisbildung durch die Festlegung eines Mindest- oder Höchstpreises ein. Oft ist das Ziel, Kunden oder Unternehmen gegenüber der tatsächlichen Wettbewerbssituation besserzustellen - bspw. die Preise für Kunden zu senken: Ob eine Besserstellung gelingt, hängt von der Wirkung der Preisregulierung auf die Konsumenten- und Produzentenrente ab. In ► Abbildung 7.8 ist zunächst zu sehen, dass durch Einführung eines Höchst- oder Mindestpreises verhindert wird, dass ein Marktgleichgewicht zustande kommt - Angebot und Nachfrage sind nicht mehr ausgeglichen. p Q 0 p Q Δ =p-MC i Δ =ZB i -p p Q 0 Produzentenrente PS Konsumentenrente CS p S D Q individuelle Zahlungsbereitschaften verschiedender Kunden individuelle Kostensituation verschiedener Unternehmen <?page no="285"?> Produzenten- und Konsumentenrente als Maßstab für ökonomische Wohlfahrt 285 Abbildung 7.8: Wohlfahrtsverlust durch Höchst- oder Mindestpreise. Ein Höchstpreis 𝑝𝑝𝑝𝑝 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 soll meist die Kunden schützen: Grundüberlegung ist, dass bei einem Höchstpreis (der unter dem Gleichgewichtspreis festgelegt wird) mehr Kunden das Produkt erwerben können. Wird aber, wie in ► Abbildung 7.8 links, ein Höchstpreis 𝑝𝑝𝑝𝑝 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 eingeführt, dann wird tatsächlich in der Folge die Angebotsmenge der Unternehmen zurückgehen. Der Grund liegt darin, dass bei einem niedrigeren maximalen Preis einige Unternehmen ihre Grenzkosten nicht mehr decken können und aus dem Markt austreten. Umgekehrt ist in ► Abbildung 7.8 rechts ein Mindestpreis 𝑝𝑝𝑝𝑝 𝑚𝑚𝑚𝑚𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 zur Besserstellung der Unternehmen eingeführt - auch in diesem Fall sinkt aber durch eine reduzierte Nachfrage der Kunden die Menge. Zwangsläufig kommt es in beiden Fällen zu einer Umverteilung der ökonomischen Wohlfahrt in Form von Veränderungen der Konsumenten- und der Produzentenrente, allerdings sind die Effekte nicht eindeutig und müssen quantifiziert werden. Zudem führt eine Preisregulierung typischerweise zu einem Wohlfahrtsverlust (Dead Weight Loss DWL) - die Summe der Konsumenten- und Produzentenrente im Vergleich von ► Abbildung 7.8 zu ► Abbildung 7.7 ist definitiv um das weiße Dreieck DWL reduziert. Wirtschaftspolitik muss daher die Wirkung auf die ökonomische Wohlfahrt und Unternehmen und Konsumenten sowie den entstehenden Wohlfahrtsverlust immer mitberücksichtigen. Wohlfahrtseffekte können durch Veränderungen von Konsumenten- oder Produzentenrente quantifiziert werden. In ► Abbildung 7.9 links ist ein Höchstpreis 𝑝𝑝𝑝𝑝 1 eingezeichnet, der unter dem Gleichgewichtspreis 𝑝𝑝𝑝𝑝 0 liegt. Durch den eingeführten Höchstpreis werden die Unternehmen die Produktionsmenge von 𝑄𝑄𝑄𝑄 0 auf 𝑄𝑄𝑄𝑄 1 reduzieren. Damit geht einher, dass ein Teil der bisherigen Produzentenrente - die Fläche A - in Konsumentenrente umgewandelt wird, aber auch ein Wohlfahrtsverlust in Form eines Rückgang der Konsumentenrente um die Fläche B und eines Rückgang der Produzentenrente um die Fläche C - alle drei Flächen lassen sich durch (7.5) 𝐴𝐴𝐴𝐴 = (𝑝𝑝𝑝𝑝 0 − 𝑝𝑝𝑝𝑝 1 )𝑄𝑄𝑄𝑄 1 (7.6) 𝐵𝐵𝐵𝐵 = (𝑝𝑝𝑝𝑝 ′ − 𝑝𝑝𝑝𝑝 0 ) (𝑄𝑄𝑄𝑄0−𝑄𝑄𝑄𝑄1) 2 und Höchstpreis Mindestpreis p Q 0 S D p min Q 0 Q(p min ) CS PS p Q 0 S D p max CS PS DWL DWL Q 0 Q(p max ) Wohlfahrtsverlust <?page no="286"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 286 (7.7) 𝐶𝐶𝐶𝐶 = (𝑝𝑝𝑝𝑝 0 − 𝑝𝑝𝑝𝑝 1 ) (𝑄𝑄𝑄𝑄0−𝑄𝑄𝑄𝑄1) 2 direkt berechnen. Der absolute Wohlfahrtsverlust ergibt sich aus der Addition von (7.6) und (7.7), die Veränderung der Konsumenten- und Produzentenrente als (7.8) ∆𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 = 𝐴𝐴𝐴𝐴 − 𝐴𝐴𝐴𝐴 und (7.9) ∆𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 = −𝐴𝐴𝐴𝐴 − 𝐶𝐶𝐶𝐶 . Die Produzentenrente geht bei einem Höchstpreis in jedem Fall zurück. Der Effekt auf die Konsumentenrente hängt von der Größe der beiden Effekte A und B ab und kann in seiner Richtung per se nicht eindeutig bestimmt werden. Ob die durch den Höchstpreis beabsichtige Verbesserung der Konsumentenrente erzielt wird, hängt vom Verlauf der Angebots- und Nachfragekurve ab und muss für jede wettbewerbspolitische Maßnahme ermittelt werden. Abbildung 7.9: Höchst- und Mindestpreise und die Umwandlung der Produzentenin Konsumentenrente. Bei Mindestpreisen wird der Preis über das Gleichgewichtsniveau angehoben, so dass sich, wie in ► Abbildung 7.9 rechts skizziert, die Veränderung von Konsumenten- und Produzentenrente sowie des Wohlfahrtsverlustes aus (7.10) 𝐴𝐴𝐴𝐴 = (𝑝𝑝𝑝𝑝 1 − 𝑝𝑝𝑝𝑝 0 )𝑄𝑄𝑄𝑄 1 (7.11) 𝐴𝐴𝐴𝐴 = (𝑝𝑝𝑝𝑝 1 − 𝑝𝑝𝑝𝑝 0 ) (𝑄𝑄𝑄𝑄0−𝑄𝑄𝑄𝑄1) 2 und (7.12) 𝐶𝐶𝐶𝐶 = (𝑝𝑝𝑝𝑝 0 − 𝑝𝑝𝑝𝑝 ′ ) (𝑄𝑄𝑄𝑄0−𝑄𝑄𝑄𝑄1) 2 als (7.13) ∆𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 = −𝐴𝐴𝐴𝐴 − 𝐴𝐴𝐴𝐴 (7.14) ∆𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 = +𝐴𝐴𝐴𝐴 − 𝐶𝐶𝐶𝐶 und p Q 0 p 0 S D p 1 Q 0 Q 2 Q 1 A C B p‘ A = Umwandlung von Produzentenrente in Konsumentenrente B + C = absoluter Wohlfahrtsverlust p Q 0 p 0 S D p 1 Q 0 Q 2 Q 1 A C B p‘ A = Umwandlung von Konsumentenrente in Produzentenrente B + C = absoluter Wohlfahrtsverlust <?page no="287"?> Produzenten- und Konsumentenrente als Maßstab für ökonomische Wohlfahrt 287 (7.15) 𝐷𝐷𝐷𝐷𝑊𝑊𝑊𝑊𝐿𝐿𝐿𝐿 = −𝐵𝐵𝐵𝐵 − 𝐵𝐵𝐵𝐵 ergeben. Bei Mindestpreisen können Unternehmen profitieren, wenn der Effekt aus einer Umwandlung A der Konsumentenin Produzentenrente den Verlust C an Produzentenrente übertrifft, die Konsumenten sind in jedem Fall schlechter gestellt.  Case Study | Regulierung des Milchpreises Die europäische Milchindustrie ist in den vergangenen Jahrzehnten wiederholt durch wettbewerbspolitische Eingriffe wie Mindestpreise oder Produktionsmengenbeschränkungen reguliert worden. Ziel ist oft eine Unterstützung der landwirtschaftlichen Unternehmen, zuletzt mit der im März 2015 ausgelaufenen Milchquotenregelung. Mit dem Auslaufen dieser Regulierung haben zahlreiche Betriebe ihre Produktionsmengen erhöht, so dass in der Folge bei vollständiger Konkurrenz Preisreduktionen stattgefunden haben, die einige Unternehmen in ihrer Überlebensfähigkeit bedroht (Grossarth 2016). Im Folgenden wird daher knapp betrachtet, ob eine von der Milch-Lobby geforderte Einführung eines Mindestpreises die Überlebensfähigkeit der Unternehmen sicherstellen kann. Ein regionaler Markt für Milch ist gekennzeichnet durch eine sehr große Anzahl kleiner Unternehmen, im Wesentlichen lokaler Landwirtschaftsbetriebe. Die Nachfrage 𝐷𝐷𝐷𝐷 nach Milch ist gegeben durch 𝑝𝑝𝑝𝑝 = 5 - 0,001 𝑄𝑄𝑄𝑄 , das Angebot 𝑆𝑆𝑆𝑆 durch 𝑝𝑝𝑝𝑝 = 0,5 + 0,0001 𝑄𝑄𝑄𝑄 . Die Landwirte haben relativ hohe Fixkosten zu tragen, in Summe aller Bauern betragen diese 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 1.000 . Der Landwirtschaftsminister plant, einen Mindestpreis für Milch von p 1 = 1,00 festzulegen, um die Landwirte in ihrer Existenz zu sichern. Aus wettbewerbspolitischer Perspektive ist maßgeblich, welche qualitativen und quantitativen Effekte auf die Produzenten- und Konsumentenrente sowie die Wohlfahrt des Marktes ausgehen. Abbildung 7.10: Ausgangssituation und Preisregulierung am Milchmarkt. Um den Preis 𝑝𝑝𝑝𝑝 und die Gesamtproduktionsmenge 𝑄𝑄𝑄𝑄 in der Ausgangssituation zu bestimmen, werden zunächst Angebots- und Nachfragefunktion gleichgesetzt, so dass aus (7.16) 5 − 0,001𝑄𝑄𝑄𝑄 = 0,5 + 0,0001𝑄𝑄𝑄𝑄 und Umstellen die Produktionsmenge p Q 0 0,909 S D 1,00 4090,91 Q 1 A C B p‘ p Q 0 PS CS p S D Q 0,5 5,0 +0,0001 -0,001 <?page no="288"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 288 (7.17) 4,5 = 0,0011𝑄𝑄𝑄𝑄 → 𝑄𝑄𝑄𝑄 0 = 4090,9 sowie der Gleichgewichtspreis (7.18) 𝑝𝑝𝑝𝑝 𝐷𝐷𝐷𝐷 = 5 − (0,001 ⋅ 4090,9) = 0,9091 → 𝑝𝑝𝑝𝑝 𝑆𝑆𝑆𝑆 = 0,5 + (0,0001 ⋅ 4090,9) = 0,9091 folgt. Damit ergeben sich die Konsumenten- und Produzentenrente sowie die Gewinne der Landwirte als (7.19) 𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 0 = (5 − 0,9091) ⋅ 4090,9 2 = 8.367,77 (7.20) 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 0 = (0,9091 − 0,5) ⋅ 4090,9 2 = 836,78 (7.21) 𝜋𝜋𝜋𝜋 0 = 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 0 − 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 836,78 − 1.000 = −163,22 , so dass die Landwirte in Summe in der aktuellen Situation bei einem Preis von 𝑝𝑝𝑝𝑝 = 0,9091 tatsächlich einen Verlust in Höhe von 𝜋𝜋𝜋𝜋 0 =- 163,22 realisieren. Aufgrund des steigenden Verlaufs der Angebotskurve kann es durchaus sein, dass einige der Unternehmen kurzfristig positive Gewinne aufgrund niedrigerer Grenzkosten erzielen. Wird nun, wie in ► Abbildung 7.10 skizziert, ein Mindestpreis von 𝑝𝑝𝑝𝑝 1 = 1,00 oberhalb des bisherigen Marktpreises eingeführt, dann reduziert sich die Nachfrage nach Milch wegen (7.22) 𝑝𝑝𝑝𝑝 1 = 1 = 5 − 0,001 ⋅ 𝑄𝑄𝑄𝑄 → 0,001 ⋅ 𝑄𝑄𝑄𝑄 = 4 auf 𝑄𝑄𝑄𝑄 1 = 4.000 . Berechnet man zunächst 𝑝𝑝𝑝𝑝‘ anhand von (7.23) 𝑝𝑝𝑝𝑝𝑝 = 0,5 + 0,0001𝑄𝑄𝑄𝑄 1 = 0,5 + 0,0001 ⋅ 4.000 = 0,9 , so ergeben sich die zur Berechnung der Wohlfahrtseffekte notwendigen Flächen (7.24) 𝐴𝐴𝐴𝐴 = (1 − 0,909) ⋅ 4.000 = 363,64 und (7.25) 𝐵𝐵𝐵𝐵 = (1 − 0,909) ⋅ 4090,9−4000 2 = 4,13 sowie (7.26) 𝐶𝐶𝐶𝐶 = (0,909 − 0,9) ⋅ 4090,9−4000 2 = 0,41 . Im zweiten Schritt können jetzt die Veränderungen von Konsumenten- und Produzentenrente und die Auswirkungen auf den Gewinn als (7.27) 𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 1 = 𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 0 − 𝐴𝐴𝐴𝐴 − 𝐵𝐵𝐵𝐵 = 8.367,77 − 363,64 − 4,13 = 8.000 (7.28) ∆𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 = −𝐴𝐴𝐴𝐴 − 𝐵𝐵𝐵𝐵 = −363,64 − 4,13 = −367,77 (7.29) 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 1 = 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 0 + 𝐴𝐴𝐴𝐴 − 𝐶𝐶𝐶𝐶 = 836,78 + 363,64 − 0,41 = 1.200 (7.30) ∆𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 = +𝐴𝐴𝐴𝐴 − 𝐶𝐶𝐶𝐶 = 363,64 − 0,41 = 363,23 sowie (7.31) 𝜋𝜋𝜋𝜋 1 = 𝑃𝑃𝑃𝑃𝑆𝑆𝑆𝑆 1 − 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 = 1.200 − 1.000 = 200 ermittelt werden. Der Mindestpreis hat offenbar den beabsichtigten Effekt: Der ursprüngliche Verlust 𝜋𝜋𝜋𝜋 0 = −163,22 der Landwirte wandelt sich in einen geringen Gewinn 𝜋𝜋𝜋𝜋 1 = 200 um. Zudem ist der Wohlfahrtsverlust (7.32) 𝐷𝐷𝐷𝐷𝑊𝑊𝑊𝑊𝐿𝐿𝐿𝐿 = −𝐵𝐵𝐵𝐵 − 𝐶𝐶𝐶𝐶 = −4,13 − 0,41 = −4,54 <?page no="289"?> Monopol und marktbeherrschende Unternehmen 289 relativ zur Transformationswirkung gering, d.h. ein, je nach politischer Grundausrichtung, ggfs. akzeptabler Eingriff in den Markt. Allerdings muss klar sein: Alle Kunden zahlen jetzt um etwa 10 % höhere Preise, die nachgefragte Menge geht um 2,2 % zurück und damit geht einher, dass auch die Zahl der Unternehmen zurückgeht. D.h., trotz des wettbewerbspolitischen Eingriffs in den Markt werden ohne weitere Maßnahmen ebenfalls landwirtschaftliche Unternehmen zum Marktaustritt gezwungen. 7.3 Monopol und marktbeherrschende Unternehmen Historisch wurden sehr viele Dienstleistungen durch Monopole - ein einziges Unternehmen - erbracht: Telekommunikation, Post, Bahn, Elektrizität oder Lotterien. Typischerweise besitzt ein Monopolist Marktmacht und kann in der Folge, anders als die Unternehmen bei vollständiger Konkurrenz, strategische Wettbewerbsparameter beeinflussen und bspw. den Preis über das Wettbewerbsniveau anheben. Ein Monopolist oder allgemeiner ein marktbeherrschendes Unternehmen kann aber auch die Produktqualität, die Kapazität oder den technischen Fortschritt im eigenen Interesse beeinflussen. Zudem führt der fehlende Wettbewerb dazu, dass für die Unternehmen kein Effizienzdruck vorhanden ist - ein Besuch in der örtlichen Postfiliale mag dies verdeutlichen. Die Ursachen für Monopole und marktbeherrschende Unternehmen spielen oftmals wechselseitig zusammen:  Staatliche Lizenzen oder Unternehmen - in vielen Industrien erteilt der Staat Lizenzen oder betreibt Unternehmen selbst. Die Gründe können Standardisierung, Investitionsbedarf (bspw. für eine landesweite Schieneninfrastruktur), Preiskontrolle, Qualitätssicherung oder das absichtliche Verhindern von Wettbewerb aufgrund von potenziellem Marktversagen sein. Allerdings fallen die historischen Begründungen für Monopole oftmals weg - so gibt es zwar nach wie vor staatliche und regionale Taxilizenzen, ein Investitionsschutz für den Erwerb der Fahrzeuge und den Aufbau einer Taxizentrale mit Gebietsschutz, wie nach dem Zweiten Weltkrieg, sowie eine Ortskundeprüfung scheinen aber in Zeiten von Navigationsgeräten und Taxi-Apps überholt (Haucap et al. 2015).  Economies of Scale - durch umfangreiche Skalenerträge in Relation zur absoluten Marktgröße können signifikante Kostenvorteilen entstehen, die dem größten Unternehmen ein natürliches Monopol verschaffen (► Kapitel 6).  Unternehmensspezifische Fähigkeiten - ein oder mehrere Unternehmen besitzen dauerhaft nicht imitierbare Fähigkeiten, die über Wettbewerbsvorteile zu einem Alleinstellungsmerkmal führen. Wenn damit bspw. Economies of Scale verbunden sind, werden andere Unternehmen aufgrund von Eintrittsbarrieren vom Markteintritt abgehalten und es entsteht eine nicht angreifbare marktbeherrschende Stellung (► Kapitel 4).  Strategische Effekte und Rollenverteilung - durch langjährigen Wettbewerb und wiederholte Investitionen in F&E oder Marketing kann es einem Unternehmen gelingen, eine marktbeherrschende Rolle aufzubauen (weiterführend ► Kapitel 10 zu Stackelberg- Marktführung). Damit geht einher, dass die Kunden insbesondere horizontale Produktdifferenzierung wahrnehmen und aufgrund hoher Markenloyalität eine geringe Wechselbe- <?page no="290"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 290 reitschaft und höhere Preise selbst bei fehlender vertikaler Produktdifferenzierung akzeptieren - ein hoher Marktanteil alleine begründet dann perspektivisch auch Marktmacht (Wernerfelt 1991 und Rhoades 1985).  Patente - ein Unternehmen besitzt aufgrund von Produkt- oder Prozessinnovationen temporär, in Deutschland und der EU derzeit für maximal 20 Jahre, exklusive Rechte für die Produktion oder den Vertrieb bestimmter Produkte oder Dienstleistungen. Im Wesentlichen sollen durch den Patentschutz die Appropriierungsbedingungen verändert und so Anreize für kostenintensive und risikobehaftete F&E-Projekte geschaffen werden (Levin 1986, Levin et al. 1987 sowie Gilbert und Shapiro 1990). Allerdings können Unternehmen durch präventive Patentierung auch strategische Eintrittsbarrieren für Wettbewerber aufbauen (Gilbert und Newbery 1982).  Netzwerkeffekte - nachfrageseitige direkte oder indirekte Netzwerkeffekte (► Kapitel 2) können ebenfalls zu einer marktbeherrschenden Stellung eines Unternehmens führen, dass in der Lage ist, eine mehrseitige Plattform aufzubauen oder zu kontrollieren (Evans 2003 sowie Haucap und Heimeshoff 2017).  Exklusive oder weitreichende Kontrolle wesentlicher Ressourcen - Diamonds are a girl’s best friend …. Das Unternehmen um die Familie de Beers kontrollierte bis 2005 einen signifikanten Anteil von etwa 85 % aller Diamantminen der Welt und hatte eine marktbeherrschende Stellung. In der Folge hatte keiner der kleineren Wettbewerber Interesse an einem Preiskampf, denn alle Unternehmen in der Industrie profitieren von den durch de Beers gesetzten sehr hohen Preise. Die Kontrolle wesentlicher Ressourcen kann aber bspw. auch für Mitarbeiter gelten: Fußballvereine wie Paris St. Germain FC, FC Barcelona oder FC Chelsea können durch Beschäftigung der besten Spieler versuchen, eine marktbeherrschende Stellung einzunehmen. In ähnlicher Weise gilt dies für Managementberatungen und Investmentbanken. Gewinnmaximierung durch Wahl der Produktionsmenge im Monopol Ein erster zentraler Unterschied zwischen vollständiger Konkurrenz und Monopol ist anhand von ► Abbildung 7.11 ersichtlich. Zwar maximiert auch ein Monopolist seinen Gewinn durch die Wahl der Produktionsmenge 𝑞𝑞𝑞𝑞 ∗ , so dass auch im Monopol (7.33) 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = 𝑅𝑅𝑅𝑅(𝑞𝑞𝑞𝑞) − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) mit 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) → 𝑆𝑆𝑆𝑆𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎! mit (7.34) 𝜕𝜕𝜕𝜕𝜋𝜋𝜋𝜋 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 − 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 0 die Bedingung Grenzerlös gleich Grenzkosten erfüllt ist. Allerdings ist der Preis nicht marktbestimmt, sondern wird durch die vom Monopol angebotene Menge beeinflusst. Aus diesem Grund verläuft die Erlöskurve 𝑅𝑅𝑅𝑅 = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 nichtlinear ansteigend, sondern als eine nach unten geöffnete Parabel (► Kapitel 1). <?page no="291"?> Monopol und marktbeherrschende Unternehmen 291 Abbildung 7.11: Monopol und Gewinnmaximierung. Aus Managementperspektive ist nicht so sehr die absolute Gewinnmaximierung wesentlich, sondern vielmehr die ableitbaren Strategien und deren Stoßrichtungen: Ist die aktuelle Menge geringer als eine gewinnmaximierende Menge 𝑞𝑞𝑞𝑞 ∗ , dann sollte das Unternehmen die Produktionsmenge ausweiten. Der Grund liegt darin, dass links von 𝑞𝑞𝑞𝑞 ∗ die Erlöskurve steiler ansteigt als die Gesamtkostenkurve - mit zunehmender Menge steigt der Erlös stärker als die Kosten, so dass die Grenzkosten unter den Grenzerlösen liegen, und der Gewinn steigt an. Rechts von 𝑞𝑞𝑞𝑞 ∗ sind die Grenzerlöse geringer als die Grenzkosten - das Unternehmen reduziert durch weiteres Wachstum den Gewinn. Die Ursache hierfür ist nicht nur der überproportionale Kostenanstieg, sondern das Unternehmen muss gleichzeitig die Preise reduzieren, um die höhere Produktionsmenge verkaufen zu können - beide Effekte zusammengenommen erklären den Gewinnrückgang. Für Unternehmen mit Marktmacht ist somit Wachstum nicht immer die richtige Strategie. In ► Abbildung 7.12 sind zwei Unternehmen mit vergleichbaren und kurzfristig stabilen Kosten- und Erlösfunktionen zu sehen. Für Unternehmen A ist nach einem Verlust im Jahr 2014 offenbar eine Reduktion der Produktionsmenge sinnvoll. Zum einen sinken die Kosten überproportional im Bereich abnehmender Skalenerträge, zum anderen können bei geringerer Produktionsmenge im Jahr 2015 bei den Kunden auch wieder höhere Preise durchgesetzt werden, so dass die Erlöse ansteigen. Unternehmen B hat sich dagegen, auf Basis der Gewinn- und Grenzerlös-Grenzkosten- Situation im Jahr 2014, zwar richtig für Wachstum entschieden - allerdings ist das Unternehmen zu stark gewachsen, so dass daraus im Jahr 2015 niedrigere Gewinne als im Jahr 2014 resultieren. Menge q Gewinne π Erlöse R Kosten TC 0 R TC π q 0 q 1 q* A B Grenzerlös > Grenzkosten Ausweitung der Produktionsmenge ist Gewinn steigernd Grenzerlös < Grenzkosten Ausweitung der Produktionsmenge ist Gewinn reduzierend π max π max <?page no="292"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 292 Abbildung 7.12: Gewinne und unterschiedliche Strategien. Spezifischer lassen sich Entscheidungen von marktbeherrschenden Unternehmen auch mathematisch anhand von expliziten Nachfrage- (7.35) und Erlösfunktionen (7.36) und zugehöriger Kostenfunktion (7.38) wie (7.35) 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) = 𝑎𝑎𝑎𝑎 𝑎 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 (7.36) 𝑅𝑅𝑅𝑅(𝑞𝑞𝑞𝑞) = 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 (7.37) 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 ⋅ 𝑞𝑞𝑞𝑞 + 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 analysieren. Daraus ergibt sich eine Gewinnfunktion (7.38) 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = 𝑅𝑅𝑅𝑅 𝑎 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = (𝑎𝑎𝑎𝑎 𝑎 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞)𝑞𝑞𝑞𝑞 𝑎 (𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 ⋅ 𝑞𝑞𝑞𝑞 + 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶) = 𝑎𝑎𝑎𝑎𝑞𝑞𝑞𝑞 𝑎 𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 2 𝑎 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 ⋅ 𝑞𝑞𝑞𝑞 𝑎 𝐹𝐹𝐹𝐹𝐶𝐶𝐶𝐶 → 𝑆𝑆𝑆𝑆𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎! , die durch Wahl der Produktionsmenge (7.39) 𝜕𝜕𝜕𝜕𝜋𝜋𝜋𝜋 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 = 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 𝑎 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 𝑎𝑎𝑎𝑎 𝑎 2𝑏𝑏𝑏𝑏𝑞𝑞𝑞𝑞 𝑎 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 0 maximiert wird. Der Gewinn wird offensichtlich durch eine Produktionsmenge (7.40) 𝑞𝑞𝑞𝑞 ∗ = 𝑚𝑚𝑚𝑚−𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 2𝑏𝑏𝑏𝑏 maximiert. Für Gleichung (7.40) gibt es natürlich eine ökonomische Interpretation: 𝑎𝑎𝑎𝑎 beschreibt die maximale Zahlungsbereitschaft der Kunden in diesem Markt und 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 bezeichnet die Grenzkosten des Unternehmens, so dass die Differenz 𝑎𝑎𝑎𝑎 𝑎 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 ein vereinfachtes Maß für die Wettbewerbsfähigkeit des Unternehmens darstellt, wobei 1/ 𝑏𝑏𝑏𝑏 ein Maß für die Größe des Marktes ist. Differenziert man nun Gleichung (7.40) partiell nach diesen einzelnen Einflussgrößen, um die Effekte auf die Unternehmensstrategie zu ermitteln, dann ergibt sich mit (7.41) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞∗ 𝜕𝜕𝜕𝜕𝑚𝑚𝑚𝑚 = 1 2𝑏𝑏𝑏𝑏 > 0; 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞∗ 𝜕𝜕𝜕𝜕𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 = 𝑎 1 2𝑏𝑏𝑏𝑏 < 0; 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞∗ 𝜕𝜕𝜕𝜕𝑏𝑏𝑏𝑏 = 𝑎 𝑚𝑚𝑚𝑚−𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 2𝑏𝑏𝑏𝑏2 < 0 , Menge q Gewinne π, Erlöse R, Kosten TC 0 R TC π q 0 q 2014 q 2015 Menge q 0 R TC π q 0 q 2014 q 2015 Unternehmen A Unternehmen B Gewinne π, Erlöse R, Kosten TC <?page no="293"?> Monopol und marktbeherrschende Unternehmen 293 dass eine Erhöhung der Zahlungsbereitschaft 𝑎𝑎𝑎𝑎 , ein Rückgang der Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 und ein Wachstum der Marktgröße 1/ 𝑏𝑏𝑏𝑏 jeweils einen positiven Effekt auf die optimale Unternehmensgröße 𝑞𝑞𝑞𝑞 haben. In ► Abbildung 7.13 ist dieser abstrakte Zusammenhang für die Deutsche Post vor dem Hintergrund aktueller Veränderungen der Nachfrage- und Kostensituation bei privaten Briefsendungen konkretisiert. Abbildung 7.13: Strategieentwicklung für die Anzahl der Postfilialen in Deutschland. Alle drei relevanten Parameter verstärken sich wechselseitig und deuten betreffend privater Briefsendungen in eine eindeutige Richtung: Die Zahl der Filialen 𝑞𝑞𝑞𝑞 wird in den nächsten Jahren weiter reduziert werden. Insbesondere der eindeutige Rückgang der Wettbewerbsfähigkeit 𝑎𝑎𝑎𝑎 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 - die Zahlungsbereitschaft 𝑎𝑎𝑎𝑎 sinkt und die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 steigen an - führt dazu, dass zur Sicherung der Überlebensfähigkeit die Unternehmensgröße nach unten angepasst wird. Wenn für ein Unternehmen die Kostenfunktion aus der Controllingabteilung und die Nachfragefunktion aus der Marketingabteilung explizit vorliegt, kann die Strategieabteilung unmittelbar die optimale Anzahl an Filialen und deren künftige Entwicklung im Zeitablauf festlegen - aktuell gilt dies stark in der Finanzdienstleisterindustrie (Schwartz et al. 2017). Messung von Marktmacht und deren Einflussfaktoren Marktmacht im Allgemeinen ermöglicht einem Unternehmen, einzelne oder sogar alle strategischen Parameter zu beeinflussen, ohne dass dies Wettbewerber ausnutzen können. Marktmacht kann dabei sehr viele Formen annehmen: So beschränken Unternehmen den Wettbewerbsprozess und verhindern Markteintritte, diktieren die Konditionen gegenüber Zulieferern, zwingen Kunden zum Einverständnis in unvorteilhafte allgemeine Geschäftsbedingungen, setzen im Vergleich zu Wettbewerbern überhöhte Preise oder bieten schlechte Qualität - ohne dass die Kunden zu Wettbewerbern wechseln. Marktmacht geht zwar häufig mit einem hohen Marktanteil einher, wird aber nicht durch einen hohen Marktanteil begründet. 2015 ca. 19.500 Postfilialen in Deutschland (inkl. Shop-in-Shop und Agenturen) Bestimmungsgrößen optimale Produktionsmenge Zahlungsbereitschaft geht zurück ( a sinkt) wegen WhatsApp, SMS und anderen kostenlosen Alternativen  negativer Effekt auf die Zahl der Filialen Wie wird sich die Zahl der Filialen der Deutschen Post entwickeln? durch Lohnerhöhung und limitierte Möglichkeiten der Automatisierung steigen die Grenzkosten (MC steigt)  negativer Effekt auf die Zahl der Filialen Größe des Marktes nimmt ab ( b steigt), weil wesentliche schriftliche Sendungen per E-Mail erfolgen können  negativer Effekt auf die Zahl der Filialen q ∗ = a − MC 2b ≈ 19.500 𝜕𝜕𝜕𝜕q ∗ 𝜕𝜕𝜕𝜕a > 0 𝜕𝜕𝜕𝜕q ∗ 𝜕𝜕𝜕𝜕MC < 0 𝜕𝜕𝜕𝜕q ∗ 𝜕𝜕𝜕𝜕b < 0 <?page no="294"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 294 Im konkreten Fall der Preissetzung kann Marktmacht auch gemessen werden: Marktmacht misst die Fähigkeit eines Unternehmens, den Preis über die Grenzkosten zu erhöhen. Die Gewinnfunktion (7.38) lässt sich auch als (7.42) 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞) = 𝑅𝑅𝑅𝑅(𝑞𝑞𝑞𝑞) − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) = 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞)𝑞𝑞𝑞𝑞 − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞) formulieren. Leitet man (7.43) nach der optimalen Produktionsmenge 𝑞𝑞𝑞𝑞 ab und stellt um zu (7.43) 𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) + 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 , erhält man wieder die Bedingung Grenzerlös gleich Grenzkosten. Dividiert man nun (7.43) durch den Preis 𝑝𝑝𝑝𝑝 , stellt um und setzt für 𝑝𝑝𝑝𝑝𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝 = 𝜀𝜀𝜀𝜀 die Preiselastizität der Nachfrage ein, ergibt sich (7.44) 1 + 𝜕𝜕𝜕𝜕𝑝𝑝𝑝𝑝(𝑞𝑞𝑞𝑞) 𝜕𝜕𝜕𝜕𝑞𝑞𝑞𝑞 𝑞𝑞𝑞𝑞𝑝𝑝𝑝𝑝 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 → 1 + 1𝜀𝜀𝜀𝜀 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 ⇒ 𝑝𝑝𝑝𝑝𝑝𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 = − 1𝜀𝜀𝜀𝜀 . Die Preis-Grenzkosten-Marge 𝑝𝑝𝑝𝑝𝑝𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 wird bestimmt durch die Höhe der Preiselastizität der Nachfrage. Die Preiselastizität ist umso kleiner, je weniger Alternativen die Kunden zum Kauf eines Produktes haben - so ist klar, dass die Preise von einem marktbeherrschenden Unternehmen erhöht werden können. Zudem bestätigt sich über den Lerner-Index (Lerner 1934) (7.45) 𝐿𝐿𝐿𝐿 𝑃𝑃𝑃𝑃 = 𝑝𝑝𝑝𝑝𝑝𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 𝑝𝑝𝑝𝑝 𝜖𝜖𝜖𝜖[0; 1] als Messgröße für Marktmacht, dass Unternehmen bei vollständiger Konkurrenz keine Marktmacht besitzen: Die Produktionsmenge wird so gewählt, dass der Preis den Grenzkosten entspricht, so dass (7.45) gegen Null strebt. Umgekehrt kann der Lerner-Index für einen Monopolisten mit vollständiger Marktbeherrschung bis auf Eins steigen. Marktmacht in ausgewählten Industrien Industrie Lerner-Index Fleisch- und Wursteinzelhandel 0,00 Brauereien 0,01 Kaffeeröstereien 0,06 Tankstellen 0,10 Eisenbahn 0,40 Finanzdienstleister 0,40 Frühstückscerealien 0,45 Tabakindustrie 0,67 Tabelle 7.1: Marktmacht in ausgewählten Industrien Quelle: Tremblay und Tremblay, 2012, S. 322, sowie dort angeführte Untersuchungen. <?page no="295"?> Monopol und marktbeherrschende Unternehmen 295 In ► Tabelle 7.1 sind für verschiedene Industrien die Lerner-Indizes gegeben. Offenbar herrscht in einigen Industrien wie Fleisch- und Wursteinzelhandel, Kaffeeröstereien, Tankstellen oder bei Brauereien nahezu vollständige Konkurrenz mit Preis-Kosten-Margen nahe Null. Dagegen besitzen Finanzdienstleister, Hersteller von Frühstückscerealien, die Tabakindustrie oder Elektrizitätskonzerne teils signifikante Marktmacht und können deutliche positive Preis- Kosten-Margen erzielen. Marktmacht geht allerdings nicht zwingend mit hohen Gewinnen für die Unternehmen einher, da die Preis-Kosten-Marge die Fixkosten unberücksichtigt lässt. Wie stark sich Marktmacht ausprägt und in Gewinne niederschlägt, hängt empirisch, neben der Kostenstruktur und Technologie der Industrie, wesentlich vom Zusammenspiel folgender Größen ab (Schmalensee 1989, Caves 2007 und ► Kapitel 4):  Preiselastizität der Nachfrage - je stärker und dringender Kunden ein Produkt benötigen, d.h. je weniger elastisch die Nachfrage ist, desto höher ist tendenziell die Marktmacht der etablierten Unternehmen. Dies gilt wie oben gezeigt für ein Unternehmen, aber auch im Wettbewerb für mehrere Unternehmen, wenn diese stark in Marketing und Branding investieren.  Innovationsintensität der Industrie - kann ein Unternehmen im Innovationsprozess entweder qualitativ bessere Produkte (Produktinnovationen zur Steigerung vertikaler Produktdifferenzierung) anbieten oder zu geringeren Grenzkosten produzieren (Prozessinnovationen), entstehen Möglichkeiten zur Gewinnsteigerung, die bei Marktmacht auch dauerhaft ausgenutzt werden können. Wird dieser Innovationsvorsprung („Pioniergewinne“) aber durch hohe Innovationsintensität der Wettbewerber schnell aufgeholt, werden nur temporäre Gewinne erzielt.  Anzahl der Wettbewerber - mit zunehmender Zahl der Unternehmen in einer Industrie wird typischerweise die Marktmacht reduziert. Wettbewerber werden versuchen, durch Preissenkungen Marktanteile zu gewinnen und in der Tendenz die Preis-Kosten-Marge reduzieren. Wenn signifikante Eintrittsbarrieren vorliegen, die wirksam den Marktzutritt verhindern, ist die Marktmacht der etablierten Unternehmen typischerweise deutlich höher.  Interaktion der Unternehmen - die Wettbewerbsintensität und -art (vgl. auch ► Kapitel 10 zu Cournotvs. Bertrand-Wettbewerb) beeinflusst deutlich die Möglichkeiten der Unternehmen, Marktmacht in einer Industrie auszuüben. Sollten die Unternehmen - verbotenerweise - implizit oder sogar explizit kooperieren, sich abgestimmt verhalten (Kollusion) oder sogar ein Kartell bilden, steigt die Marktmacht darüber hinaus deutlich an. Preisstrategie eines marktbeherrschenden Unternehmens Aus den oben genannten Überlegungen der gewinnmaximierenden Bedingung Grenzerlös gleich Grenzkosten ergibt sich auch eine einfache Faustregel für Preisstrategien eines marktbeherrschenden Unternehmens. Stellt man Gleichung (7.44) um zu (7.46) 𝑝𝑝𝑝𝑝 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 1+1𝜀𝜀𝜀𝜀 , dann ergibt sich, dass ein marktbeherrschendes Unternehmen einen Aufschlag auf die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 in Abhängigkeit der Höhe der Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 vornehmen muss (Markup oder Cost Plus Pricing). Je geringer die Preiselastizität der Nachfrage ist, desto <?page no="296"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 296 größer ist der Aufschlag auf die Grenzkosten und umgekehrt. In einer Situation vollständiger Konkurrenz, in der Kunden zu beliebigen anderen Unternehmen wechseln können und die Preiselastizität entsprechend sehr hoch ist, ergibt sich, dass der Preis die Grenzkosten nicht übersteigen kann. Dieser Zusammenhang gilt bspw. auch über Vertriebskanäle hinweg: Eine Flasche Heineken Bier kostet in einem lokalen Supermarkt weniger als nachts an der Tankstelle und nochmal deutlich weniger als in einer Heineken Flughafenlounge. Zwar sind die Grenzkosten je Flasche Bier nahezu identisch, aber die Preiselastizität der Nachfrage ist deutlich unterschiedlich - Heineken und seine Vertriebspartner können dies für höhere Preise nutzen. Aus Managementperspektive ergibt sich, dass Unternehmen mit signifikanter Marktmacht und eher geringer Wettbewerbsintensität umfangreiche Marktforschung betreiben müssen, um den Verlauf der Nachfragekurve und die Höhe der Preiselastizität präzise zu ermitteln, und um so eine optimale Preisstrategie festlegen zu können. Unternehmen bei vollständiger Konkurrenz und hoher Wettbewerbsintensität müssen das nicht: Hier reicht es aus, den Preis der Wettbewerber als Marktpreis zu akzeptieren. Determinanten der Preisstrategie Cost Plus Pricing Preise der Wettbewerber andere Methoden Deutschland alle Industrien 73,0 17,0 10,0 niedrige Wettbewerbsintensität 78,9 9,4 11,7 hohe Wettbewerbsintensität 69,8 22,5 7,6 Eurozone alle Industrien 54,3 27,1 18,7 niedrige Wettbewerbsintensität 63,6 14,7 21,7 hohe Wettbewerbsintensität 49,8 35,1 15,1 Tabelle 7.2: Determinanten der Preisstrategie in Deutschland und der Eurozone. Datenquelle: Alvarez und Hernando 2006. Tatsächlich findet sich dieses Bild auch in empirischen Untersuchungen: Zwar verwenden Unternehmen industrie- oder unternehmensspezifische Methoden oder folgen saisonalen Mustern, aber in ► Tabelle 7.2 ist zu sehen, dass bei hoher Wettbewerbsintensität eher Preise der Wettbewerber zur Ermittlung der Preisstrategie herangezogen werden, bei niedriger Wett- <?page no="297"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 297 bewerbsintensität wird eher ein Cost-Plus-Verfahren herangezogen (Alvarez und Hernando 2006 sowie Klenow und Malin 2011). 7.4 Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden Wettbewerb bei vollständiger Konkurrenz maximiert ökonomische Wohlfahrt - dies ist das zentrale Argument für freien Wettbewerb in Märkten ohne staatliche Eingriffe. Funktionsfähiger Wettbewerb führt zu niedrigeren Preisen für die Kunden, ermöglicht Markteintritte innovativer Unternehmen und Kunden können frei zwischen vielen Angeboten wählen sowie sich für die aus ihrer Sicht richtige Qualität entscheiden. Zudem werden im Wettbewerb regelmäßig weniger leistungsfähige Unternehmen durch überlegene Konkurrenten verdrängt. In einigen Industrien funktioniert Wettbewerb aber nur eingeschränkt: Preise sind überhöht, schlechte Produkte verdrängen gute Produkte aus dem Markt, Markteintritte finden auch bei hohen Gewinnanreizen nicht statt, einzelne Kunden oder Kundengruppen werden diskriminiert, es entstehen keine innovativen Geschäftsmodelle und vieles mehr. Die Funktionsfähigkeit von Wettbewerb und Märkten kann in diesen Fällen durch zwei Ursachengruppen eingeschränkt sein: Wettbewerbsbeschränkungen und Marktversagen. Wettbewerbsbeschränkungen können bei freiem Wettbewerb entstehen, wenn marktbeherrschende Unternehmen den Wettbewerbsprozess aktiv beschränken oder unterbinden und so Wohlfahrtsverluste für die Gesellschaft verursachen - bspw. durch Kartelle oder den Aufbau von Markteintrittsbarrieren. Marktversagen dagegen bedeutet, dass institutionelle Merkmale eines Marktes die Funktionsfähigkeit eines Marktes einschränken oder Märkte nicht zustande kommen - damit verlieren Preise ihre Signal- und Lenkungsfunktion. Wenn Wettbewerb in diesem Sinn nicht funktioniert, kann der Staat mit Wettbewerbspolitik eingreifen, um die Funktionsfähigkeit von Wettbewerb und Märkten zu unterstützen. Ob und wie stark der Staat in Märkte eingreift, hängt auch von der politischen Willensbildung und einem wettbewerbspolitischen Leitbild ab und kann in vier Stufen ausgeprägt sein (Shepherd 1991, Neumann 2000 sowie Haucap und Schmidt 2013):  Der Staat setzt im Fall eines Laissez faire Approach auf die Selbstheilungskräfte des Marktes und verzichtet vollständig auf Interventionen in Märkte und den Wettbewerb. Dies kann allerdings immer wieder zu starken Konzentrationsprozessen und Missbrauch von Marktmacht führen.  Schwache Eingriffe bringt der Structure Approach: Hier bestimmt der Staat allgemein über Gesetze verbotene Verhaltensweisen, um Wettbewerbsprozesse aufrechtzuerhalten. Diese Regeln gelten meist für alle Märkte und Industrien in gleicher Weise: Beispiele sind das Gesetz gegen Wettbewerbsbeschränkung GWB oder das Gesetz gegen unlauteren Wettbewerb UWG.  Im Regulation Approach wird stärker interveniert: Der Staat bestimmt hier allgemein oder industriespezifisch Wettbewerbsregeln und Verhaltensweisen, von denen die Unternehmen nicht abweichen dürfen und überwacht den Missbrauch. Derartige Regelungen sind oft industriespezifisch: So sind Wettbewerbsprozesse in der Finanzdienstleistungs- <?page no="298"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 298 und Kreditindustrie bspw. durch das Kreditwesengesetz KWG, die Mindestanforderung an das Risikomanagement MaRisk (BA) oder das Wertpapierhandelsgesetz (WpHG) reguliert.  Im Extremfall des Ownership Approach beschränkt der Staat Unternehmertum und Privateigentum stark, betreibt wesentliche Unternehmen selbst und verstaatlicht Unternehmen bei drohender Insolvenz oder im vermeintlichen Kundeninteresse - typisches Problem ist, dass der Staat sich in der Regel als ‚schlechter Unternehmer‘ erweist, Innovationen zugunsten von Erhaltungssubventionen vernachlässigt und Bürokratie maximiert. In Deutschland ist dies bspw. für die Commerzbank (Staatshilfen und Staatsbeteiligung 2009 im Zuge der Staatschulden- und Finanzkrise) sowie für die Lufthansa (Staatshilfen in Form von Krediten 2020 aufgrund der Corona-Krise) geschehen. Wettbewerbspolitik ist in marktwirtschaftlichen Ordnungen oft zwischen den Extremfällen angesiedelt: Durch einen ordnungspolitischen Rahmen wird mit einem kombinierten Structure and Regulation Approach versucht, Privateigentum, Unternehmertum und Innovationen zu fördern, aber gleichzeitig die Entstehung von marktbeherrschenden Stellungen zu überwachen und den Missbrauch marktbeherrschender Stellungen zu unterbinden. Der von Wettbewerbspolitik ausgehende Effekt zur Verbesserung der Funktionsfähigkeit von Märkten schlägt sich empirisch langfristig in höhere makroökonomische Wachstumsraten, steigende industriespezifische Produktivität und höhere Innovationsraten nieder (Buccirossi et al. 2013 sowie Duso 2015). Wettbewerbspolitik umfasst die Gesetzgebung, in Deutschland u.a. das Gesetz gegen Wettbewerbsbeschränkungen (GWB), und Rechtsprechung gerichtet auf wettbewerbsbeschränkende Verhaltensweisen, die Begrenzung von Marktmacht und die Unterbindung des Missbrauchs einer marktbeherrschenden Stellung. Die Umsetzung von Wettbewerbspolitik erfolgt durch nationale und internationale Behörden, die versuchen wettbewerbsbeschränkende Verhaltensweisen, verbotene Kollusion und Kartelle aufzudecken oder Markversagen aufgrund natürlicher Monopole zu verhindern - in Deutschland unter anderem durch das Bundeskartellamt und die Bundesnetzagentur, auf europäischer Ebene durch das Directorate-General for Competition der EU Kommission oder die Federal Trade Commission in den USA. Marktversagen und Wettbewerbsbeschränkungen lassen sich empirisch aufgrund von Wechselwirkungen selten vollständig trennen, so dass der Staat mit drei sich überlappenden Maßnahmengruppen ansetzt:  Wettbewerbspolitik im engeren Sinne zielt auf die Begrenzung und Unterbindung von Wettbewerbsbeschränkungen in Form von Kartellen, Missbrauch von Marktmacht oder durch Fusionskontrolle,  Regulierung wird zur Begrenzung und Korrektur von Marktversagen bspw. in Form unvollständiger oder asymmetrischer Information (Kontrolle der Preisbildungsprozesse an deutschen Wertpapierbörsen) oder bei natürlichen Monopolen (insbes. in Netzinfrastrukturen wie Bahn, Post, Elektrizität oder Telekommunikation) eingesetzt,  Marktdesign bedeutet eine Koordination zentraler Rahmenbedingungen und Marktmechanismen sowie Marktteilnehmer eines Marktes, so dass proaktiv Marktversagen reduziert wird und der Entstehung von Wettbewerbsbeschränkungen entgegengewirkt wird (Mobilfunklizenzauktionen, Festlegung von Handelsmodellen und Marktaufsicht bei Wertpapierbörsen oder Emissionsrechtehandel). <?page no="299"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 299 Wettbewerbspolitik und Regulierung nehmen also zwei unterschiedliche Perspektiven ein: In Märkten, in denen Wettbewerb erwünscht und möglich ist, erfüllt Wettbewerbspolitik grundsätzlich die Aufgabe, wettbewerbsbeschränkende Verhaltensweisen von Unternehmen zu unterbinden. Regulierung wird dagegen eingesetzt, wenn aufgrund von Marktversagen per se erwartet wird, dass Wettbewerb entweder nicht funktioniert oder zustande kommt, oder aber bewusst Wettbewerb zwischen Unternehmen verhindert werden soll. Der Eingriff staatlicher Behörden in Märkte kann dabei vielfältig sein: Entweder werden bestimmte Verhaltensweisen oder Strategien allgemein verboten, wie bei Kartellen oder verbotenen Absprachen, oder der Wettbewerb in einem bestimmten Markt wird reguliert, wie dies in der bspw. in der Telekommunikationsindustrie (u.a. Genehmigungspflicht für Tarifmodelle im Mobilfunk), in der Finanzdienstleisterindustrie (u.a. Mindestanforderung an das Eigenkapital eines Kreditinstitutes) oder der Pharmaindustrie (u.a. Zulassung von Medikamenten). Wohlfahrtsverluste und Wettbewerbsbeschränkungen Zur Beurteilung, ob und wie gut Wettbewerb funktioniert, können die Modelle vollständiger Konkurrenz und Monopol als erster Maßstab dienen: Bei vollständiger Konkurrenz sind Markteintritte innovativer Unternehmen aufgrund fehlender Markteintrittsbarrieren möglich, im Gegensatz dazu kann ein marktbeherrschendes Unternehmen kann Markteintritte und Innovationen behindern. In der Folge wird bei vollständiger Konkurrenz die ökonomische Wohlfahrt maximiert, im Monopol oder bei marktbeherrschender Stellung eines Unternehmens kommt es regelmäßig zu Wohlfahrtsverlusten. In ► Abbildung 7.14 sind die zentralen Ergebnisse aus ► Kapitel 7.2 und 7.3 aus wettbewerbspolitischer Perspektive zusammengeführt. Abbildung 7.14: Gesellschaftliche Kosten bei Wettbewerbsbeschränkungen. q p, MC 0 D=AR MR q M MC p M p C q C B A C Monopol: MR = MC vollständige Konkurrenz: p = MC <?page no="300"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 300 Vergleicht man bei identischer Nachfragesituation und hier konstant angenommenen Grenzkosten Monopol und vollständige Konkurrenz, so ist unmittelbar zu erkennen, dass im Monopol die Preise höher und die angebotenen Mengen niedriger sind als bei vollständiger Konkurrenz. Ein Teil der Konsumentenrente wird in einen Gewinn des Monopolisten (hier zu erkennen in der Produzentenrente A) umgewandelt, zudem sinkt auch die Wohlfahrt um - B, d.h. es gibt einen statischen Wohlfahrtsverlust. Dieser Unterschied zwischen vollständiger Konkurrenz und Monopol bedeutet aber unter anderem auch gesellschaftliche Kosten (Posner 1975):  Einige Kunden können sich das Produkt aufgrund des jetzt höheren Preises nicht mehr leisten, da ihre Zahlungsbereitschaft oder das Einkommen nicht ausreicht,  einige Kunden erhalten das Produkt nicht mehr, weil die angebotene Menge reduziert wird um höhere Preise durchsetzen zu können,  die benötigte Mitarbeiterzahl ist geringer, da die Produktion aufgrund vorliegender Marktmacht unter das Niveau vollständiger Konkurrenz reduziert wird. Insbesondere entsteht ein dynamischer Wohlfahrtsverlust: Innovationen und technischer Fortschritt gehen wegen fehlender Gewinnanreize zurück, denn ein marktbeherrschendes Unternehmen oder ein Monopol erzielt einen dauerhaften Gewinn und muss keine Wettbewerber fürchten. In der Folge entstehen insbesondere langfristig weitreichende Schäden für das Wachstum und die Effizienz der gesamten Volkswirtschaft (Neumann 2000 und Hüschelrath 2008). Man könnte aus dem Vergleich von vollständiger Konkurrenz und Monopol zu dem Schluss kommen, dass staatliches Handeln und die Gesetzgebung im Bereich der Wettbewerbspolitik darauf zielen sollten, eine Wettbewerbssituation entsprechend vollständiger Konkurrenz herbeizuführen. Ein solches wettbewerbspolitisches Leitbild vernachlässigt aber einerseits in vielen Industrien vorliegende Economies of Scale und daraus folgende Mindestbetriebsgrößen der Unternehmen, andererseits insbesondere dynamische Aspekte des Wettbewerbs: Erfolgreiche Innovationsprozesse ermöglichen Unternehmen zumindest temporär eine Monopol- oder marktbeherrschende Stellung einzunehmen, teils hohe Gewinne zu realisieren und - gerade auf Basis von Digitalisierung und disruptiven Innovationen - vormals etablierte Unternehmen zu verdrängen und Marktstrukturen zu verändern (Schumpeter 1911 und 1950, von Hayek 1969, Geroski 1998 sowie Sidak und Teece 2009). Zum anderen bewirken Innovationen und technologischer Fortschritt für Kunden oftmals Preissenkungen sowie eine höhere Produktqualität und -vielfalt. Damit ist klar, dass Wettbewerbspolitik insbesondere Innovationen und Möglichkeiten für Markteintritte neu entstehender Unternehmen nicht begrenzen darf. Wesentliche Zielsetzung von Wettbewerbspolitik ist dann, funktionsfähigen Wettbewerb zu gewährleisten (und nicht etwa bestehende Unternehmen zu schützen), Freiheit unternehmerischen Handelns zu unterstützen, der Anreize für Innovationen schafft und Wohlfahrtssteigerungen ermöglicht. Marktversagen und Regulierung Marktversagen beschreibt die eingeschränkte oder fehlende Funktionsfähigkeit des Marktes aufgrund von institutionellen Merkmalen oder Besonderheiten eines bestimmten Marktes - in <?page no="301"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 301 der Folge sind Marktprozesse, wie bei vollständiger Konkurrenz beschrieben, nicht möglich. Damit ist die Preisbildung über Angebot und Nachfrage im Markt entweder unmöglich oder eingeschränkt, zudem werden Produkte entweder nicht angeboten, oder es werden nicht alle von den Kunden gewünschten Produktvarianten oder Qualitäten angeboten. Im Wesentlichen ist Marktversagen auf vier Ursachen zurückzuführen: Externe Effekte, öffentliche Güter, asymmetrische Informationen oder natürliche Monopole (weiterführend Fritsch 2011, Knieps 2008 sowie Bator 1958). Marktversagen ist eine notwendige, aber nicht hinreichende Indikation für wettbewerbspolitisches staatliches Handeln in einem Markt in Form von direktem staatlichen Eingreifen in Markttransaktionen (bspw. staatliches Angebot von Schulen), durch Regulierung (bspw. Preissetzung für Medikamente) oder durch Verbote, Auflagen oder sonstige Gesetzgebung. Staatliche Behörden greifen hier ggfs. durch Regulierung in den Markt ein - in Deutschland bspw. über die Bundesnetzagentur oder die Bundesanstalt für Finanzdienstleistungsaufsicht in bestimmte Märkte oder Industrien, sowie über allgemeine Bestimmungen wie die Datenschutzgrundverordnung, die Arbeitsmarktgesetzgebung oder die Preisangabenverordnung. Marktversagen durch externe Effekte bei fehlenden Eigentumsrechten Externe Effekte beschreiben positive oder negative Auswirkungen eines Marktteilnehmers auf andere Marktteilnehmer oder Dritte, für die kein Preis verlangt wird oder nicht verlangt werden kann, weil keine verursachungsgerechte Zuordnung möglich ist. Wenn Eigentumsrechte nicht eindeutig definiert oder feststellbar sind, können Produktion oder Konsum in einem Markt positive oder negative externe Effekte für andere Marktteilnehmer oder Dritte außerhalb des Marktes verursachen - laute Musik kann für die Nachbarn eine Freude oder ein Ärgernis sein. Aufgrund der fehlenden Eigentumsrechte kann für diese externen Effekte kein Preis festgestellt werden und damit kann der betroffenen Markt nicht funktionieren. Negative externe Effekte entstehen bspw. durch Umweltverschmutzung oder CO 2 -Nutzung mit Auswirkungen auf globale Erwärmung, d.h. als Kosten für die Gesellschaft, die vom Verursacher nicht oder nicht vollständig getragen werden. Zudem ist ggfs. nicht abzugrenzen, wer in welcher Weise von Umweltverschmutzung betroffen ist, da viele Effekte indirekt, global oder zeitversetzt wirken. Eine Internalisierung, d.h. eine Zuordnung der Kosten zum Verursacher, erfordert dann staatliches Handeln. Positive externe Effekte sind häufig durch Innovationen begründet, die - wenn nicht geschützt - von anderen Unternehmen oder in anderen Märkten kostenlos adaptiert werden. Wenn Eigentumsrechte an Wissen nicht existieren oder nicht abgesichert sind, gibt es für Unternehmen keine Anreize, neues Wissen zu entwickeln. Unternehmen werden dann entweder überhaupt nicht oder zu wenig in Forschung & Entwicklung investieren. Dies kann auch zu einem Rückgang an Unternehmensgründungen führen: Wenn Start-ups befürchten, dass ihre Innovationen schnell von etablierten Unternehmen adaptiert oder imitiert werden, bleibt entweder die Unternehmensgründung aus, oder die Fixkosten steigen aufgrund der Abschottung von Wissen deutlich an. Typischerweise wird bei negativen externen Effekten zu viel produziert, im Fall positiver externer Effekte wird zu wenig produziert. In beiden Fällen stimmen die individuellen privaten Kosten nicht mit den kollektiven gesellschaftlichen Kosten überein. Zur korrekten Zuordnung und <?page no="302"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 302 Zurechnung (Internalisierung) dieser externen Effekte legt der Staat Preise, Steuern oder Mechanismen für die externen Effekte fest, bspw. in Form eines Zertifikathandels für Verschmutzungsrechte bei negativen externen Effekten, in Form eines Patentschutzes für Innovationen mit der Möglichkeit einer Lizenzierung bei positiven externen Effekten. In beiden Fällen werden also Eigentumsrechte eingeführt, die den Umfang des Marktversagens - zu viel Umweltverschmutzung, zu wenig Innovation - reduzieren sollen. Im Fall einer dynamischen CO 2 -Steuer auf die Emission von Kohlendioxid entsteht damit auch eine Lenkungswirkung in Märkten, da Anreize zur Entwicklung klimaschonender oder klimaneutraler Technologien gesetzt werden. In gleicher Weise schafft Patentschutz Anreize für F&E-Investitionen, wenngleich der Patentschutz auch zu einer zumindest temporären Monopolstellung für innovative Unternehmen führt. Dagegen wird Grundlagenforschung an Hochschulen in Deutschland durch den Staat finanziert: Auch hier würde Marktversagen zu einer zu geringen Investition in Forschung & Entwicklung führen, allerdings wird hier geschaffenes Wissen durch wissenschaftliche Veröffentlichungen weitgehend der Öffentlichkeit zur Verfügung gestellt. Marktversagen durch öffentliche Güter Öffentliche Güter sind Produkte oder Dienstleistungen, die von vielen Kunden gleichzeitig genutzt werden können, ohne dass der einzelne Kunde daraus Nachteile oder Einschränkungen der Nutzung hat. Ein Leuchtturm an der Küste dient allen Kapitänen und Schiffsbesatzungen gleichermaßen, unabhängig davon, wie viele ihn gerade nutzen. Bei diesen Produkten liegt Nichtrivalität und Nichtausschließbarkeit im Konsum vor. Nichtausschließbarkeit bedeutet, dass Eigentumsrechte nicht durchgesetzt werden können - saubere Luft steht allen Menschen einer bestimmten Region zur Verfügung, aber weder können einzelne Menschen vom Konsum ausgeschlossen werden, noch kann ein Preis erhoben werden. In gleicher Weise konkurrieren die Menschen im öffentlichen Raum nicht um saubere Luft. Da keine Preise erhoben werden können, hat kein Unternehmen einen Anreiz dieses Produkt anzubieten. In ähnlicher Weise nutzen alle Menschen eines Landes innere und äußere Sicherheit oder profitieren von einem funktionsfähigen Rechtssystem. Nichtrivalität und Nichtausschließbarkeit führen natürlich dazu, dass kein Unternehmen einen Anreiz hat, diese Produkte herzustellen, da keine Preissetzung, kein Ausschluss nicht zahlender Kunden und in der Folge keine Gewinne möglich sind - also ein Marktversagen, weil kein Angebot entsteht. Typischerweise werden öffentliche Güter dann durch Steuern oder Abgaben finanziert und durch den Staat angeboten oder bereitgestellt. Allerdings sind wirkliche öffentliche Güter selten: Für zahlreiche Dienstleistungen oder Produkte können Preise ermittelt und erhoben werden, bspw. in Form einer Autobahnmaut oder Straßennutzungsgebühr, für Privatschulen oder private Universitäten, oder Pay-TV und Streaming-Anbieter. Neue Geschäftsmodelle (werbefinanziertes Radio statt gebührenfinanzierte öffentlich-rechtliche Rundfunkstationen) oder Technologien (Blockchain oder Personalisierung) ermöglichen hier, eine Ausschließbarkeit herzustellen, Preise zu setzen und vermeintlich öffentliche Güter in normale Produkte umzuwandeln - ein anderer Grund kann sein, dass der Staat die öffentlichen Güter in schlechter Qualität oder unzureichender Menge anbietet, so dass Unternehmen einen Anreiz haben, Produkte für eine Zielgruppe mit hoher Zahlungsbereitschaft anzubieten. <?page no="303"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 303 Marktversagen bei Informationsdefiziten In vielen Märkten liegt unvollständige oder asymmetrische Information vor, d.h. einige Marktteilnehmer sind besser informiert als andere (siehe auch ► Kapitel 1 zu Gebrauchtwagenmärkten). Asymmetrische Information kann in zahlreichen Situationen auftreten: Insider am Kapitalmarkt haben gewöhnlich bessere Informationen, als Privatanleger; Unternehmen kennen meist ihre eigenen AGBs besser, als die Kunden; und eine Hochschule kennt die Qualität der Lehre besser, als potentielle Studienanfänger. Teilweise können derartige Informationsdefizite durch Signaling auf der Angebotsseite oder Informationsbeschaffung auf der Nachfrageseite ausgeglichen werden, wenn auch zu teils erheblichen Transaktionskosten (siehe auch ► Kapitel 2 zu Such-, Erfahrungs- und Vertrauensgütern). Wenn diese marktseitigen Möglichkeiten nicht hinreichend funktionieren, kann asymmetrische Information aber zu Marktversagen führen, falls durch Unsicherheit über Eigenschaften oder die Qualität von Produkten keine Nachfrage entsteht oder die Zahlungsbereitschaft gering ist. Die Unternehmen werden als Folge der fehlenden Nachfrage das Produkt nicht, nicht in ausreichender Menge oder in minderwertiger Qualität anbieten, so dass die Funktionsfähigkeit des Marktes eingeschränkt und die ökonomische Wohlfahrt reduziert ist. Dies gilt u.a. in der Pharmaindustrie, wo hohe F&E-Aufwendungen einer unsicheren Nachfrage nach Medikamenten gegenüberstehen, aber eine hohe Qualität der Produkte notwendig ist. Um das mögliche Marktversagen zu reduzieren oder zu verhindern, können die Unternehmen Signaling (bspw. durch Marketing, Garantien oder Gütesiegel) betreiben, um Nachfrage anzuziehen und die Zahlungsbereitschaft zu erhöhen. Daneben kann der Staat durch Haftungsregeln, Zertifizierung oder Zulassungsverfahren für Produkte oder Dienstleistungen die Unsicherheit der Kunden reduzieren: In der Pharmaindustrie durchlaufen Medikamente Test- und Genehmigungsverfahren und sind teilweise apotheken- oder verschreibungspflichtig. Marktversagen infolge von Informationsasymmetrien ist auch eine mögliche Ursache von Bank- und Finanzkrisen: So können Kunden typischerweise die Eigenschaften und Risiken von Bankprodukten schlecht einschätzen, so dass - wie im Vorfeld der Subprime- und Finanzkrise 2007 ff. - Kunden intransparente Produkte mit unbekannten Risiken erworben haben. Diese asymmetrische Information im B2B-Bereich, insbes. Verbriefung von CDO- und CDS- Papieren, im B2C-Bereich zwischen Banken und deren Kunden (‚Lehman-Papiere’ bei den Sparkassen) kann dann bei einem Ausfall der Produkte zu einem Zusammenbruch der Banken führen. In der Folge wurden die nationale und internationale Regulierung der Finanzdienstleistungsindustrie verstärkt: Bestimmte Produkte für einzelne Kundengruppen wurden verboten und eine bessere Kennzeichnung (Produktinformationsblatt, MiFiD, Beratungsprotokolle etc.) zum Anlegerschutz eingeführt, zudem sind die Anforderungen an Finanzdienstleister- oder Banklizenz sowie Eigenkapital und Haftung verbessert worden. Marktversagen kann aber auch entstehen, wenn Kunden bessere Informationen besitzen als Unternehmen: So wissen Kunden vor Vertragsabschluss (bspw. einer Krankenversicherung) besser über ihre Risiken Bescheid, als eine Versicherung. Damit kann adverse Selektion (siehe auch ► Kapitel 4) entstehen: Es fragen nur Kunden mit hohen Risiken aufgrund von Vorer- <?page no="304"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 304 krankungen die Versicherung nach, so dass eine Versicherung auf Basis des Gesetztes der großen Zahl und einem Poolen von unterschiedlichen Risiken nicht möglich ist. Der Staat korrigiert hier ein mögliches Marktversagen durch Versicherungspflicht der Kunden.  Fragen │ Warum unterstützt der Staat die Finanzierung von Start-ups? In einem perfekten Kapitalmarkt werden bei vollständiger Information alle Unternehmen und Projekte finanziert, die bei gegebenen Finanzierungsbedingungen einen positiven Net Present Value (‚Nettogegenwartswert der Investition‘) erzielen - entsprechend kann die Finanzierung eines erfolgversprechenden Start-ups theoretisch niemals ein Problem darstellen. Aus wirtschafts- und wettbewerbspolitischer Perspektive scheinen allerdings Finanzierungsengpässe Unternehmensgründungen zu erschweren oder zu verhindern (European Commission 2003 und OECD 1998). Empirisch zeigt sich häufig, dass kleine Unternehmen bei eingeschränkten Finanzierungsmöglichkeiten reduzierte Überlebenswahrscheinlichkeiten und Wachstum zeigen (Reid 2003) - allerdings auch, dass Finanzierungsengpässe ggf. nur eine untergeordnete oder endogene Rolle für das Scheitern von Unternehmen spielen (Uusitalo 2001). Insbesondere der Zugang zu externem Eigenkapital wird seit langem als Entwicklungshürde und -hemmnis für junge und kleine Unternehmen identifiziert (Harrison et al. 2004 und Münter 2021). Start-ups und junge Unternehmen weisen allerdings zahlreiche Besonderheiten der Unternehmensfinanzierung im Vergleich zu etablierten Unternehmen auf, die sich im Wesentlichen neben beschränkten Möglichkeiten zur Eigenfinanzierung und Fremdkapitalaufnahme aus imperfekten Kapitalmärkten ergeben (weiterführend Betsch et al. 2016, Fazzari et al. 1988, Myers und Majluf 1984 sowie Kerr und Nanda 2009):  Typischerweise ist das Risiko einer Investition in ein Start-up höher als die Investition in ein etabliertes Unternehmen. Konkret bedeutet das, dass die Wahrscheinlichkeit eines Ausfalls an Eigen- oder Fremdkapital höher ist, gleichzeitig die Varianz der Rückzahlungen (Gewinne, Dividenden etc.) ebenfalls höher ist. Begründet ist dieses höhere Ausfallrisiko durch Unsicherheiten betreffend die Marktakzeptanz des neuen Produktes oder Dienstleistung, betreffend die Technologie, betreffend die Skalierbarkeit, betreffend rechtlicher und politischer Rahmenbedingungen sowie der Leistungs- und Überlebensfähigkeit des Gründerteams.  In der Planungs- und Gründungsphase liegen unvollständige Informationen über das Produkt, die Preissetzungsspielräume, die Wettbewerbssituation sowie mögliche Erwartungen der Kunden vor. Zudem wird ein Start-up geprägt durch implizite und vage Annahmen der Unternehmensgründer, die sich als intangible Erfolgsfaktoren oder Wettbewerbsvorteile schwer beschreiben oder greifen lassen, so dass im starkem Maß asymmetrische Information zwischen Gründern und Gründungsteam einerseits und möglichen Kapitalgebern andererseits vorliegt. Diese asymmetrische Information wird verstärkt durch fehlende oder stark eingeschränkte Belastbarkeit von Planungsdaten und Planungsqualität. Die Kombination aus unvollständiger und asymmetrischer Information mit höherem Risiko kann zu Marktversagen in der Finanzierung von Start-ups führen - also zu geringen Finanzierungsvolumina oder zu hohen Finanzierungskosten. <?page no="305"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 305 Wenn der Staat die Risikobereitschaft oder Liquidität privater Akteure und Banken im Kapitalmarkt zur Finanzierung von Gründung oder Wachstum junger Unternehmen aufgrund dieses Marktversagens als gering einschätzt, kann mittels Regulierung eingegriffen werden. Staatliche oder öffentliche Institutionen und Förderbanken stellen so regelmäßig bestimmte Formen oder Zugang zu staatlicher Finanzierungsunterstützung - bspw. in Form von Venture Capital - für Start-ups in frühen Phasen bereit. Diese Finanzierungsunterstützungen zielen häufig auf die Entwicklung oder Beschleunigung von Unternehmensgründung per se, daneben gibt es strukturelle Förderprogramme differenziert nach Regionen, Technologien oder betreffend der Wissenschafts- oder Hochschulnähe von Start-ups. Marktversagen bei natürlichen Monopolen Marktversagen kann zudem auf Marktmacht beruhen, hier im Wesentlichen aufgrund technologischer Ursachen, die über Unteilbarkeiten im Produktionsprozess, ausgeprägte Economies of Scale oder Netzwerkeffekte zu natürlichen Monopolen führen (siehe auch ► Kapitel 6). In der Folge kann ein Unternehmen durch Preisunterbietung zunächst andere Unternehmen vom Markt verdrängen und nachfolgend Markteintritte durch strukturelle Eintrittsbarrieren verhindern, so dass kein funktionsfähiger Wettbewerb entsteht. Umgekehrt kann es sein, dass unter diesen Umständen überhaupt kein Unternehmen in investitionsintensive Industrien mit hohen Sunk Costs eintritt: Alle potenziellen Unternehmen sehen das Risiko aus dem Markt verdrängt zu werden, so dass die notwendigen Investitionen für einen Markteintritt nicht stattfinden. Regulierung zielt hier darauf, ein entstandenes oder zu erwartendes Marktversagen in Märkten mit natürlichen Monopoleigenschaften zu korrigieren - in diesen Märkten ist der Wettbewerb aus Effizienzgründen zu vermeiden und marktbeherrschende Unternehmen werden reguliert. Im 20. Jahrhundert wurde Regulierung oft in Form von staatseigenen Unternehmen, insbesondere in Infrastrukturindustrien wie Bahn, Post, Energieversorgung oder Flugverkehr, implementiert. Damit wurde jeweils einem Unternehmen der Markt überlassen (entweder durch Verstaatlichung eines vorhandenen Unternehmens oder durch Etablierung eines staatlichen Monopols) und so das Investitionsdilemma gelöst. Allerdings haben staatliche Unternehmen keine Anreize für Innovationen und neigen aufgrund fehlenden Wettbewerbs zu Ineffizienz in Form von Bürokratie und Budgetmaximierung. In der Konsequenz waren einige dieser staatlichen Monopole bei einer Deregulierung oder Privatisierung nur eingeschränkt wettbewerbsfähig (Leibenstein 1966 sowie Boardman und Vining 1989). Allerdings folgt im Zuge einer koordinierten Deregulierung oft eine spürbare Wohlfahrtssteigerung: In der deutschen Telekommunikationsindustrie sind nach der Marktöffnung 1998 zahlreiche Wettbewerber in den Markt eingetreten, die Produktionsmengen (Telefonieminuten, Datennutzung, Anzahl der Anschlüsse und Verträge) sind deutlich angestiegen, die Innovationsrate ist angewachsen und schließlich sind die Preise kontinuierlich zurückgegangen (Dewenter und Haucap 2004, Sickmann 2018 sowie Bundesnetzagentur 2019). Die Regulierung eines Marktes mit Eigenschaften eines natürlichen Monopols kann aber auch im Markt erfolgen. Staatliche Behörden wählen gegenüber marktbeherrschenden Unterneh- <?page no="306"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 306 men regelmäßig verschiedene Formen der Preisregulierung, um Wohlfahrtsverluste gegenüber einem Monopolpreis zu reduzieren. Dazu werden Bilanz und GuV analysiert, um die Kostenfunktion des Unternehmens mit Marktmacht zu ermitteln. Auf dieser Basis wird dann in Verhandlungen - bspw. zwischen Deutscher Post und Bundesnetzagentur für das Briefporto - ein Preis zwischen dem Niveau vollständiger Konkurrenz und des Monopols festgelegt und genehmigt. Eine Regulierungsbehörde kann hier fixe oder dynamische Preisobergrenzen (Price-Cap Verfahren) festlegen, eine renditeorientierte (Rate-of-Return Verfahren) oder eine kostenorientierte (Cost-plus-Verfahren) Preisregulierung etablieren. Herausforderung aller drei Verfahren ist, dass das regulierte Unternehmen bessere Informationen als die Regulierungsbehörde besitzt, so dass in Folge asymmetrischer Information die Regulierung meist nicht effizient ist: Unternehmen haben keine Anreize ihre tatsächlichen Kostenstrukturen offenzulegen oder Kostensenkungen und Innovationen umzusetzen, so dass die Wettbewerbsfähigkeit des Unternehmens im Zeitablauf abnimmt. Neuere Verfahren versuchen hier insbesondere Anreize für Innovationen herzustellen, so dass die regulierten Unternehmen selbst ihre tatsächlichen Kosten optimieren und auch im Fall einer Deregulierung wettbewerbsfähig sind (Laffont und Tirole 1986 und 1991 sowie Cabral und Riordan 1989). Anreizkompatible Regulierung wird in Deutschland durch die Bundesnetzagentur bspw. in Energiemärkten eingesetzt: Für einen Zeitraum von fünf Jahren werden Erlöse und deren Entwicklung festgelegt. Unternehmen haben dann einen Anreiz, die Kosten für Stromerzeugung und -verteilung zu senken und Innovationen umzusetzen, um Gewinne zu erzielen. Die erreichten Kostensenkungen sind Basis für die Festlegung der Erlöse in der nächsten Regulierungsperiode - Kostenreduktionen und ggfs. Preissenkungen für die Kunden werden also erreicht, ohne dass die Bundesnetzagentur unternehmensspezifische Preisobergrenzen oder Kostenstrukturen festlegen muss. Marktdesign und Matching-Märkte Relativ neu ist der Ansatz des Marktdesigns, der regulierende Funktionen übernimmt und die Logik eines Marktes konzeptionell umdreht - der Markt (und damit ggfs. ein Marktversagen) entsteht nicht erst und wird dann kontrolliert oder reguliert, sondern Ökonomen designen einen Markt und dessen Mechanismen im Vorfeld so, dass Wettbewerb funktionieren kann (Roth 2008). Diese Verfahren finden unter andere Anwendung bei Auktionen von Mobilfunklizenzen in der Telekommunikationsindustrie (Binmore und Klemperer 2002 und weiterführend ► Kapitel 8). Die Telekommunikationsindustrie ist durch umfangreiche Economies of Scale geprägt, so dass das größte Unternehmen eine marktbeherrschende Stellung erreichen könnte. Um dies bereits im Vorfeld des Wettbewerbs im Markt zu verhindern, wird über die Auktion eine hinreichende Zahl an Unternehmen mit jeweils begrenzter Kapazität zugelassen, so dass Wettbewerb ermöglicht wird. Marktdesign stellt somit immer auf Besonderheiten eines bestimmten Marktes ab - es wird also nicht nach allgemeinen Regeln gesucht, die immer gelten, sondern nach spezifischen Lösungen, um ein mögliches Marktversagen zu reduzieren oder zu verhindern. Marktdesign findet dabei einerseits Anwendung in Märkten, die über Preise koordiniert werden, andererseits oft in Matching-Märkten, in denen keine Preise existieren, aber passgenaue Zuordnungen oder Zuteilungen vorgenommen werden sollen: Zuteilung von Studien- <?page no="307"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 307 plätzen, Vergabe von Sozialwohnungen, regionale Verteilung von Flüchtlingen, Gestaltung von Bewertungsplattformen im Internet, Design von Dating-Plattformen oder Zuteilung von Spenderorganen (Roth 2015 sowie Jackson 2013). Gerade bei Organspenden ist häufig Marktversagen zu beobachten - eine große Zahl an Menschen wartet auf eine Organtransplantation, aber die Zahl der potenziellen Spender (gerade in anonymen Beziehungen ohne Kenntnis des Empfängers) ist zu gering, zudem sind häufig die Spenderorgane mit den Empfängern nicht kompatibel. Eine Matching-Lösung kann hier auf paarweisen Spendenbereitschaften basieren. Hier bringen Patienten zunächst bilateral aus dem Familien- und Freundeskreis mögliche Spender, wenngleich mit inkompatiblen Organen, in mögliche Tauschbeziehungen ein. Diese paarweisen Spendenbereitschaften werden dann über multilaterale Überkreuzspenden in einen Ringtausch eingebracht - je mehr Überkreuzspenden eingebracht werden, desto größer der mögliche Ringtausch, desto wahrscheinlicher wird die Kompatibilität zwischen Spender und Empfänger. Auf diese Weise werden Wartelisten und Wartezeiten deutlich verkürzt sowie mögliche Schwarzmärkte oder Bestechung im Organhandel reduziert (Roth et al. 2007). Wettbewerbsbeschränkungen durch Missbrauch marktbeherrschender Stellung Anders als Marktversagen, dass auf den beschriebenen Besonderheiten eines Marktes basiert, werden Wettbewerbsbeschränkungen von Unternehmen verursacht: Sie umfassen die durch aktive oder implizite Verhaltensweisen oder Strategien verursachte Beschränkung des Wettbewerbs mit dem Ziel, die Wettbewerbsintensität zu reduzieren, die Zahl der Wettbewerber zu reduzieren, die Kosten der Wettbewerber zu erhöhen, höhere Preise durchzusetzen und die Gewinne zu erhöhen. Wettbewerbsbeschränkungen können dabei auf drei wesentliche Ursachen zurückgeführt werden: Missbrauch einer marktbeherrschenden Stellung, koordiniertes Verhalten in Form von Kartellen und Unternehmenszusammenschlüsse. Diese Formen der Wettbewerbsbeschränkungen werden durch das Gesetz gegen Wettbewerbsbeschränkungen abgedeckt und wesentlich durch das Bundeskartellamt überwacht (  bundeskartellamt.de/ DE/ Missbrauchsaufsicht/ missbrauchsaufsicht_node.html). Marktbeherrschende Unternehmen können Marktmacht nicht nur für höhere Preise nutzen, sondern auch den Wettbewerbsprozess beschränken oder ausschalten. Meist werden hier strategische Maßnahmen ergriffen, die potenziellen Wettbewerbern den Marktzutritt versperren, den Zugang zu Kunden unmöglich machen oder aktuelle Wettbewerber zum Marktaustritt zwingen, bspw. durch Exklusivverträge mit Zulieferern. Entsprechend § 18 GWB ist ein Unternehmen marktbeherrschend, wenn es im relevanten Markt ohne Wettbewerber ist, keinem wesentlichen Wettbewerb ausgesetzt ist oder eine im Verhältnis zu seinen Wettbewerbern überragende Marktstellung hat. Im GWB wird für ein einzelnes Unternehmen ab einem Marktanteil von 40 % vermutet, dass dieses Unternehmen marktbeherrschend ist. Eine Gruppe von Unternehmen gilt als marktbeherrschend, wenn maximal drei Unternehmen zusammen einen Marktanteil von 50 % erreichen, oder wenn bis zu fünf Unternehmen einen Marktanteil von zwei Dritteln aufweisen (siehe auch ► Kapitel 4 zu horizontaler Konzentration). Bei mehrseitigen Märkten und Plattformen müssen bei der Prüfung einer marktbeherrschenden Stellung eines Unternehmens insbesondere direkte und indirekte Netzwerkef- <?page no="308"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 308 fekte, mögliche Wechselkosten der Kunden, die Rolle wettbewerbsrelevanter Daten sowie die Wettbewerbsintensität durch Single- oder Multi-Homing analysiert werden. Der Missbrauch einer marktbeherrschenden Stellung wird in den §§ 19 bis 22 GWB über Kriterien für nichtzulässige Verhaltensweisen erfasst. Hierzu gehören u.a. die Festsetzung überhöhter Preise, willkürliche Preissetzung unter Grenzkosten (Predatory Pricing) zur Verdrängung von Wettbewerbern, Bestpreisklauseln, Exklusivverträge und Lieferboykotte, Behinderung von Wettbewerbern (bspw. durch Unterbindung der Rufnummernmitnahme in der Telekommunikation), Koppelungsgeschäfte (Bundling oder Tying), die Verweigerung oder Limitierung des Zugangs zu Netzen (Netzneutralität) oder wesentlichen Einrichtungen (Essential Facilities) erfasst. In Deutschland hat das Bundeskartellamt in den letzten Jahren unter anderem folgende Fälle untersucht und Untersagungen ausgesprochen:  Meistbegünstigungs- und Bestpreisklauseln bei Hotelbuchungen der Plattformen HRS, Expedia und booking.com,  Leistungsschutzrechte zwischen Google und deutschen Presseverlagen,  Fahrkartenvertrieb der Deutschen Bahn und deren Wettbewerber, sowie  Exklusivvereinbarungen bei Ticketvertrieb durch Eventim. 2015 hat das Bundeskartellamt bspw. die damaligen Bestpreisklauseln der Hotelbuchungsplattform booking.com untersagt. Bestpreisklauseln garantieren zwar Kunden den jeweils günstigsten Zimmerpreis, beschränken aber den Wettbewerb. Zum einen werden durch Exklusivverträge strategische Markteintrittsbarrieren für andere Hotelbuchungsplattformen etabliert, zum anderen zwingen indirekte Netzwerkeffekte die Hotels zur Vertriebspartnerschaft mit booking.com - wer nicht bei booking.com gelistet ist, verliert einen wesentlichen Kundenzugang und kann infolge der Preisbindung nicht mehr über eigene Preise entscheiden - die zu einer Ausdehnung der Vertriebsprovisionen auf Kosten der Hotels und Kunden führen. Auf europäischer Ebene hat die EU Kommission in 2018 gegen Google wegen Missbrauchs einer marktbeherrschenden Stellung beim Smartphone-Betriebssystem Android eine Strafe von 4,3 Mrd. EUR verhängt: Google hatte sowohl Smartphone-Herstellern und Mobilfunknetzbetreibern seit 2011 rechtswidrige Einschränkungen auferlegt, um eine marktbeherrschende Stellung für allgemeine Internetsuchdienste auszubauen (  ec.europa.eu/ commission/ presscorner/ detail/ en/ IP_18_4581). Das Bundeskartellamt hat 2019 Facebook die Zusammenführung von Nutzdaten aus verschiedenen Facebook-Diensten aufgrund eines Missbrauchs marktbeherrschender Stellung untersagt und eine Anpassung der allgemeinen Geschäfts- und Nutzungsbedingungen durchgesetzt: Facebook hatte den Kunden keine Wahl gelassen, ob und in welcher Weise Daten aus WhatsApp, Instagram, Facebook und anderen Diensten gesammelt und verknüpft werden und dadurch den Wettbewerb mit anderen Social-Media-Plattformen beschränkt. Wettbewerbsbeschränkungen durch Kartelle und Kollusion Marktbeherrschende Stellungen mit monopolähnlichen höheren Preisen, geringen Mengen und reduzierter Qualität können aber insbesondere auch durch wettbewerbsbeschränkende <?page no="309"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 309 Absprachen oder koordinierte Verhaltensweisen von mehreren Unternehmen in Form kollektiver Marktbeherrschung zulasten der Kunden oder Wettbewerber entstehen:  Explizit durch Kartelle und kollusives Verhalten basierend auf Verträgen oder formlosen Vereinbarungen - Preise oder Mengen werden festgelegt, Regionen verteilt. Diese expliziten Absprachen werden oft durch informelle Organisationen koordiniert (‚Frühstückskartell’, ‚Preismeldestelle’, ‚Verbände’ etc.) und deren Einhaltung mit Sanktionen sichergestellt.  Implizit durch koordinierte Verhaltensweisen, die sich für die Unternehmen bewährt haben (‚Usancen’, ‚Empfehlungen an Mitglieder’, ‚Marktverständnis’ etc.), ohne dass jemals explizite Vereinbarungen getroffen wurden. Daneben können Unternehmen insbesondere durch langjährigen Wettbewerb ihr Verhalten derart aufeinander einstellen, dass sich alle Wettbewerber ähnlich einem Kartell verhalten (‚spontanes Parallelverhalten’). Unternehmen verzichten also individuell auf strategische Entscheidungsfreiheit, weil sie sich von der Einordnung in eine kollektive Entscheidung Vorteile versprechen. In § 1 GWB ist für Deutschland faktisch ein Kartellverbot geregelt (  bundeskartellamt.de/ DE/ Kartellverbot/ kartellverbot_node.html). Alle wettbewerbsbeschränkenden Vereinbarungen zwischen Unternehmen sowie aufeinander abgestimmte Verhaltensweisen, die eine Verhinderung, Einschränkung oder Verfälschung des Wettbewerbs bezwecken oder bewirken, sind verboten. Vereinbarungen und Absprachen betreffen meist die Abstimmung eines strategischen Wettbewerbsparameters mit dem Ziel der Reduktion der Wettbewerbsintensität und Schaffung strategischer Transparenz unter den Kartellmitgliedern. Wesentlicher Grund für Kollusion sind zwar höhere Gewinne, daneben spielen aber eine verbesserte Basis für langfristige Planungen (Ressourcen, Mitarbeiter, Investitionen etc.) sowie durch kollektive Marktbeherrschung der Aufbau von Eintrittsbarrieren zentrale Rollen. Die Vereinbarungen können dabei grundlegend zwei Formen annehmen: Horizontale Absprachen betreffen Unternehmen der gleichen Wertschöpfungsstufe - bspw. Supermarktketten - vertikale Absprachen werden zwischen Unternehmen entlang der Wertschöpfungskette getroffen - bspw. Lebensmittelproduzenten als Zulieferern und Supermärkten als Vertriebskanal. Horizontale Absprachen betreffen meist einen oder mehrere Wettbewerbsparameter: Preise und Konditionen, Qualität, Mengen, Regionen, Verhalten bei Ausschreibungen oder Verhalten bei Nachfrageänderungen. Horizontale Absprachen sind umso wahrscheinlicher und stabiler, je homogener Produkte und Prozesse sind, je geringer die Unternehmenszahl, je umfangreicher Eintrittsbarrieren und je ähnlicher Kostenstruktur und Technologie der Unternehmen - in diesen Fällen ist es schlicht einfacher, die Einhaltung der Absprachen innerhalb des Kartells zu überwachen und ggfs. zu sanktionieren. Vertikale Absprachen zielen darauf, den Wettbewerb in einer vor- oder nachgelagerten Wertschöpfungsstufe zu beeinflussen: Preisvorgaben von Herstellern gegenüber dem Vertrieb (Preisbindung zweiter Hand), Service und Lieferbedingungen, Ausschließlichkeitsbindungen (Vertragswerkstattpflicht bei Autos oder Exklusivvertrieb von Apple-Smartphones) oder Vertriebsbindungen (Mengenbeschränkungen oder Diskriminierung von Kundengruppen). Vertikale Absprachen sind umso einfacher in eine andere Wertschöpfungsstufe durchzusetzen, je höher die Marktmacht in der eigenen Wertschöpfungsstufe ist. <?page no="310"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 310 In Europa haben das Bundeskartellamt und die EU Kommission in den letzten Jahren unter anderem folgende Fälle untersucht und Strafen gegen die Kartellmitglieder verhängt:  LKW-Kartell unter Beteiligung von Daimler, Scania, DAF, Renault/ Volvo, Iveco und MAN mit einer Gesamtstrafe von 3,8 Mrd. EUR,  Libor-Kartell mit Absprachen zu Zinssätzen unter Beteiligung der Deutschen Bank, Société Générale, Royal Bank of Scotland, JPMorgan, Citigroup, RP Martin, Barclays und UBS mit einer Gesamtstrafe von 1,7 Mrd. EUR,  Zement-Kartell unter Beteiligung von HeidelbergCement, Schwenk Zement, Dyckerhoff, Lafarge, Alsen und Readymix mit einer Gesamtstrafe von 330 Mio. EUR,  Bier-Kartell unter Beteiligung von 12 deutschen Brauereien mit einer Gesamtstrafe von 338 Mio. EUR,  Lebensmittel-Kartell unter Beteiligung von mehr als 20 Lebensmittelherstellern und Supermärkten mit einer Gesamtstrafe von 242 Mio. EUR. Kartelle können aber auch ohne direkte Beteiligung von Menschen zustande kommen: So können Preisalgorithmen verschiedener Unternehmen durch wechselseitige Imitation oder datenbasiertes Lernen Muster entwickeln, die faktisch einem überhöhten Kartellpreis gleichkommen (Ezrachi und Stucke 2015, Bundeskartellamt 2020 und Monopolkommission 2018 und weiterführend ► Kapitel 8). Wettbewerbsbeschränkungen durch Unternehmensübernahmen und -zusammenschlüsse Wettbewerbsbeschränkungen können auch entstehen, wenn sich die Zahl der Unternehmen in einem Markt infolge von Unternehmensübernahmen oder -zusammenschlüssen verringert und damit die horizontale Konzentration erhöht oder vertikale Bindungen verstärkt (siehe auch ► Kapitel 6.4). Zwar sind Ziel der Unternehmenszusammenschlüsse oft Kostensynergien, von denen über Preissenkungen auch Kunden profitieren können. Durch die gleichzeitige Vergrößerung von Marktanteilen oder die Erweiterung der Produktportfolios, insb. aber durch die geringere Zahl der Wettbewerber kann für die Unternehmen aber die Marktmacht und damit Preissetzungsspielräume ansteigen. Da diese Effekte nicht eindeutig sind und von den beteiligten Unternehmen und der Marktsituation abhängen, ist in §§ 35 ff. GWB festgelegt, dass Unternehmenszusammenschlüsse anmelde- und genehmigungspflichtig sind. Das Bundeskartellamt untersucht diese Fälle und untersagt Unternehmenszusammenschlüsse dann, wenn zu erwarten ist, dass der Wettbewerb maßgeblich beschränkt wird oder eine bereits existierende marktbeherrschende Stellung verstärkt wird (  bundeskartellamt.de/ DE/ Fusionskontrolle). Wenn dies nicht gilt, oder die Unternehmen nachweisen können, dass die durch Kostensynergien über Preissenkungen möglichen Wohlfahrtsgewinne den Anstieg an Marktmacht überkompensieren, wird der Unternehmenszusammenschluss genehmigt (Williamson 1968, Neven und Röller 2005 sowie Neumann 2016). Üblicherweise gibt es (international variierende) Aufgreifkriterien und -schwellen in Erlösen oder Marktanteilen, unterhalb derer Unternehmenszusammenschlüsse per se als nicht wettbewerbsbeschränkend eingeordnet werden. In Deutschland werden Zusammenschlüsse entsprechend § 35 GWB geprüft, wenn (1) die beteiligten Unternehmen insgesamt weltweit Erlö- <?page no="311"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 311 se von mehr als 500 Mio. EUR und im Inland mindestens ein beteiligtes Unternehmen Erlöse von mehr als 25 Mio. EUR und ein anderes beteiligtes Unternehmen Erlöse von mehr als 5 Mio. EUR erzielt haben, oder - falls diese Schwellen gerade bei der Übernahme von Start-ups nicht erreicht werden - (2) der Kaufpreis oder das Transaktionsvolumen mehr als 400 Mio. EUR beträgt und die Unternehmen gemeinsam Erlöse von mehr als 25 Mio. EUR aufweisen. In ähnlicher Weise werden Unternehmensübernahme und -zusammenschlüsse mit europaweiter Wettbewerbsbeschränkung durch die EU Kommission auf Basis der EU-Fusionskontrollverordnung (Verordnung (EG) Nr. 139/ 2004 des Rates über die Kontrolle von Unternehmenszusammenschlüssen) geprüft. Statt einer alleinigen Analyse von Marktanteilen (wie früher im Marktbeherrschungstest üblich) wird entlang des SIEC-Tests (Significant Impediment to Effective Competition, in der EU seit 2004, in Deutschland seit 2013) geprüft, ob im relevanten Markt eine signifikante Behinderung wirksamen Wettbewerbs zu erwarten ist. Hier wird unter Anwendung mikroökonomischer Modelle geprüft und abgeschätzt, wie sich Preise, Mengen und Qualität nach dem Unternehmenszusammenschluss im Markt entwickeln werden - insbesondere auch, wenn ein marktbeherrschendes Unternehmen nicht am Zusammenschluss beteiligt ist, aber über indirekte (sogenannte nicht-koordinierte oder unilaterale) Effekte vom Zusammenschluss profitieren kann und seine Marktmacht vergrößert. Die Kontrolle von Unternehmenszusammenschlüssen zielt also darauf, die Entstehung oder Verstärkung von Marktmacht oder Marktbeherrschung durch Unternehmenszusammenschlüsse, Kooperationen oder Kapitalbeteiligungen zu verhindern. Bekannte Übernahmen in Deutschland waren zuletzt  Kaiser’s Tengelmann durch Edeka (2016) im Lebensmitteleinzelhandel,  AirBerlin durch Lufthansa (2017) unter Fluggesellschaften,  E-Plus-Gruppe durch Telefónica (2014) in der Telekommunikationsindustrie. Das Bundeskartellamt oder die EU Kommission können eine Genehmigung allerdings an die Erfüllung von Auflagen (Merger Remedies) knüpfen - so musste nachfolgend dem Zusammenschluss von Telefónica und E-Plus in 2014 das neue Unternehmen u.a. 30 % der Netzkapazität zu festgesetzten Preisen an Betreiber virtueller Mobilfunknetze (MVNO) in Deutschland verkaufen und ein Funkfrequenzspektrum an einen neuen Netzbetreiber veräußern (  ec.europa.eu/ competition/ mergers/ cases/ decisions). Marktmacht versus Unternehmensstrategie Hohe Gewinne einzelner Unternehmen - wie in den letzten Jahren von Apple, International & Commercial Bank of China oder Toyota - können einerseits begründet sein durch überlegene Produkte, gute Unternehmensführung oder Effizienz, andererseits aber durch Marktmacht. Zudem können durch Innovationen Gewinne entstehen, die zum Aufbau von Marktmacht genutzt werden können. Gerade neue digitale Geschäftsmodelle in Form mehrseitiger Plattformen von Uber, Google oder booking.com werden häufig als Bedrohung für existierende Marktstrukturen angesehen, die monopolähnliche Strukturen aufgrund von starken indirekten Netzwerkeffekten entwickeln können - teilweise wird eine Zerschlagung dieser Geschäftsmodelle gefordert (FAZ 2015). Plattformen wie Google, Facebook oder eBay besitzen tatsächlich <?page no="312"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 312 überragende Marktanteile und auch Marktmacht, infolge von Eintrittsbarrieren und starker direkter oder indirekter Netzwerkeffekte, oft in Verbindung mit der fehlenden Möglichkeit zum Multihoming. Vor diesem Hintergrund haben sich einige Grundfragen der Wettbewerbspolitik herausgebildet, welche die Komplexität von Entscheidungen der Wettbewerbsbehörden beschreiben:  Sind Unternehmensgewinne durch Marktmacht oder Effizienz begründet? Hohe Unternehmensgewinne und/ oder Unternehmensgröße, wie bei Google, Netflix oder Apple, können eine Folge von Marktmacht auf Basis von Eintrittsbarrieren (‚Harvard-School’- Ansatz) sein - in diesem Fall muss entsprechend wettbewerbspolitisch eingegriffen werden. Die Gewinne und Unternehmensgröße können aber auch darin begründet sein, dass dieses Unternehmen leistungsorientierter ist, eine höhere Effizienz und bessere Produkte (‚Chicago-School’-Ansatz) besitzt - in diesem Fall basieren die Gewinne auf Innovationen und auf funktionierendem Wettbewerb.  Gibt es einen kausalen Zusammenhang von marktbeherrschender Stellung und Marktanteil? Früher wurde eine marktbeherrschende Stellung oft mit einem Mindestmarktanteil von bspw. 33 % gleichgesetzt, mittlerweile wird differenzierter über den sogenannten SIEC-Test (Significant Impediment to Effective Competition) geprüft, ob von einem Unternehmen eine erhebliche Behinderung von wirksamem Wettbewerb ausgeht, auch unabhängig vom Marktanteil (Bundeskartellamt 2012). Gerade Unternehmen wie Apple (mit einem Marktanteil in Deutschland in 2019 von 14 % bei Smartphones) können Marktmacht in ihrem iOS-Ökosystem ausüben, obwohl der Marktanteil deutlich hinter Wettbewerbern zurückbleibt.  Wo liegen Marktgrenzen und was ist der relevante Markt? Durch disruptive Innovationen und Digitalisierung verschieben sich Industrie- und Marktgrenzen. Marktanteile oder Gewinne in einem Marktsegment oder bei mehrseitigen Märkten haben dann nur eingeschränkte Aussagekraft über Marktmacht oder Funktionsfähigkeit des Wettbewerbs. Zudem werden zahlreiche Produkte zumindest auf einer Marktseite kostenlos angeboten - damit verliert die Preissetzung die Aussagekraft über Marktmacht.  Basieren die Wettbewerbsbeschränkungen auf Intention oder Rahmenbedingungen? Die gleichlaufende Preissetzung von Unternehmen kann auf absichtlichem wettbewerbsbeschränkendem Verhalten oder Absprachen basieren - die Preissetzung kann aber auch durch wesentliche Rahmenbedingungen (bei Tankstellen bspw. saisonale Nachfrage, Technologie, Rohölpreise etc.) begründet sein.  Führen Digitalisierung und Netzwerkeffekte zu natürlichen Monopolen und marktbeherrschenden Stellungen oder zu Marktversagen? Zahlreiche digitale Geschäftsmodelle, wie bspw. mehrseitige Plattformen, haben durch direkte und indirekte Netzwerkeffekte eine Tendenz zu Monopolstellungen. Allerdings kann durch Multihoming (Mitglieder sind bei mehreren konkurrierenden Plattformen angemeldet) oder den Zugang zu Daten großer Plattformen (Datenkompatibilität, -schnittstellen und Zugang zu Essential Facilities) auch Wettbewerb ermöglicht werden. Wettbewerbspolitik wird diese Besonderheiten digitaler Märkte weiter stark berücksichtigen müssen, insbesondere um Innovationen weiter zu fördern ohne dauerhafte Monopolstellungen zu ermöglichen (Wambach 2016, Haucap und Heimeshoff 2017 sowie Monopolkom- <?page no="313"?> Wettbewerbsbeschränkungen, Wettbewerbspolitik und Wettbewerbsbehörden 313 mission 2014). Mit der 9. GWB-Novelle im Juni 2017 ist das deutsche Wettbewerbsrecht in ersten Schritten an die zunehmende Digitalisierung der Märkte angepasst. 2021 wurden durch den neuen § 19 a GWB die nächsten Schritte unternommen: Das Bundeskartellamt kann jetzt insbesondere dann eine überragende marktübergreifende Bedeutung von Plattformunternehmen feststellen, wenn sich die marktbeherrschende Stellung auf einem oder mehreren Märkten in Form von vertikaler Integration oder durch den beschränkten Zugang zu wettbewerbsrelevanten Daten eine Bedeutung für Beschaffungs- und Absatzmärkten anderer Unternehmen auswirkt. In ähnlicher Weise hat die Europäische Kommission zwei Gesetzesinitiativen vorgeschlagen: Den Digital Services Act (DSA) und den Digital Markets Act (DMA). Ziel ist, einen sicheren digitalen Raum zu schaffen, in dem die Grundrechte aller Nutzer digitaler Dienste geschützt und gleiche Wettbewerbsbedingungen zur Förderung von Innovation, Wachstum und Wettbewerbsfähigkeit erreicht werden.  Fragen │ Wie teilen sich Bundeskartellamt und Bundesnetzagentur die Aufgaben? Wettbewerb wird in Deutschland im Wesentlichen durch das Bundeskartellamt, die Bundesnetzagentur und die Monopolkommission überwacht und beobachtet. Das Bundeskartellamt (BKartA) mit Sitz in Bonn und etwa 350 Mitarbeitern ist die zentrale Wettbewerbsbehörde. Das Bundeskartellamt hat die Aufgabe, das GWB anzuwenden: Die Durchsetzung des Kartellverbotes, die Kontrolle von Unternehmensübernahmen und -zusammenschlüssen, die Missbrauchsaufsicht über marktbeherrschende Unternehmen, die Überprüfung öffentlicher Aufträge des Bundes und seit 2017 auch den wettbewerbspolitischen Verbraucherschutz. Bei der Durchsetzung des Kartellverbotes konnte das Bundeskartellamt insbesondere nachfolgend der 2000 eingeführten Kronzeugenregelung einige große Kartellabsprachen aufdecken. In Verfahren gegen die Unternehmen wurden Bußgelder im Umfang mehrerer Mrd. EUR verhängt, in der Spitze alleine 1,1 Mrd. EUR in 2014. Am Bundeskartellamt ist auch die Markttransparenzstelle für Kraftstoffe angesiedelt. Durch eine Echtzeitmeldepflicht von Kraftstoffpreisen aller deutschen Tankstellen wird hier versucht, vermutete verbotene Preisabsprachen der Tankstellen und Mineralölkonzerne nachzuweisen. Erkennbar sind in ► Abbildung 7.15 regelmäßige Preissetzungsmuster, bei denen Aral und Shell als Marktführer sehr häufig ab 20 Uhr mit Preiserhöhungsrunden beginnen und Esso, Total ab 21 Uhr und Jet ab 23 Uhr sehr häufig nachfolgen. Wesentlicher Treiber für diese Muster ist das Ladenschlussgesetz: Schließen Supermärkte, dann kaufen Kunden dringend benötige Lebensmittel mit hoher Zahlungsbereitschaft an der Tankstelle und sind auch bereit, höherer Kraftstoffpreise zu akzeptieren. Bislang ist es nicht gelungen nachzuweisen, dass die Tankstellen sich bei Treibstoffpreisen absprechen (Bundeskartellamt 2017 und FAZ 2017a). Die Daten werden über Apps oder Navigationsgeräte an Kunden weitergegeben, um den Preiswettbewerb zu unterstützen. <?page no="314"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 314 Abbildung 7.15: Benzinpreise im Markenvergleich. Datenquelle: Bundeskartellamt. Das 3. Jahr Markttransparenzstelle für Kraftstoffe (MTS-K), Bonn 2017, S. 19 und 20. E5-Preise im Verlauf eines Tages für Frankfurt und Berlin im Zeitraum Dezember 2015 bis Mai 2016) Die Bundesnetzagentur (BNetzA) mit mehr als 2.500 Mitarbeitern in Bonn ist die deutsche Regulierungsbehörde. Neben der Kontrolle und Überwachung von Unternehmen in Netzwerkmärkten ist die Förderung und Etablierung von Wettbewerb (Deregulierung) in Netzmärkten mit vorherigem staatlichen Monopolen eine zentrale Aufgabe. Unternehmen in den Bereichen Elektrizität, Gas, Telekommunikation, Post und Eisenbahnverkehr werden von der Bundesnetzagentur weitreichend kontrolliert und müssen unter anderem Preismodelle genehmigen lassen oder neuen Wettbewerbern Zugang zu Netzinfrastruktur (‚letzte Meile‘) in Telekommunikations- oder Energienetzen ermöglichen, um funktionsfähigen Wettbewerb zu unterstützen. Daneben organisiert die Bundesnetzagentur die regelmäßigen Auktionen zu Mobilfunklizenzauktionen und überwacht die von den Mobilfunkunternehmen zu erbringenden Versorgungsauflagen (‚schnelles Internet‘). Die Monopolkommission mit 20 Mitarbeitern in Bonn ist ein unabhängiges Beratungsgremium für die deutsche Bundesregierung im Bereich Wettbewerbspolitik, Wettbewerbsrecht und Regulierung. Daneben wird alle zwei Jahre ein Gutachten zum Stand und der Entwicklung der Wettbewerbssituation in deutschen Industrien erstellt. 7.5 Zusammenfassung Vollständige Konkurrenz und Monopol dienen als modellhafte Referenzfälle zur Beurteilung der Ergebnisse des Wettbewerbs (Preise und Mengen). Vollständige Konkurrenz bei einer potenziell großen Zahl an Unternehmen, mit freiem Marktein- und austritt, und aus Kundenperspektive fehlender Produktdifferenzierung, führt langfristig zu ökonomischen Gewinnen gleich Null. Unternehmen besitzen keine strategischen Spielräume und werden durch Wettbewerb zu Effizienz gezwungen - typischerweise pendeln die Gewinne der Unternehmen in einer Abfolge von Innovation, Imitation und Kostensenkung um die Nulllinie. Durch die Addition von Konsumenten- und Produzentenrente kann in Wettbewerbsmärkten ökonomische Wohlfahrt gemessen werden. <?page no="315"?> Zusammenfassung 315 Monopole (oder marktbeherrschende Unternehmen mit signifikanter Marktmacht) haben dagegen große strategische Spielräume und erzielen nachhaltig Gewinne. Allerdings führt das Fehlen von Konkurrenz - gerade bei staatlichen Monopolen - häufig zu Ineffizienz und fehlendem technischen Fortschritt, denn vorhandene Gewinne werden nicht durch Wettbewerb oder neu eintretende Unternehmen bedroht, so dass keine Anreize für Innovation vorhanden sind. Wenn in Industrien Wettbewerb nur eingeschränkt funktioniert, greift der Staat durch rechtliche Rahmenbedingungen und Handlungen ein, um die Funktionsfähigkeit von Wettbewerb zu unterstützen. Wettbewerbspolitik zielt auf eine Überwachung der Marktmacht marktbeherrschender Unternehmen und auf die Aufdeckung und Unterbindung wettbewerbsbeschränkenden Verhaltens. In Deutschland wird dies auf Basis des Gesetzes gegen Wettbewerbsbeschränkung von Bundeskartellamt und Bundesnetzagentur durchgesetzt. Gerade Digitalisierung und neue Geschäftsmodelle erfordern eine grundlegende Überprüfung wettbewerbspolitischer Regelungen, um auch weiterhin durch Innovationen und dynamischen Wettbewerb ökonomische Wohlfahrt zu steigern.  Literaturtipps Tiefergehende Darstellungen zu Wettbewerbsmärkten und allgemeiner Gleichgewichtstheorie finden sich mit viel Mathematik bei Mas-Colell, A. Winston, M.D. und Green, J.R., Microeconomic Theory, New York 1995, mit weniger Mathematik bei Perloff, J.M., Microeconomics - theory and applications with calculus, Harlow 2018. Eine umfassende, aber anspruchsvolle Darstellung zu Wettbewerbspolitik bietet Motta, M., Competition policy - theory and practice, London 2004, aus deutscher Perspektive bieten Haucap, J. und Schmidt, I., Wettbewerbspolitik und Kartellrecht - eine interdisziplinäre Einführung, München 2013, und Fritsch, M., Marktversagen und Wirtschaftspolitik, München 2018, sehr gute Ergänzungen.  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von vollständiger Konkurrenz und Monopol sowie deren Grenzen, Vor- und Nachteile! [2] Welche Annahmen gelten für vollständige Konkurrenz? Sind diese Annahmen realistisch, gibt es Märkte, in denen vollständige Konkurrenz herrscht? Was ist die optimale Strategie für ein Unternehmen? [3] Erläutern Sie, ob ein Unternehmen bei vollständiger Konkurrenz auch bei Verlusten im Markt verbleiben sollte! [4] Beschreiben Sie Wettbewerbsprozesse vollständiger Konkurrenz im Zeitablauf! [5] Wie kann man in einem Markt die Produzenten- und die Konsumentenrente ermitteln? Was sagt sie aus, was passiert mit der Konsumenten- und der Produzentenrente bei Einführung eines Mindestpreises? [6] Was ist ein Monopol, was können Ursachen für Monopole sein? <?page no="316"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 316 [7] Ein monopolistischer Diamanthersteller kennt seine Nachfrage- und Kostenfunktion mit 𝑝𝑝𝑝𝑝 = 2.000 − 0,002𝑞𝑞𝑞𝑞 und 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶 = 20.000.000 + 0,2𝑞𝑞𝑞𝑞 für den deutschen Markt sehr genau. Wie viele Steine 𝑞𝑞𝑞𝑞 für Verlobungsringe für den deutschen Markt sollten produziert werden, wie hoch ist der Preis, wie hoch ist der resultierende Gewinn? Wie hoch ist die Gewinnmarge, gemessen in Preis abzüglich Grenzkosten? [8] Mit welchem Maß kann man Monopolmacht messen, was sagt es aus? Was ist im Gegensatz dazu der Wohlfahrtsverlust (Deadweight-Loss) aufgrund eines Monopols? [9] Welche Institutionen in Deutschland kümmern sich um die Durchsetzung funktionsfähigen Wettbewerbs? Wo liegen die Schwerpunkte der Aufgaben? [10] Erläutern Sie mögliche Ursachen für Marktversagen und Wettbewerbsbeschränkungen!  Literatur Alvarez, L.J. und Hernando, I., Competition and price adjustment in the Euro area, Banco de Espana Research Paper No. WP-0629, 2006. Bator, F.M., The anatomy of market failure, Quarterly Journal of Economics, 1958, 72, 3, 351-379. Betsch, O., Groh, A.P. und Schmidt, K., Gründungs- und Wachstumsfinanzierung innovativer Unternehmen, München 2016. Binmore, K., und Klemperer, P., The biggest auction ever: the sale of the British 3G telecom licences, Economic Journal, 2002, 112, 478, 74-96. Boardman, A.E. und Vining, A.R., Ownership and performance in competitive environments: a comparison of the performance of private, mixed, and state-owned enterprises, Journal of Law and Economics, 1989, 32, 1, 1-33. Buccirossi, P., Ciari, L., Duso, T., Spagnolo, G. und Vitale, C., Competition policy and productivity growth: an empirical assessment, Review of Economics and Statistics, 2013, 95, 4, 1324-1336. Bundeskartellamt (Hrsg.), Das 3. Jahr Markttransparenzstelle für Kraftstoffe (MTS-K), Bonn 2017. Bundeskartellamt (Hrsg.), Leitfaden zur Marktbeherrschung in der Fusionskontrolle, Bonn 2012. Bundeskartellamt, Algorithmen und Wettbewerb, Bonn 2020. Bundesnetzagentur, Tätigkeitsbericht Telekommunikation 2018/ 2019, Bonn 2019. Cabral, L.M. und Riordan, M.H., Incentives for cost reduction under price cap regulation, Journal of Regulatory Economics, 1989, 1, 2, 93-102. Caves, R.E., In praise of the Old IO, International Journal of Industrial Organization, 2007, 25, 1, 1-12. Dewenter, R. und Haucap, J., Grundlagen und Auswirkungen der Liberalisierung in der deutschen Telekommunikationsbranche, in: Ragnitz, J. und Eitner, P. (Hrsg.), Deregulierung in Deutschland - Theoretische und empirische Analysen, Halle 2004, 45-81. Duso, T., Eine bessere Wettbewerbspolitik steigert das Produktivitätswachstum merklich, DIW Wochenbericht 29, 2014, 687-697. European Commission, Green Paper on Entrepreneurship in Europe, Brussels 2003, 27. Evans, D.S., 2003, The antitrust economics of multi-sided platform markets, Yale Journal on Regulation, 2003, 20, 2, 325-381. Fazzari, S.M., Hubbard, R.G. und Peterson, L., Financing constraints and corporate investment, Brookings Papers on Economic Activity, 1988, 1, 141-195. <?page no="317"?> Zusammenfassung 317 Fritsch, M., Marktversagen und Wirtschaftspolitik - mikroökonomische Grundlagen staatlichen Handelns, München 2011. Geroski, P.A., Innovation as an engine of competition, in: Mueller, D.C., Haid, A. und Weigand, J. (Hrsg.), Competition, Efficiency and Welfare, Dordrecht 1998, 13-26. Giersberg, G., Pleiten in Deutschland: Die Insolvenzen des Jahres, Frankfurter Allgemeine Zeitung, 30. Dezember 2016, 13. Gilbert, R. und Newbery, D., Preemptive patenting and the persistence of monopoly, American Economic Review, 1982, 72, 3, 514-526. Gilbert, R. und Shapiro, C., Optimal patent length and breadth, RAND Journal of Economics, 1990, 21, 1, 106-112. Grossarth, J., Dramatischer Preisverfall - Deutschland stürzt in die Milchkrise, Frankfurter Allgemeine Zeitung, 17. Mai 2016, 11. Harrison, R., Mason, C. und Girling, P., Financial bootstrapping and venture development in the software industry, Enterprise and Regional Development, 2004, 16, 2, 307-333. Haucap, J. und Heimeshoff, U., Ordnungspolitik in der digitalen Welt, DICE - Ordnungspolitische Perspektiven, Düsseldorf 2017. Haucap, J. und Schmidt, I., Wettbewerbspolitik und Kartellrecht - eine interdisziplinäre Einführung, München 2013. Haucap, J., Pavel, F., Aigner, R., Arnold, M., Hottenrott, M. und Kehder, C., Chancen der Digitalisierung auf Märkten für urbane Mobilität: Das Beispiel Uber, DICE - Ordnungspolitische Perspektiven, Düsseldorf 2015. Holt, C.A., Industrial organization: a survey of laboratory research, in: Kagel, J. und Roth, A. (Hrsg.), Handbook of Experimental Economics, 1993, 1-103. Hüschelrath, K., Competition policy analysis: an integrated approach, Heidelberg 2008. Jackson, M.O., Economic engineering and the design of matching markets: the contributions of Alvin E. Roth, Scandinavian Journal of Economics, 2013, 115, 3, 619-639. Jovanovic, B., Selection and the evolution of an industry, Econometrica, 1982, 50, 659-670. Kerr, W. und Nanda, R., Financing constraints and entrepreneurship, National Bureau of Economic Research, 2009, No. w15498. Klenow, P.J. und Malin, B., Microeconomic evidence on price-setting, in: Friedman, B. und Woodford, M. (Hrsg.), Handbook of Monetary Economics, Amsterdam 2011, 231-284. Knieps, G., Wettbewerbsökonomie - Regulierungstheorie, Industrieökonomie, Wettbewerbspolitik, Heidelberg 2008. Laffont, J-J. und Tirole, J., The politics of government decision making: a theory of regulatory capture, Quarterly Journal of Economics, 1991, 106, 1089-1127. Laffont, J-J. und Tirole, J., Using cost observation to regulate firms, Journal of Political Economy, 1986, 94, 614-614. Leibenstein, H., Allocative efficiency vs. X-efficiency, American Economic Review, 1966, 56, 3, 392-415. Lerner, A.P., The concept of monopoly and the measurement of monopoly power, Review of Economic Studies, 1934, 1, 3, 157-175. Levin, R.C., A new look at the patent system, American Economic Review, 1986, 76, 2, 199-202. Levin, R.C., Klevorick, A.K., Nelson, R.R., Winter, S.G., Gilbert, R. und Griliches, Z., Appropriating the returns from industrial research and development, Brookings Papers on Economic Activity, 1987, 3, 783-831. Monopolkommission, Algorithmen und Kollusion, Hauptgutachten Monopolkommission 2018, Kapitel 1, 62-88, Bonn 2018. Monopolkommission, Wettbewerbspolitik: Herausforderung digitale Märkte, Sondergutachten 68, Bonn 2014. <?page no="318"?> Vollständige Konkurrenz, Monopol und Wettbewerbspolitik 318 Motta, M., Competition policy - theory and practice, Cambridge 2004. Münter, M.T., Unternehmensgründung und Finanzierung, in: Betzold, R., Emrich, E., Gassmann, F., Heidenreich, S., Jordanov, S., Koch, M., Münter, M.T. und Nguyen, Q. (Hrsg.), Unternehmensgründungen im Umfeld saarländischer Hochschulen - Empirische Ergebnisse und regionalökonomische Effekte, 2021, 179-220. Myers, S.C. und Majluf, N.S., Corporate financing and investment decisions when firms have information that investors do not have, Journal of Financial Economics, 1984, 13, 2, 187-221. Neumann, M., Efficiency defense in EU and US horizontal merger control if costs are endogenous, German Economic Review, 2016, 17, 1, 48-60. Neumann, M., Wettbewerbspolitik - Geschichte, Theorie und Praxis, Berlin 2000. Neven, D.J. und Röller, L.H., Consumer surplus vs. welfare standard in a political economy model of merger control, International Journal of Industrial Organization, 2005, 23, 829-848. o.V., Die neue Benzinpreistricks der Tankstellen, Frankfurter Allgemeine Zeitung, 28. September 2017. o.V., Digitale Märkte: Monopolkommission will Google nicht regulieren, Frankfurter Allgemeine Zeitung, 1. Juni 2015. o.V., Lufthansa stärkt Marktmacht durch Kauf großer Teile von Air Berlin, Frankfurter Allgemeine Zeitung, 13. Oktober 2017. o.V., Nach Übernahme von Air Berlin: Chef der Monopolkommission rechnet mit Auflagen für Lufthansa, Frankfurter Allgemeine Zeitung, 13. Oktober 2017. Organisation for Economic Cooperation and Development, Fostering entrepreneurship, OECD, Paris 1998. Petrakis, E., Rasmusen, E. und Roy, S., The learning curve in a competitive industry, Rand Journal of Economics, 1997, 28, 248-268. Posner, R.A., The social costs of monopoly and regulation, Journal of Political Economy, 1975, 83, 4, 807-827. Reid, G., Trajectories of small business financial structure, Small Business Economics, 2003, 20, 4, 273-285. Rhoades, S.A., Market share as a source of market power: implications and some evidence, Journal of Economics and Business, 1985, 37, 4, 343-363. Roth, A.E., Sönmez, T. und Ünver, M.U., Efficient kidney exchange: coincidence of wants in markets with compatibilitybased preferences, American Economic Review, 2007, 97, 3, 828-851. Roth, A.E., What have we learned from market design? , Economic Journal, 2008, 118, 527, 285-310. Roth, A.E., Who gets what—and why: the new economics of matchmaking and market design, New York 2015. Schmalensee, R., Inter-industry studies of structure and performance, in: Schmalensee, R. und Willig, R.D. (Hrsg.), Handbook of Industrial Organization, 1989, 2, 951-1009. Schumpeter, J.A., Capitalism, socialism and democracy, London 1942. Schumpeter, J.A., Theorie der wirtschaftlichen Entwicklung - eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus, Berlin 1911. Schwartz, M., Dapp, T.F., Beck, G.W. und Khussainova, A., Deutschlands Banken schalten bei Filialschließungen einen Gang höher, KfW Research, 181, 2017. Shepherd, W.G., Public policies toward business, Homewood 1991. Sickmann, J., Deregulierung und Verbraucherwohlfahrt auf dem deutschen Telekommunikationsmarkt, Bonn 2018. Sidak, J.G. und Teece, D.J., Dynamic competition in antitrust law, Journal of Competition Law and Economics, 2009, 5, 4, 581-631. Smith, V.L., An experimental study of competitive market behavior, Journal of Political Economy, 1962, 70, 2, 111-137. Smith, V.L., Microeconomic systems as an experimental science, American Economic Review, 1982, 72, 5, 923-955. <?page no="319"?> Zusammenfassung 319 Uusitalo, R., Homo entreprenaurus? , Applied Economics, 2001, 33, 13, 1631-1638. von Hayek, F.A., Der Wettbewerb als Entdeckungsverfahren, Freiburger Studien, Tübingen 1969, 249-265. Wambach, A., Wettbewerbsregeln für das digitale Zeitalter, Wirtschaftsdienst, 2016, 96, 8, 589-593. Wernerfelt, B., Brand loyalty and market equilibrium, Marketing Science, 1991, 10, 3, 229-245. Williamson, O.E., Economies as an antitrust defense: the welfare tradeoffs, American Economic Review, 1968, 58, 1, 18-36. <?page no="321"?> 8 Preisstrategien und Preisdiskriminierung Mehr oder minder jeder Passagier auf dem Flug der Luxair 4591 am 5. März 2017 um 14: 50 Uhr von Luxemburg nach London-City - am gleichen Tag, zur gleichen Uhrzeit, gleiche Flugstrecke, gleiche Buchungsklasse - hat einen anderen Ticketpreis gezahlt als sein Sitznachbar, bei absolut identischer Transportleistung. Die offensichtlichen Gründe liegen zunächst in Unterschieden bei Buchungszeitpunkt, Bezahlmethode, Zeitpunkt des Rückflugs, Zugehörigkeit zu einem Vielfliegerprogramm oder Vertriebskanal. Zahlreiche Studien haben die Preisunterschiede und Preissetzungsmuster von Fluggesellschaften untersucht. Meist gibt es im Zeitablauf einen W-förmigen Verlauf wie in ► Abbildung 8.1, d.h., nach einer Phase stabiler Preise über einen längeren Zeitraum gehen die Preise ab etwa 200 Tage vor dem Flug langsam aber kontinuierlich zurück, schwanken dann unregelmäßig über einen Zeitraum von zwei bis drei Monaten und steigen dann etwa 30 bis 50 Tage vor Abflug zunächst langsam, dann sehr rapide wieder an. Darin spiegelt sich die abnehmende Preiselastizität der Nachfrage und die wachsende Dringlichkeit der Kunden zu fliegen (McAfee und de Velde 2007) wider. Allerdings basiert ein Teil des Erfolgs von sogenannten Low-Cost-Carriern wie Southwest oder Ryanair darauf, dass diese Unternehmen manchmal gegenläufige Preissetzungsmuster verwenden. Abbildung 8.1: Flugticketpreise im Zeitablauf (schematische Darstellung. Daten: angelehnt an  cheapair.com/ when-to-buy-flights). Aber selbst wenn alle oben genannten Parameter auch noch identisch sind, kann es sein, dass zwei Passagiere der gleichen Buchungsklasse zwei unterschiedliche Preise bezahlt haben: Der Grund liegt in unterschiedlichen Zahlungsbereitschaften der beiden Kunden, die von den Fluggesellschaften durch Preisdiskriminierung ausgenutzt werden (Busse 2015). Preisdiskriminierung fasst dabei alle Preisstrategien zusammen, bei der von Kunden oder Kundengruppen entsprechend deren Zahlungsbereitschaft unterschiedliche Preise für im Wesentlichen identische Produkte mit gleichen Produktionskosten ohne horizontale oder vertikale Produktdifferenzierung verlangt werden. Unternehmen sind in der Lage, die Konsumentent P -0 -30 -100 -200 <?page no="322"?> Preisstrategien und Preisdiskriminierung 322 rente in Teilen oder sogar vollständig abzuschöpfen und so deutliche Gewinnsteigerungen zu erzielen. Produkte in der nicht digitalen Welt ohne wesentliche Produktdifferenzierung mit nahezu identischen Produktionskosten wie Bücher als Hard- und Softcover-Versionen, Hotelzimmer, Mietwagen, Software als Einzelprodukte oder Pakete, Benzin als Super95 oder UltimatePower95 und viele andere werden bereits seit Langem preisdiskriminierend angeboten. Durch Big Data werden die Möglichkeiten für Preisdiskriminierung aber deutlich ausgeweitet: Durch Cookies des Surfverhaltens, das verwendete Endgerät sowie die Suchintensität und die betrachteten Produktalternativen kann ein Unternehmen sehr präzise die Zahlungsbereitschaft eines Kunden ermitteln und auf dieser Basis kundenindividuell und algorithmenbasiert im Zeitablauf den Preis variieren - personalisiertes Dynamic Pricing (Mohammed 2017, Papanastasious und Savva 2017 sowie Levin et al. 2008). Aus Managementperspektive sind mit Preisdiskriminierung zwei Kernfragen verbunden: Zum einen müssen für Marktsegmente individuelle oder kundengruppenspezifische Zahlungsbereitschaften ermittelt werden, zum anderen müssen Möglichkeiten unterschiedlicher Konzepte der Preisdiskriminierung als Preisstrategien herausgearbeitet und mit dem vorhandenen Geschäftsmodell verbunden werden. Dabei muss aber im Blick bleiben, dass Preisdiskriminierung - insbesondere in Form von personalisiertem Dynamic Pricing - von Kunden und Verbraucherschützern auch als unfair betrachtet werden kann (Bolton et al. 2003 sowie Krämer und Kalka 2016).  Lernziele Dieses Kapitel beschäftigt sich mit  den Möglichkeiten der Preissetzung und Preisdiskriminierung von Unternehmen mit Marktmacht und der Umwandlung von Teilen der Konsumentenrente in Gewinne,  den Konzepten nichtlinearer Preisstrategien, zweiteiliger Tarife, Dynamic Pricing oder Auktionen,  der Anwendung von Preisdiskriminierung bei Airlinetickets, Fußballtickets, Packungsgrößen, Büchern, in Auktionen, Mitgliedsgebühren sowie den Möglichkeiten und Einsatzfeldern von reinem Bundling und gemischtem Bundling sowie  Auktionen als mehrstufige, meist dynamische Bietverfahren in B2C- und B2B-Märkten. 8.1 Formen und Voraussetzungen von Preisdiskriminierung Ziel aller Preisstrategien von Unternehmen ist, den Gewinn zu steigern. In ► Kapitel 7 ist erläutert, dass dieses Vorgehen bei hoher Wettbewerbsintensität nicht funktioniert: Unternehmen bei vollständiger Konkurrenz können den Marktpreis nicht beeinflussen. Für Unternehmen mit Marktmacht ist das allerdings möglich - sie können einen Preis über die Grenzkosten durchsetzen und so auf Basis unterschiedlicher Zahlungsbereitschaften der Kunden einen Teil der Konsumentenrente in Gewinne umwandeln. In ► Abbildung 8.2 sind die Gewinne <?page no="323"?> Formen und Voraussetzungen von Preisdiskriminierung 323 von zwei Unternehmen mit identischer Nachfrage- und Kostensituation abgebildet. Das linke Unternehmen besitzt keine signifikante Marktmacht und bestimmt die Produktionsmenge 𝑞𝑞𝑞𝑞 so, dass die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 dem Marktpreis 𝑝𝑝𝑝𝑝 entsprechen. Offensichtlich entsteht kurzfristig ein Gewinn in Höhe von 𝜋𝜋𝜋𝜋 𝐶𝐶𝐶𝐶 . Im Gegensatz dazu besitzt das rechte Unternehmen signifikante Marktmacht und kann unter der Bedingung Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 gleich Grenzerlös 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 eine geringere Menge zu einem höheren Preis in einen höheren Gewinn 𝜋𝜋𝜋𝜋 𝑀𝑀𝑀𝑀 umwandeln - insbesondere ist aber in diesem Fall die Konsumentenrente 𝐶𝐶𝐶𝐶𝑆𝑆𝑆𝑆 deutlich geringer. Abbildung 8.2: Abschöpfung der Konsumentenrente Preisdiskriminierung geht noch weiter: Ein Unternehmen setzt nicht nur einen Preis, sondern mehrere abgestufte Preise, so dass die Gewinne deutlich über das Monopolniveau ausgedehnt werden können - d.h., die Konsumentenrente wird noch weiter reduziert. Voraussetzungen für Preisdiskriminierung (im Marketing häufig als Preisdifferenzierung oder Price Fencing bezeichnet) sind, dass  Unternehmen zumindest ein gewisses Maß an Marktmacht besitzen,  Kunden unterschiedliche Zahlungsbereitschaft haben,  Kunden individuell oder in Marktsegmenten gezielt adressiert werden können oder durch Selbstselektion eines Preismodells ihre jeweilige Zahlungsbereitschaft zeigen und  Arbitrage (d.h. das Ausnutzen von Preisunterschieden durch den Handel der Kunden untereinander in Form von Wieder- oder Weiterverkäufen) unmöglich ist oder zumindest kostspielig gemacht werden kann. Für Fluggesellschaften sind diese Bedingungen erfüllt: Die Lufthansa besitzt nach der Übernahme von AirBerlin auf einzelnen Strecken zu bestimmten Uhrzeiten eine marktbeherrschende Stellung mit Marktmacht, die Kunden (Geschäftsreisende und Urlaubsreisende) haben deutlich unterschiedliche Zahlungsbereitschaft und zeigen diese auch im Buchungsprop 0 0 q p q MC MC MR ATC π C CS CS ATC π M p p q bei p=MC q bei MR=MC Unternehmen ohne signifikante Marktmacht Unternehmen mit signifikanter Marktmarkt <?page no="324"?> Preisstrategien und Preisdiskriminierung 324 zess und schließlich ist Arbitrage aufgrund der Personalisierung von Flugtickets ausgeschlossen (Die Zeit 2017). Preisdiskriminierung ermöglicht drei grundlegende Preisstrategien, die allerdings in Preis- und Geschäftsmodellen auch kombiniert werden:  Nichtlineare Preissetzung durch direkte Preisdiskriminierung - unterschiedliche Kunden oder Kundengruppen zahlen unterschiedliche Preise: Typische Beispiele sind alle Formen von preisdiskriminierender Marktsegmentierung wie Studenten- oder Seniorentickets im ÖPNV, Mengenrabatte in Supermärkten wie „Nimm vier zahl drei“, aber auch Auktionen wie bei eBay oder Dynamic Pricing wie durch Amazon. Diese Möglichkeit ist insbesondere gegeben, wenn durch Marktanalyse vor dem Kauf Unterschiede in der Nachfrage oder Zahlungsbereitschaft der Kunden ermittelt werden können.  Zweiteilige Tarife und indirekte Preisdiskriminierung - Produkte werden mit Grundgebühr und Nutzungsentgelt angeboten: Typische Beispiele sind Mitgliedskarten wie die Bahncard 50 der Deutschen Bahn zur Reduktion der regulären Fahrpreise, Jahresgebühren im Golfclub mit zusätzlicher Green-Fee oder monatliche Grundgebühren für Telefonie, Strom oder Wasser mit zusätzlichen mengenabhängigen Preisen. Diese Möglichkeit wird genutzt, wenn man zwar vermutet, dass Kunden unterschiedliche Zahlungsbereitschaft und Nachfrage haben, aber dies erst durch Selbstselektion während des Kaufs und der Nutzung des Produktes erkennbar wird.  Bundling - unterschiedliche Produkte, die auch einzeln erhältlich sind, werden in Paketen oder gebündelt angeboten: Typische Beispiele sind Softwarepakete von Microsoft, Menüs bei Burger King oder McDonald’s und Programmpakete von Pay-TV-Anbietern wie Sky. Diese Möglichkeit wird genutzt, wenn die Zahlungsbereitschaften für unterschiedliche Produkte über die Kunden hinweg negativ korreliert sind. 8.2 Direkte Preisdiskriminierung und Marktsegmentierung Nichtlineare Preissetzung kann grundsätzlich zwei Formen annehmen. Entweder ist ein Unternehmen in der Lage,  jedem einzelnen Kunden exakt einen Preis entsprechend dessen Zahlungsbereitschaft (perfekte Preisdiskriminierung) zu setzen, oder  für unterschiedliche Kundengruppen entsprechend deren gruppenspezifischer Zahlungsbereitschaft (Marktsegmentierung) Preise zu setzen. Perfekte Preisdiskriminierung Perfekte Preisdiskriminierung ist immer dann relevant, wenn die Kunden ihre Zahlungsbereitschaft aktiv äußern oder diese über Marktforschung genau zu ermitteln ist. Tatsächlich ist dies häufiger der Fall, als es zunächst den Anschein hat. Kunden nennen bspw. im Rahmen von B2C- und B2B-Auktionen aktiv ihre jeweilige Zahlungsbereitschaft, aber auch Neuwagenkäufer und -verkäufer durchlaufen eine Auktion: Zunächst personalisiert der Verkäufer das Fahrzeug entsprechend der vom Kunden gewünschten Extras, dann startet eine Rückwärtsauktion auf Basis des Listenpreises zuzüglich der Extras, in deren Verlauf der Verkäufer den Preis <?page no="325"?> Direkte Preisdiskriminierung und Marktsegmentierung 325 sukzessiv senkt, um die maximale Zahlungsbereitschaft der Kunden herauszufinden und schließlich abzuschöpfen. Zudem überlassen Unternehmen manchmal - Restaurants wie das Kish in Frankfurt/ Main und das Lentil as Anything in Melbourne, der Zoo im westfälischen Münster oder Rockbands wie Radiohead für das Album In Rainbows - den Kunden, den Preis entsprechend der Zahlungsbereitschaft individuell festzulegen, teils mit beträchtlichem Erfolg (Uken 2013). Allerdings kann die Preisstrategie Name Your Own Price nur funktionieren, wenn das Unternehmen ein Mindestmaß an Marktmacht hat und keine Vergleichspreise von den Kunden herangezogen werden, um Referenzpreise zu ermitteln (Kim et al. 2009). In digitalen Geschäftsmodellen hat die Marktforschung durch die Nutzung von Big Data entscheidend an Bedeutung gewonnen. Kunden zeigen nicht nur durch Likes oder Bewertungen in sozialen Medien oder auf Marktplätzen wie eBay oder Amazon direkt ihre Präferenzen an. Auch durch das tatsächliche Kaufverhalten, die verwendeten Endgeräte und die bezahlten Kaufpreise für andere Produkte lässt sich die maximale Zahlungsbereitschaft eines Kunden relativ präzise ermitteln (Baker et al. 2014, Tanner 2014 und Rayna et al. 2015). Diese wird dann durch implizite Auktionen und Dynamic Pricing (dem Kunden werden online und individuell immer wieder neue Preise gezeigt) versucht abzuschöpfen. Abbildung 8.3: Perfekte Preisdiskriminierung. In ► Abbildung 8.3 ist der Effekt perfekter Preisdiskriminierung im Vergleich zu vollständiger Konkurrenz und einem gewöhnlichen Monopol zu sehen. Bei vollständiger Konkurrenz wird eine Menge 𝑞𝑞𝑞𝑞 𝑐𝑐𝑐𝑐 zu einem Preis 𝑝𝑝𝑝𝑝 𝑐𝑐𝑐𝑐 angeboten, so dass die Flächen 𝐴𝐴𝐴𝐴 + 𝐵𝐵𝐵𝐵 + 𝐶𝐶𝐶𝐶 die Konsumentenrente beschreiben. Ein gewöhnlicher Monopolist ohne Möglichkeit zur Preisdiskriminierung setzt einen Preis 𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀 und realisiert einen Gewinn in Höhe von 𝐴𝐴𝐴𝐴 - die Fläche 𝐵𝐵𝐵𝐵 verbleibt als Konsumentenrente, Fläche C stellt den Wohlfahrtsverlust dar. Perfekte Preisdiskriminierung q P, MC 0 D MR q M p M p C q C A B p Mx p Mx p Mn p M1 p M2 C MC a Gewinn in einem gewöhnlichen Monopol: A Gewinn in einem perfekt preisdiskriminierenden Monopol: A + B + C <?page no="326"?> Preisstrategien und Preisdiskriminierung 326 bedeutet nun, dass von jedem Kunden ein Preis entsprechend seiner Zahlungsbereitschaft verlangt wird ( 𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀𝑀 , 𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀𝑀 , … 𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀𝑝𝑝𝑝𝑝 ). In diesem Fall ist ein Unternehmen in der Lage, die komplette Konsumentenrente in Gewinne umzuwandeln, so dass der Gewinn von 𝐴𝐴𝐴𝐴 auf 𝐴𝐴𝐴𝐴 + 𝐵𝐵𝐵𝐵 + 𝐶𝐶𝐶𝐶 ansteigt. Ein preisdiskriminierendes marktbeherrschendes Unternehmen setzt hier auch Preise unterhalb des bisherigen Monopolpreises 𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀 bis zu einer Untergrenze des Preises vollständiger Konkurrenz 𝑝𝑝𝑝𝑝 𝑐𝑐𝑐𝑐 , so dass die Menge über 𝑞𝑞𝑞𝑞 𝑀𝑀𝑀𝑀 auf das Niveau 𝑞𝑞𝑞𝑞 𝐶𝐶𝐶𝐶 vollständiger Konkurrenz erhöht werden kann und zudem der Wohlfahrtsverlust wegfällt.  Fragen │ Dynamic und Personal Pricing - warum zahlt jeder Kunde einen anderen Preis? Unternehmen benötigen zur Implementierung von direkter Preisdiskriminierung präzise Informationen der individuellen Zahlungsbereitschaft der Kunden - idealerweise in jedem Zeitpunkt. Beobachtet man bspw. einen Fischhändler auf dem Winterhuder Marktplatz in Hamburg, so kann man diese personalisierte und dynamische Preissetzung unmittelbar erkennen: Einige Kunden werden durch niedrigere Preise bevorzugt, andere Kunden werden durch höhere Preise benachteiligt. Ursachen dafür sind auf der Kundenseite unterschiedliche Zahlungsbereitschaften, der Unterschied zwischen loyalen Stammkunden und Laufkundschaft, aber auch die Wettbewerbssituation und die Restbestände kurz vor Schließung des Marktes samstags um 13 Uhr. Ein Fischhändler kann also dynamische Preissetzung (zeitpunktspezifische Preissetzung auf Basis kollektiver Nachfragemuster) und personalisierte Preissetzung (kundenindividuelle Preissetzung auf Basis individueller Zahlungsbereitschaft) kombinieren. Personalisierte Preissetzung benötigt dabei insbesondere kundenindividuelle Daten, dynamische Preissetzung analysiert Wettbewerberdaten und Nachfragemuster im Zeitablauf. Mit zunehmender Digitalisierung und Nutzung von Big Data wird genau dieses Preissetzungsverhalten auf Basis individueller Zahlungsbereitschaften erleichtert: Unternehmen sind in der Lage aus Browserinformationen, verwendeten Endgeräten, dem Such- und Surfverhalten im Internet, den Likes und Dislikes aus Social-Media-Accounts in zunehmender Präzision auf Präferenzen und Zahlungsbereitschaften einzelner Kunden zu schließen. Neu ist - gerade in digitalen Kanälen - eine stärkere Verbreitung von dynamischer Preissetzung und personalisierter Preissetzung anhand von Algorithmen. Algorithmische Preissetzung basiert auf Datenanalyse, die eine automatisierte regelgebundene, dynamische und kundenspezifische Preissetzung in Echtzeit ermöglicht (Bar- Gill 2019, Narahari et al. 2015 sowie OECD 2018). Empirische Studien zeigen, dass Dynamic Pricing bereits in vielen Online-Shops implementiert ist - so setzen 80 % aller Shops auf Amazon Marketplaces in Großbritannien verwenden bereits auf Pricing Algorithmen (Chen und Chen 2015 sowie Chen et al. 2016). Personal Pricing ist dagegen bislang eher selten zu beobachten ist - und wird oft durch Product Ranking oder Personalisierung der Produkte verschleiert oder ersetzt (Mikians et al. 2012 sowie Hannak et al. 2014). <?page no="327"?> Direkte Preisdiskriminierung und Marktsegmentierung 327 Abbildung 8.4: Frequenz und Volatilität der Preissetzung deutscher Online-Shops. Maximale Anzahl der beobachteten Differenzierungen eines Produktpreises (Frequenz) und maximale prozentuale Preisdifferenz zum mittleren Produktpreis (Volatilität) bei den 16 untersuchten Online-Händlern im Frühjahr 2018. Angabe der Preisdifferenz in Prozent (Quelle: Dautzenberg et al. 2018a, S. 20). Entsprechende Beobachtungen haben auch die Verbraucherzentralen Deutschlands in zwei Studien gemacht (Dautzenberg et al. 2018a und 2018b). Wie in ► Abbildung 8.4 zu sehen werden Preise bei zahlreichen Online-Shops mehrfach wöchentlich, teils täglich und in hoher Volatilität verändert: Die Preisdynamik beträgt bis zu 105 % in Relation zum mittleren Preis. Personalisierte Preissetzung wurde zwar beobachtet - unterschiedliche Endgeräte zeigen bspw. unterschiedliche Preise - allerdings weder im Umfang wie bei dynamischer Preissetzung, noch ist ein systematischer Zusammenhang identifizierbar. Ursächlich hierfür ist zum einen, dass statt personalisierten Preisen ein personalisiertes Produktranking mit stärkerem Gewinnhebel verwendet wird, zum anderen das Fairness-Empfinden der Kunden gestört wird. Zahlreiche empirische Studien zeigen, dass Kunden dynamische und personalisierte Preise als unfair empfinden (Garbarino und Lee 2003, Richards et al. 2017 sowie Seele 2020 et al.). Fairness betreffend den Preis liegt immer dann vor, wenn die Kunden das Preis- Leistungsverhältnis als gerecht einstufen und der tatsächliche Preis nicht gegen den als individuell oder kollektiv akzeptierten Preis verstößt. Die Wahrnehmung von Fairness ergibt sich als subjektives Ergebnis eines Vergleichsprozesses der Austauschbeziehung zwischen den Transaktionspartnern (sog. Equity-Theorie). Hierbei wird das eigene Kosten-/ Nutzen-Verhältnis mit dem des Transaktionspartners verglichen, oder es erfolgt der Vergleich mit anderen Kunden, welche mit dem Transaktionspartner in Verbindung stehen. Unabhängig davon gestehen sich Transaktionspartner häufig einen angemessenen Gewinn oder Nutzen zu (sogen. Entitlement-Theorie). Alternate ATU Comtech Conrad DocMorris Mediamarkt Obi Otto Otto FH Sanicare Tirendo Zalando 0 5 10 15 20 25 30 35 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% 110% maximale Frequenz eines Produkts maximale Volatilität eines Produkts <?page no="328"?> Preisstrategien und Preisdiskriminierung 328 Preiserhöhungen aufgrund gestiegener Kosten werden also meist als fair angesehen, auch wenn sie zu Lasten der Kunden gehen, während Preiserhöhungen die nur der Steigerung des Gewinns dienen und nicht durch Kostenerhöhungen begründet sind, als unfair angesehen werden. Zudem hängt das Fairness-Empfinden von Referenzpreisen ab, die auf aktuellen Marktpreisen, gelernten Preisankern und vergangenen Erfahrungen basieren. Neben diesen kognitiven Komponenten existiert eine emotionale Komponente der Preisfairness - Kunden reagieren Kunden bei Benachteiligung mit Verärgerung und Wut, bei Begünstigung mit Schuldgefühlen. Sowohl Vorteile als auch Nachteile aus Preisdifferenzierung haben als empfundene Unfairness zur Folge (Xia et al. 2004, Reinartz et al. 2017, Jentzsch 2017 sowie Kahneman et al. 1986). Empfundene Unfairness steigt bei dynamischer Preissetzung mit der Volatilität der Preissetzung und der Frequenz der Preisänderung, geht aber mit zeitlichem Abstand verloren und wird bei Kostenschwankungen des Unternehmens als notwendiges Übel erachtet. Bei personalisierter Preissetzung ist die empfundene Unfairness generell höher, weil hier die soziale Norm der Ungleichheitsaversion verletzt wird. In der Folge verlieren die Kunden Vertrauen zu einem Unternehmen und die Wechselbereitschaft steigt an (Reinartz et al. 2017). Tatsächlich lässt sich das Unfairness-Empfinden der Kunden reduzieren: Uber informiert die Kunden vor Buchung einer Fahrt über situativ erhöhte Preise aufgrund von starker Nachfrage oder wenigen verfügbaren Fahrern - in der Folge werden höhere und dynamisch personalisierte Preise besser akzeptiert (Chen 2017 und Dakers 2016). Zudem führen Mitgliedschaften in Loyaltyprogrammen, der limitierte Zugang zu exklusiven Deals oder der Einkauf in unterschiedlichen Vertriebskanälen zu reduziertem Unfairness-Empfinden. Die wettbewerbspolitische Beurteilung personalisierter und dynamischer Preise fällt nicht eindeutig aus. Die Konsumentenrente kann fallen, aber auch ansteigen, zudem können durch individualisierte Preissetzung auch Kunden mit niedrigem Einkommen und Zahlungsbereitschaft Produkte kaufen, die sonst zu teuer wären. Zudem steigt in der Regel die Produzentenrente, so dass die ökonomische Wohlfahrt zunimmt. Im Wesentlichen hängt die Beurteilung davon ab, ab und wie gut die Kunden informiert sind: Je mehr strategische Kunden - die sich detailliert über Preise informieren - desto größer fallen Vorteile für die Kundenseite aus, je zahlreicher myopische Kunden - die eher spontan und ohne Informationssuche kaufen - sind, desto wahrscheinlicher ist ein Rückgang der Konsumentenrente (Heidhues und Köszegi 2010 sowie Kremer et al. 2017). Allerdings bringt algorithmenbasierte Preissetzung ein Risiko mit sich: Es kann (beabsichtigt oder unbeabsichtigt) sein, dass sich Algorithmen unterschiedlicher Unternehmen in ihrer Preissetzung adaptiv wie ein Preiskartell verhalten und so höhere Erlöse oder Gewinne für die Unternehmen ermöglichen (Ezrachi und Stucke 2015, Gal 2017 sowie Schwalbe 2018). Algorithmenbasierte Preissetzung kann aber auch zu kuriosen Ergebnissen führen: Am 18. April 2011 haben sich zwei Preisalgorithmen auf Amazon Marketplaces wiederholt wechselseitig überboten, bis das Lehrbuch Making of a Fly von Peter Lawrence zu einem Preis von 23.698.655,93 USD angeboten, aber nicht verkauft, wurde (Solon 2011). <?page no="329"?> Direkte Preisdiskriminierung und Marktsegmentierung 329 Marktsegmentierung und Grenzerlöse Häufig ist es Unternehmen nicht effizient möglich, die Zahlungsbereitschaft jedes einzelnen Kunden präzise zu ermitteln. Allerdings lassen sich diese für einzelne Kundengruppen oder mehrere Marktsegmente oft sehr gut identifizieren. Sind die Kunden- oder Marktsegmente leicht voneinander zu trennen, separat adressierbar und kann Arbitrage verhindert werden, dann wenden Unternehmen Gruppenpreise an. Dies kann räumlich (unterschiedliche Neuwagenpreise in Deutschland und den USA), demografisch (Studenten, Senioren usw.), intertemporal (Saison oder Tagvs. Nachtarife) oder in Kombination erfolgen. Gruppenpreisbildung bedeutet, dass Kundengruppen, deren unterschiedliche Zahlungsbereitschaft einfach zu erkennen und zu überprüfen ist, unterschiedliche Preise gestellt werden. Typischerweise geschieht das in Museen, Kino und Theater oder im öffentlichen Personenverkehr. Reduzierte Eintrittspreise für Studierende oder Senioren sind somit kein freundliches Entgegenkommen der Unternehmen: Vielmehr setzt das Unternehmen Monopolpreise für jedes Marktsegment entsprechend der Zahlungsbereitschaften und kann so den Gewinn steigern. Die grundlegende Wirkungsweise ist in ► Abbildung 8.5 für Flugtickets, die in Buchungsklassen wie Economy und Business unterschieden werden, zu sehen. Offensichtlich verläuft die Nachfragekurve 𝐷𝐷𝐷𝐷 2 der Geschäftsreisenden flacher und die absolute Zahlungsbereitschaft ist größer als für die anderen Reisenden. Abbildung 8.5: Gruppenpreisbildung und Marktsegmentierung. Für innerdeutsche Flüge oder Kurzstrecken in Europa sind die Grenzkosten je Passagier identisch, so dass das Unternehmen durch Verschieben des Vorhangs in der Kabine die Klassen voneinander trennt. Die Produktdifferenzierung erfolgt alleine durch die Möglichkeit größerer Flexibilität beim Umbuchen. Eine Fluggesellschaft wird dann in beiden Marktsegmenten jeweils die Regel Grenzerlös 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 gleich Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 zur Ermittlung der optimalen Anzahl oder Verteilung der Tickets je Buchungsklasse anwenden - in ► Abbildung 8.5 resultieren p 1 MC p 0 0 q p q MR 2 MR 1 p 2 D 1 D 2 MR 1 =MR 2 q 1 q 2 Airline-Tickets für privat Reisende Airline-Tickets für Geschäftsreisende <?page no="330"?> Preisstrategien und Preisdiskriminierung 330 dann optimale Sitzplatzmengen von 𝑞𝑞𝑞𝑞 1 und 𝑞𝑞𝑞𝑞 2 bei Preisen von 𝑝𝑝𝑝𝑝 1 und 𝑝𝑝𝑝𝑝 2 und die durch die grauen Flächen gekennzeichneten Gewinne sind im Geschäftsreisenden-Segment deutlich größer. Zentral ist aber folgende Erkenntnis: Wendet ein Unternehmen diese Gruppenpreisstrategie an, dann sind bei Maximierung der Gewinne die Grenzerlöse in allen Marktsegmenten gleich groß (hier 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 1 und 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 2 ) - d.h., mit dem jeweils letzten verkauften Ticket in jeder Buchungsklasse ist der gleiche Erlöszuwachs erzielt worden (vgl. auch analoge Ergebnisse für Grenzprodukte in ► Kapitel 5 und Grenzkosten in ► Kapitel 6). Das ► Kapitel 7 zeigte, dass ein Unternehmen mit Marktmacht den Gewinn maximieren kann, wenn Preise und Mengen so gewählt werden, sodass die Grenzkosten den Grenzerlösen entsprechen. Dieses Ergebnis gilt auch für Produkte in mehreren Marktsegmenten - exemplarisch für zwei Produkte, deren gemeinsamer Gewinn durch (8.1) 𝜋𝜋𝜋𝜋(𝑞𝑞𝑞𝑞 1 , 𝑞𝑞𝑞𝑞 2 ) = 𝑝𝑝𝑝𝑝 1 𝑞𝑞𝑞𝑞 1 + 𝑝𝑝𝑝𝑝 2 𝑞𝑞𝑞𝑞 2 − 𝑇𝑇𝑇𝑇𝐶𝐶𝐶𝐶(𝑞𝑞𝑞𝑞 1 + 𝑞𝑞𝑞𝑞 2 ) gegeben ist. Ein Unternehmen kann den Gewinn durch Wahl der Produktionsmengen 𝑞𝑞𝑞𝑞 1 und 𝑞𝑞𝑞𝑞 2 unter den Bedingungen (8.2) 𝜕𝜕𝜕𝜕𝜋𝜋𝜋𝜋 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕1 = 𝑝𝑝𝑝𝑝 1 + 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕1 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕1 𝑞𝑞𝑞𝑞 1 − 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕1 = 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 1 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 1 = 0 und (8.3) 𝜕𝜕𝜕𝜕𝜋𝜋𝜋𝜋 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕2 = 𝑝𝑝𝑝𝑝 2 + 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕2 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕2 𝑞𝑞𝑞𝑞 2 − 𝜕𝜕𝜕𝜕𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕2 = 𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀 2 − 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 2 = 0 maximieren, so dass zunächst wie in ► Abbildung 8.5 die Grenzerlöse den jeweiligen Grenzkosten entsprechen. Sind die Grenzkosten identisch, dann kann aus (8.3) und (8.3) unter Verwendung der Preiselastizität der Nachfrage 𝜀𝜀𝜀𝜀 = 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 𝜕𝜕𝜕𝜕𝜕𝜕𝜕𝜕 das optimale Preisverhältnis für beide Marktsegmente als (8.4) 𝜕𝜕𝜕𝜕1 𝜕𝜕𝜕𝜕2 = 1+ 1 𝜀𝜀𝜀𝜀2 1+ 1 𝜀𝜀𝜀𝜀1 ermittelt werden. Eine einfache Faustregel für Manager ist also, das Preisverhältnis für die beiden Marktsegmente umgekehrt zur Preiselastizität der Nachfrage zu wählen: Je höher die Preiselastizität, desto geringer der relative Preis und umgekehrt. Dieses Ergebnis gilt in gleicher Weise für eine beliebige Zahl an Produkten oder Marktsegmenten. Zudem ist aus strategischer Perspektive wichtig zu erkennen, dass die Kosten - wie in Gleichung (8.4) zu sehen - für diese Entscheidung über die Preisstruktur keine Rolle spielen, wenn diese über die Marktsegmente hinweg identisch sind.  Case Study | Gruppenpreisbildung am Beispiel Flugtickets Ein Produktmanager einer Fluggesellschaft soll die Ticketpreise für die Strecke Frankfurt- London in der Economy und Business-Class festlegen. Die Grenzkosten (Landeslot, Security, Abfertigung etc.) betragen EUR 250. Die Preiselastizität für Economy-Kunden beträgt 𝜀𝜀𝜀𝜀 𝐸𝐸𝐸𝐸 = −4,0 (sehr elastisch), für Business-Kunden 𝜀𝜀𝜀𝜀 𝐵𝐵𝐵𝐵 = −1,6 (schwach elastisch). Zur Gewinnmaximierung kann der Produktmanager auf Gleichung (8.4) zurückgreifen. Die Preise für beide Kundengruppen müssen die jeweiligen Preiselastizitäten berücksichtigen, so dass sich mit <?page no="331"?> Indirekte Preisdiskriminierung und zweiteilige Tarife 331 (8.5) 𝑝𝑝𝑝𝑝𝐸𝐸𝐸𝐸 𝑝𝑝𝑝𝑝𝐵𝐵𝐵𝐵 = 1+ 1 𝜀𝜀𝜀𝜀𝐵𝐵𝐵𝐵 1+ 1 𝜀𝜀𝜀𝜀𝐸𝐸𝐸𝐸 = 0,375 0,75 = 12 ⇒ 𝑝𝑝𝑝𝑝 𝐸𝐸𝐸𝐸 = 0,5 ⋅ 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 ergibt, dass der Preis für ein Economy-Class-Ticket genau halb so hoch ist wie der Business-Class-Preis. Der absolute Preis je Ticket lässt sich dann über Gleichung (7.49) mit den Grenzkosten als (8.6) 𝑝𝑝𝑝𝑝 𝐸𝐸𝐸𝐸 = 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 1+ 1 𝜀𝜀𝜀𝜀𝐸𝐸𝐸𝐸 = 250 0,75 = 333,33 bestimmen, so dass der Preis für ein Business-Class-Ticket 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 = 666,67 beträgt. In ähnlicher Weise wie Fluggesellschaften ermitteln auch Museen, der öffentliche Personennahverkehr oder Unternehmen, die unter mehreren Marken identische Produkte anbieten, die relativen Preise je Marktsegment. Grundlage dieser Strategien ist oft, dass die Grenzkosten je Kunde nur geringfügig unterschiedlich sind oder tatsächlich Null betragen: Dies gilt insbesondere für Sportveranstaltungen oder Musikfestivals. Vereine wie der FC Bayern München haben daher die Erlösmaximierung aus dem Ticketverkauf bereits optimiert. Zunächst werden je Spiel über 150 verschiedene Ticketvarianten personalisiert (Online Ticketing) verkauft, um Arbitrage zu verhindern. Die Ticketpreise werden über die relative Zahlungsbereitschaft und die Preiselastizität der Nachfrage bestimmt. Daneben hat der Verein eine Auktionsplattform organisiert (Ticket-Zweitmarkt), auf der unter bestimmten Bedingungen Tickets weiterverkauft werden können - der FC Bayern München profitiert nochmals (  tickets.fcbayern.com). 8.3 Indirekte Preisdiskriminierung und zweiteilige Tarife Oftmals ist es Unternehmen nicht möglich, Kunden oder Kundengruppen entsprechend ihrer Zahlungsbereitschaft zu erkennen oder Arbitrage kann nicht effektiv verhindert werden. Die in ► Kapitel 8.2 beschriebenen Konzepte und Strategien funktionieren somit nur eingeschränkt. Allerdings kann in diesen Fällen indirekte Preisdiskriminierung angewendet werden. Ein Unternehmen bietet hier allen Kunden alle Preismodelle an, überlässt aber die Preisauswahl oder sogar die Preisgestaltung den Kunden und kann so Teile der Kosten der Marktforschung einsparen: Wenn verschiedene Preismodelle für identische Produkte strategisch richtig angeordnet werden, werden Kunden entsprechend ihrer Zahlungsbereitschaft adressiert und ordnen sich selbst dem Preismodell zu (Bertini und Koenigsberg 2014 sowie Narayanan et al. 2007). Häufig führt diese Selbstselektion zu deutlichen Gewinnsteigerungen für die Unternehmen. Typische Formen indirekter Preisdiskriminierung sind  Paketpreise und Blockpreise - eine mengenbezogene Preisdiskriminierung, bei der Kunden in Abhängigkeit von Packungsgröße, Kaufhäufigkeit oder Nachfrageverhalten Preisreduktionen (in Form von Mengenrabatten oder Discounts) angeboten werden,  zweiteilige Tarife und Flatrates - Kunden erwerben über eine monatliche Grundgebühr eine Basisvariante oder Zugangsberechtigung, zudem wird nutzungsabhängig ein zusätzliches Entgelt verlangt, oder <?page no="332"?> Preisstrategien und Preisdiskriminierung 332  Freemium-Modelle und Damaged Products - eine qualitative Preisdiskriminierung, in der unterschiedliche Varianten eines Produktes mit Funktionseinschränkungen positioniert werden. Paketpreisbildung Ein typisches Beispiel sind unterschiedliche Packungsgrößen im Lebensmitteleinzelhandel, Coupons für Preisreduktionen, Buy-One-Get-One-Free-Modelle oder Mobilfunktarife mit unterschiedlichen Datenvolumina. Meist werden hier die Preise je 100 Gramm oder pro Gigabyte Daten geringer, je größer das Gesamtvolumen ist. In ► Abbildung 8.6 ist dies verdeutlicht: Das Unternehmen Lavazza bietet unter dem Markennamen Lavazza Qualita Oro identischen Kaffee in unterschiedlichen Varianten - der Preis je Kilogramm lässt sich so verdreifachen. (Preise im November 2017 ermittelt im Woolworth Supermarket in der Fitzroy Street in Melbourne). Abbildung 8.6: Paketpreisbildung. Paketpreisbildung bedeutet, dass Kunden mengenabhängig für identische Produkte unterschiedliche Preise bezahlen. Ein erster Fall ist in ► Abbildung 8.7 anhand von Packungsgrößen gezeigt. Ein Unternehmen vermutet, dass es drei in ihrer Zahlungsbereitschaft unterschiedliche Kundengruppen gibt. Statt einem einzigen Preis und einer zugehörigen Menge in allen Marktsegmenten - markiert durch den Punkt des Monopolpreises p M - adressiert das Unternehmen mit drei verschiedenen Preisen 𝑝𝑝𝑝𝑝 1 , 𝑝𝑝𝑝𝑝 2 und 𝑝𝑝𝑝𝑝 3 für drei verschiedene Packungsgrößen diese vermuteten Kundengruppen. Wenn die Preise zielsicher angeordnet sind, dann entstehen für die einzelnen Kundengruppen Gewinne in Höhe der jeweiligen grauen Flächen. Diese können in Summe größer sein als ein Monopolgewinn auf Basis eines einzigen Preises - wesentlich hängt dies von der Größe der einzelnen Kundensegmente und deren jeweiliger Zahlungsbereitschaft und Nachfrageverhalten ab (Cohen 2008). AUD 12,50 Preis je Packung Preis je Kilogramm AUD 26,50 AUD 18,00 AUD 38,00 Lavazza Qualita Oro 125g Lavazza Qualita Oro 250g Lavazza Qualita Oro 500g Lavazza Qualita Oro 1000g AUD 53 AUD 38 AUD 100 AUD 72 <?page no="333"?> Indirekte Preisdiskriminierung und zweiteilige Tarife 333 Abbildung 8.7: Gewinne bei unterschiedlichen Packungsgrößen. q P, MC D MR p 1 MC q 1 A q P, MC D MR p 2 MC q 2 B q P, MC D MR p 3 MC q 3 C p M p M p M Gewinne aus kleinen Packungen Gewinne aus mittelgroßen Packungen Gewinne aus großen Packungen <?page no="334"?> Preisstrategien und Preisdiskriminierung 334 Paketpreise funktionieren in Supermärkten dann sehr gut, wenn aufgrund von Transportkosten, Wohnungsgröße oder begrenzter Haltbarkeit nicht alle Kunden die vermeintlich pro Stück oder Kilogramm günstigen Großpackungen kaufen, sondern kleinere Varianten wählen. Eine besondere Form der Paketpreise sind Blockpreise - Preise die für bestimmte Mengenintervalle für alle Kunden in gleicher Weise gelten. Diese finden sich häufig bei Energieversorgern, das Konzept lässt sich aber auch auf kumulierte Mengenrabatte in anderen Geschäftsmodellen anwenden. In ► Abbildung 8.8 ist die über verschiedene Kundengruppen addierte Nachfrage nach Strom in Abhängigkeit der Größe von Haushalten dargestellt - typischerweise steigt diese zwar mit der Zahl der Haushaltsmitglieder an, aber die Zahlungsbereitschaft je Kilowattstunde Strom wird sukzessiv geringer. Ein Energieversorger bietet daher oft Blockpreise an, in denen die Preise blockweise von 𝑝𝑝𝑝𝑝 1 über 𝑝𝑝𝑝𝑝 2 nach 𝑝𝑝𝑝𝑝 3 absteigen. Das Unternehmen kann daher für kleine Mengen bis 𝑞𝑞𝑞𝑞 1 von allen Kunden - Einzelpersonenhaushalte, Ehepaare und Familien - zunächst hohe Preise 𝑝𝑝𝑝𝑝 1 oberhalb eines einheitlichen Monopolpreises 𝑝𝑝𝑝𝑝 𝑀𝑀𝑀𝑀 durchsetzen und über alle Kundengruppen einen Gewinn von 𝐴𝐴𝐴𝐴 erzielen. Zu diesem Preis würden allerdings weder Ehepaare noch Familien ihre Nachfrage ausweiten. Aus diesem Grund bietet das Unternehmen das nächste Mengenintervall bis 𝑞𝑞𝑞𝑞 2 zu einem reduzierten Preis von 𝑝𝑝𝑝𝑝 2 an - der Gewinn steigt jetzt durch die Kundengruppen Ehepaare und Familien um die Fläche 𝐵𝐵𝐵𝐵 an. Um die Restnachfrage der Menge 𝑞𝑞𝑞𝑞 3 der Familien zu bedienen, bietet das Unternehmen für diese Mengen einen Preis 𝑝𝑝𝑝𝑝 3 an. Der Gesamtgewinn steigt dann auf 𝐴𝐴𝐴𝐴 + 𝐵𝐵𝐵𝐵 + 𝐶𝐶𝐶𝐶 und übersteigt deutlich den durch einen einheitlichen Monopolpreis erzielbaren Gewinn, wie in ► Abbildung 8.8 zu erkennen ist. Abbildung 8.8: Gewinne bei Paketpreisbildung und Mengenrabatt. B q P, MC 0 D MR p 3 p 1 p 2 ATC= MC alle Haushalte q 3 q 2 q 1 Ehepaare und Familien nur Familien A C p M Gewinne eines blockpreisdiskriminierenden Stromlieferanten: Gewinn eines ‚normalen‘ Monopols <?page no="335"?> Indirekte Preisdiskriminierung und zweiteilige Tarife 335 Die Gewinne eines paketpreisdiskriminierenden Monopols sind also höher als die eines normalen Monopols. Das absolute Gewinnniveau wird bestimmt durch die jeweiligen Zahlungsbereitschaften, unterschiedliche Kundengruppenbedürfnisse und die Anzahl der adressierbaren Kundengruppen. Zweiteilige Tarife und Flatrates Viele Unternehmen bieten Produkte und Dienstleistungen mit zweiteiligen Tarifen an: Der eine Teil des Tarifs ist eine monatliche oder jährliche Mitgliedsgebühr und besteht aus einem Fixbetrag, der andere Teil des Tarifs fällt als nutzungsabhängiges Entgelt oder für bestimmte Zusatzleistungen an und ist variabel. Derartige Preismodelle finden sich für viele Freizeitaktivitäten (Golf, Tennis, Fitnessclub etc.) und Bankprodukte (Girokonten, Kreditkarten etc.), aber auch für Mobilfunkverträge mit Monatsgrundgebühr und zusätzlichem Nutzungsentgelt pro Minute oder für Datenvolumen bei Überschreiten der Inklusivmengen. Eine besondere Form von zweiteiligen Tarifen liegt in Systemmärkten mit indirekten Netzwerkeffekten vor: Der Erwerb einer Spielkonsole oder -plattformen gleicht einer Mitgliedsgebühr, der Erwerb zusätzlicher Spiele oder Levels im Spiel ist ein Nutzungsentgelt (vgl. auch ► Kapitel 2). Ob und in welcher Höhe Mitgliedsgebühren möglich sind, hängt wesentlich von der Konsumentenrente und der Preiselastizität der Nachfrage ab. In ► Abbildung 8.9 ist das Grundprinzip einer Mitgliedsgebühr zu sehen. Sie basiert wie alle Formen von Preisdiskriminierung darauf, Kunden einen Teil oder die komplette Konsumentenrente zu entziehen. Ein Monopolist erzielt (unter der gewinnmaximierenden Bedingung Grenzerlöse 𝑀𝑀𝑀𝑀𝑅𝑅𝑅𝑅 gleich Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 ) bei einem Preis von 𝑝𝑝𝑝𝑝 einen nutzungsabhängigen Erlös in Höhe der Fläche 𝐴𝐴𝐴𝐴 . Ein zweiteiliger Tarif entsteht nun, indem das Unternehmen die Konsumentenrente ermittelt und in eine Mitgliedsgebühr 𝐵𝐵𝐵𝐵 umwandelt und erhebt. Dieser zweiteilige Tarif lässt sich in eine Flatrate 𝐶𝐶𝐶𝐶 umwandeln, wenn das Unternehmen das nutzungsabhängige Entgelt 𝐴𝐴𝐴𝐴 und die Mitgliedsgebühr 𝐵𝐵𝐵𝐵 zusammenführt. <?page no="336"?> Preisstrategien und Preisdiskriminierung 336 Abbildung 8.9: Monopolpreis, zweiteiliger Tarif und Flatrate. p q p q a MC MR p q p q a MC MR p q p q a MC MR A A B C Monopolpreis zweiteiliger Tarif Flatrate <?page no="337"?> Indirekte Preisdiskriminierung und zweiteilige Tarife 337 In ► Abbildung 8.10 ist zu erkennen, dass Existenz und Umfang von Mitgliedsgebühren vom Verlauf der Nachfragekurve abhängen: Je geringer die Preiselastizität der Nachfrage ist, desto geringer fällt eine mögliche Mitgliedsgebühr aus. Allerdings kann ein Unternehmen auch in diesem Fall - wie das bei Fitnessstudios der Fall ist - das nutzungsabhängige Entgelt direkt auf die Mitgliedsgebühr aufschlagen und auf diese Weise lediglich einen Monats- oder Jahresbeitrag erheben. Der Grund ist, dass eine Übernutzung des Fitnessstudios ausgeschlossen ist. Ähnlich lassen sich die Preise in All-You-Can-Eat-Restaurants als eintägige Mitgliedsgebühr ohne Nutzungsentgelt interpretieren. Beide Geschäftsmodelle basieren auf Fixkosten, die vollständig über Mitgliedsgebühren gedeckt sind (Just und Wansink 2011 sowie DellaVigna und Malmendier 2006). Abbildung 8.10: Konsumentenrente und Mitgliedsgebühren. Ob das Erheben einer Mitgliedsgebühr und einem zusätzlichen Nutzungsentgelt effektiv ist, hängt neben dem Verlauf der Nachfrage auch von der Wettbewerbssituation und der Höhe der Grenzkosten ab, wie aus ► Abbildung 8.10 zu erkennen ist: In Abhängigkeit des erwarteten Nutzungsverhaltens und der Höhe der Grenzkosten können Unternehmen Flatrates mit oder ohne Nutzungsobergrenze anbieten. Hier gilt, je geringer die Grenzkosten 𝑀𝑀𝑀𝑀𝐶𝐶𝐶𝐶 sind und je besser das Nutzungsverhalten 𝑞𝑞𝑞𝑞 prognostizierbar ist, desto eher wird eine Flatrate ohne Obergrenze angeboten und umgekehrt. p · q = nutzungsabhängiges Entgelt p · q = nutzungsabhängiges Entgelt p q p 1 q 1 a p q p 2 q 2 CS a CS Mitgliedsgebühren bei geringer Preiselastizität Mitgliedsgebühren bei hoher Preiselastizität Konsumentenrente = mögliche maximale Mitgliedsgebühr <?page no="338"?> Preisstrategien und Preisdiskriminierung 338 Abbildung 8.11: Mitgliedsgebühren und Flatrate. Sind entweder die Grenzkosten relativ hoch oder ist das Nutzungsverhalten nicht präzise vorherzusagen, dann wird - wie in ► Abbildung 8.11 links dargestellt - zwar eine Flatrate angeboten, aber bei Erreichen einer Menge 𝑞𝑞𝑞𝑞 wird zusätzlich ein Nutzungsentgelt von 𝑝𝑝𝑝𝑝 erhoben. Hiermit werden insbesondere Kapazitätsengpässe bepreist, die möglicherweise die Kundenzufriedenheit einschränken. Sind die Grenzkosten sehr gering - wie in ► Abbildung 8.11 rechts -, dann kann eine Flatrate auch ohne Obergrenze angeboten werden. Die derzeitigen Tarifmodelle im Mobilfunk sind Spiegelbild eingeschränkter Vorhersagbarkeit des Datenverbrauchs: Einerseits sind zwar die Grenzkosten der Mobilfunkunternehmen sehr gering, andererseits steigen die Datenvolumina durch neue Geschäftsmodelle und verändertes Kundenverhalten aber deutlich an, so dass Flatrates mit Inklusivminuten, Drosselung der Datenrate und Bepreisung von zusätzlichen Datenpaketen die Regel sind. In ähnlicher Weise kann auch der Preis für die Bahncard 50 der Deutschen Bahn ermittelt werden - diese ermöglicht es den Kunden, zum halben normalen Fahrpreis zu fahren. In ► Abbildung 8.12 sind zunächst die Erlöse der Deutschen Bahn ohne Bahncard-Modell eingezeichnet. Ein Kunde wird beim Preis 𝑝𝑝𝑝𝑝 1 eine Menge an Fahrten 𝑞𝑞𝑞𝑞 1 erwerben, die Grenzkosten sind vernachlässigbar gering. Wenn die Deutsche Bahn nun eine Bahncard mit 50 % Reduktion des regulären Fahrpreises anbietet, dann werden die Kunden bei einem neuen Nutzungspreis von 𝑝𝑝𝑝𝑝 1 / 2 ihre Nachfrage entsprechend ihrer Preiselastizität auf 𝑞𝑞𝑞𝑞 2 ausweiten. Damit gehen zunächst die Erlöse der Deutschen Bahn zurück - im Gegenzug kann das Unternehmen aber jetzt eine Mitgliedsgebühr in Höhe der grauen Dreiecksfläche erheben. In ► Abbildung 8.12 ist zu erkennen, dass das Unternehmen die Mitgliedsgebühr in Form des jährlichen Preises der Bahncard so wählen muss, dass die Summe der beiden grauen Flächen rechts größer ist, als die graue Fläche links. p q p q a p q a MC MC MR MR q Flatrate mit Nutzungsobergrenze Flatrate ohne Nutzungsobergrenze <?page no="339"?> Indirekte Preisdiskriminierung und zweiteilige Tarife 339 Abbildung 8.12: Bestimmung der Mitgliedsgebühr der Bahncard 50. Wiederum werden die Kunden selbst die Selektion in Form indirekter Preisdiskriminierung vornehmen - Kunden mit preiselastischer Nachfrage werden die Bahncard erwerben und mehr reisen, aber der Gewinn der Deutschen Bahn wird bei richtig gewählter Mitgliedsgebühr in jedem Fall ansteigen. Vor Einführung von zweitteiligen Tarifen ist aus Managementperspektive wichtig zu analysieren, ob die Kunden homogen oder heterogen in Bezug auf ihre Zahlungsbereitschaft sind. Diese Frage kann man unmittelbar aus ► Abbildung 8.10 nachvollziehen: Unterscheiden sich Kunden in Zahlungsbereitschaft und Preiselastizität, dann unterscheiden sich auch die optimalen Mitgliedsgebühren. Wenn nur ein Preismodell implementiert werden kann, dann führt Heterogenität der Kundengruppen typischerweise zu niedrigen Mitgliedsgebühren, um nicht große Kundengruppen zu verlieren - eine Mitgliedsgebühr ist vor dem Hintergrund zusätzlicher administrativer und Marketingkosten dann eventuell nicht sinnvoll. Ein Blick in die Mobilfunkindustrie zeigt allerdings, dass auch zahlreiche unterschiedliche Tarifmodelle (unterschiedliche monatliche Mitgliedsgebühren, unterschiedliche nutzungsabhängige Entgelte oder dreiteilige Tarife mit vollständig und dauerhaft kostenlosen Komponenten) so entwickelt werden können, dass durch Selbstselektion der Tarife durch die Kunden dennoch deutliche Gewinnsteigerungen möglich sind - insbesondere, weil die Kunden zum einen ihr künftiges Konsumverhalten nicht korrekt einschätzen können, dieses in der Zeit variabel ist, die Tarife falsch wahrgenommen werden und die Kunden die eigene Fähigkeit, den richtigen Tarif zu wählen, systematisch überschätzen (Mitomo 2002, Grubb 2009, Ascarza 2012 sowie Haucap und Heimeshoff 2011). Freemium-Modelle und Damaged-Products-Strategie Eine besondere Form der Marktsegmentierung durch indirekte Preisdiskriminierung sind Freemium-Modelle und die Damaged-Products-Strategie. Oft unterscheiden sich Kundenp q p 1 q 2 a p 1 / 2 p q p 1 q 1 a Ticketerlöse ohne Bahncard Erlöse Bahncard Ticketerlöse mit Bahncard q 1 ohne Bahncard Bahncard 50 % <?page no="340"?> Preisstrategien und Preisdiskriminierung 340 segmente in ihrer Zahlungsbereitschaft, aber es ist ineffizient, mehrere unterschiedliche Produkte herzustellen. In diesen Fällen kann man ein bereits vorhandenes Produkt hoher Qualität anders benennen und eine Beschädigung hinzufügen oder bestimmte Funktionen deaktivieren - damit hat das Produkt mit niedrigerer Qualität zwar höhere Grenzkosten, der Gewinn des Unternehmens steigt aber dennoch an. Beispiele sind Intel Computerchips, Laserdrucker von Hewlett-Packard und DVD-Player von Sharp oder Panasonic, die sich nur durch fehlende Tasten auf der Fernbedienung voneinander unterscheiden (McAfee 2007 und Deneckere und McAfee 1996). In ähnlicher Weise funktionieren Freemium-Modelle bei Apps für Smartphones oder Software: In den kostenlosen Versionen werden einzelne Funktionen nicht freigeschaltet, nur die Premium-Bezahl-Version enthält die vollständige Funktionalität (Kumar 2014). Ziel der Freemium-Modelle ist die kritische Masse an direkten Netzwerkeffekten zur Etablierung einer digitalen Plattform zu erreichen - das gilt gleichermaßen für Spiele, Musikstreaming, soziale Medien oder Berufsnetzwerke. 8.4 Bundling Ein Mehrproduktunternehmen kann indirekte Preisdiskriminierung in Form von Bundling einsetzen. Hier werden - anders als bei Paketpreisen mit gleichen Produkten in unterschiedlichen Packungsgrößen - unterschiedliche Produkte eines Mehrproduktunternehmens, die auch einzeln verkauft werden können, gebündelt verkauft. Grundlage von Bundling ist, dass Kunden sich in ihrer Zahlungsbereitschaft unterscheiden und die Zahlungsbereitschaft der Kunden über die Produkte hinweg negativ korreliert ist. Bundling findet sich oft bei Softwareprodukten (PowerPoint, Excel und Word gebündelt in Microsoft Office), bei Service- Dienstleistungen (Autoverkauf mit Finanzierung und Garantieleistungen), bei Fastfood-Ketten (Burger, Pommes Frites und Softdrink gebündelt in McDonald’s McMenu oder Burger King Value Meals), bei Pay-TV-Unternehmen (Kanäle oder Programme gebündelt bei Netflix oder AmazonPrime) oder bei Reiseanbietern, die unternehmensübergreifend Flüge, Gepäckmitnahme, Hotels, Reiserücktrittsversicherungen und Mietwagen bündeln (Adams und Yellen 1976, McAfee et al. 1989, Bakos und Brynjolfsson 1999, Stremersch und Tellis 2002 sowie Armstrong 2006).  Case Study | Bundling von Softwareprodukten Anhand von ► Tabelle 8.1 lassen sich zunächst die Möglichkeiten und Effekte von Bundling am Beispiel von Microsoft nachvollziehen. Im linken Teil der ► Tabelle 8.1 sind die möglichen Ergebnisse einer Marktforschung zu Zahlungsbereitschaften für verschiedene Microsoft-Produkte wiedergegeben. Es gibt offenbar vier Kundengruppen A bis D mit in Summe 1.000 potenziellen Kunden. Die Kundengruppen unterscheiden sich deutlich voneinander: Kundengruppe D hat mit 70 EUR eine relativ hohe Zahlungsbereitschaft für PowerPoint, allerdings ist die Zahlungsbereitschaft für Excel mit 5 EUR sehr gering - Kundengruppe A hingegen hat offenbar großes Interesse an Word, aber wenig an Excel. <?page no="341"?> Bundling 341 Microsoft als marktbeherrschendes Unternehmen kann nun, wie im rechten Teil der Tabelle dargestellt, zunächst separate optimale Monopolpreise je Produkt ermitteln, um die Erlöse zu maximieren (die Kosten können außer Betracht bleiben, da die Grenzkosten der Vervielfältigung der Software und des Downloads Null betragen). Bietet Microsoft das Produkt PowerPoint bspw. zu einem Preis von 70 EUR, würden nur 100 Kunden der Kundengruppe D kaufen - alle anderen Kundengruppen haben eine zu geringe Zahlungsbereitschaft -, so dass die Erlöse 7.000 EUR betragen. Senkt Microsoft den Preis von PowerPoint auf 60 EUR, wird auch Kundengruppe C kaufen. Die Erlöse betragen jetzt für in Summe 500 Kunden 30.000 EUR. Eine weitere Senkung auf 40 EUR führt zu einem Erlös von 32.000 EUR - dieser lässt sich nicht weiter steigern, denn bei einer weiteren Senkung des Preises auf 30 EUR kaufen zwar alle 1.000 Kunden, aber die Erlöse gehen jetzt aufgrund elastischer Nachfrage zurück. Tabelle 8.1: Reines Bundling am Beispiel Microsoft Office. Analog lassen sich die maximalen Erlöse für die beiden anderen Produkte ermitteln, so dass sich folgende optimale Preisstrategie für Microsoft ergibt:  PowerPoint - zu einem Preis von EUR 40 an 800 Kunden der Kundengruppen B, C und D mit Erlösen von EUR 32.000,  Excel - zu einem Preis von EUR 30 an 500 Kunden der Kundengruppen A und B mit Erlösen von EUR 15.000,  Word - zu einem Preis von EUR 40 an 900 Kunden der Kundengruppen A, B und C mit Erlösen von EUR 36.000, so dass sich über alle Produkte ein Gesamterlös von EUR 83.000 EUR ergibt. Zahlungsbereitschaft je Produkt und Kundengruppe Preisstrategie und Erlöse Kundengruppen A B C D separate Monopolpreise Preis Menge Erlöse Kundenzahl 200 300 400 100 Powerpoint 30 40 60 70 Powerpoint 30 1000 30.000 . 40 800 32.000 . 60 500 30.000 . 70 100 7.000 . Excel 50 30 10 5 Excel 5 1000 5.000 . 10 900 9.000 . 30 500 15.000 . 50 200 10.000 . Word 70 60 40 20 Word 20 1000 20.000 . 40 900 36.000 . 60 500 30.000 . 70 200 14.000 . Bundling Bundling Preis Menge Erlöse Office Paket 150 130 110 95 Office Paket 95 1000 95.000 . 110 900 99.000 . 130 500 65.000 . 150 200 30.000 . <?page no="342"?> Preisstrategien und Preisdiskriminierung 342 Allerdings kann Microsoft die Gesamterlöse durch Bundling steigern: Addiert man je Kundengruppe die Zahlungsbereitschaft für die einzelnen Produkte, erhält man die links unten in ► Tabelle 8.1 dargestellte Zahlungsbereitschaft für ein Office-Paket. Kundengruppe A wäre bereit EUR 150 für das Bundling zu zahlen, Kundengruppe D hingegen nur EUR 95. Wendet man nun dieselbe Logik wie für die Einzelprodukte auf das Office-Paket an, ergibt sich, dass bei einem Preis von EUR 110 in Summe 900 Kunden der Kundengruppen A, B und C kaufen würden. Der Gesamterlös beträgt jetzt maximal EUR 99.000 - ein Anstieg um fast 20 % gegenüber dem separaten Verkauf der Produkte, und das, obwohl das Paket mit EUR 110 gleich teuer ist wie zuvor die aufsummierten Einzelprodukte. Separate Preise versus Bundling Bundling funktioniert, wenn Kunden oder Kundengruppen sich systematisch in ihrer Zahlungsbereitschaft für mehrere Produkte unterscheiden. Im Fall von Microsoft sind dies insbesondere die Kundengruppen A und D, deren Zahlungsbereitschaft stark gegenläufig für die drei Produkte ist, zudem sind die Grenzkosten aller Produkte jeweils niedrig. Allgemeiner kann die Funktionsweise von Bundling für den Fall von zwei Produkten analysiert werden: Liegen unterschiedliche Zahlungsbereitschaften 𝑧𝑧𝑧𝑧 1 und 𝑧𝑧𝑧𝑧 2 der Kunden A, B und C für die beiden Produkte 1 und 2 vor und setzt ein Unternehmen wie links in der ► Abbildung 8.13 separate Preise 𝒑𝒑𝒑𝒑 𝟏𝟏𝟏𝟏 und 𝒑𝒑𝒑𝒑 𝟐𝟐𝟐𝟐 analog zu jeweiligen Monopolpreisen, dann kauft zwar Kunde C im oberen rechten Quadranten I beide Produkte, denn 𝑧𝑧𝑧𝑧 1𝐶𝐶𝐶𝐶 > 𝑝𝑝𝑝𝑝 1 und 𝑧𝑧𝑧𝑧 2𝐶𝐶𝐶𝐶 > 𝑝𝑝𝑝𝑝 2 . Kunde A kauft nur Produkt 2, denn 𝑧𝑧𝑧𝑧 1𝐴𝐴𝐴𝐴 < 𝑝𝑝𝑝𝑝 1 aber 𝑧𝑧𝑧𝑧 2𝐴𝐴𝐴𝐴 > 𝑝𝑝𝑝𝑝 2 , Kunde B dagegen kauft wegen 𝑧𝑧𝑧𝑧 1𝐵𝐵𝐵𝐵 > 𝑝𝑝𝑝𝑝 1 und 𝑧𝑧𝑧𝑧 2𝐵𝐵𝐵𝐵 < 𝑝𝑝𝑝𝑝 2 nur Produkt 1. Kunden im Quadranten III würden keines der Produkte kaufen. Abbildung 8.13: Separate Preise, Bundling und Optimierung des Bundlingpreises. Bundling kann durch einen Bundlingpreis 𝒑𝒑𝒑𝒑 𝑩𝑩𝑩𝑩 beschrieben werden, der für beide Produkte in Summe gilt und in ► Abbildung 8.13 als 45°-Linie die Zahlungsbereitschaften der Kunden trennt: Bei gegebenen Zahlungsbereitschaften kaufen jetzt die Kunden B und C das Bundle, z 1 z 2 A B C p 1 p 2 III II I IV p B z 2 A B C 45° z 1 z 2 A B C p 1 p 2 p B1 p B1 p B2 p B2 separate Preise Bundling Optimierung des Bundlingpreises z 1 p B <?page no="343"?> Bundling 343 denn ihre jeweils addierten Zahlungsbereitschaften liegen offensichtlich höher als der Bundlingpreis, also 𝑧𝑧𝑧𝑧 1𝐵𝐵𝐵𝐵 + 𝑧𝑧𝑧𝑧 2𝐵𝐵𝐵𝐵 > 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 und 𝑧𝑧𝑧𝑧 1𝐶𝐶𝐶𝐶 + 𝑧𝑧𝑧𝑧 2𝐶𝐶𝐶𝐶 > 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 . Kunde A kauft hingegen nicht, denn seine addierte Zahlungsbereitschaft für beide Produkte 𝑧𝑧𝑧𝑧 1𝐴𝐴𝐴𝐴 + 𝑧𝑧𝑧𝑧 2𝐴𝐴𝐴𝐴 < 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 liegt unterhalb des Bundlingpreises. Zur optimalen Bestimmung des Bundlingspreises verschiebt man die 45°-Linie so weit nach rechts, bis durch die Zahl der Kunden und den dann möglichen Bundlingpreis die Gewinne maximiert werden - analog zum vorangegangenen Beispiel bei Microsoft-Office- Produkten: Kunden im grauen Bereich kaufen nicht, alle anderen kaufen das Bundle. Bundling funktioniert gut bei negativer Korrelation der Zahlungsbereitschaften der Kundengruppen, d.h., diese weisen wechselseitig hohe und niedrige Zahlungsbereitschaft auf wie in ► Abbildung 8.14 links. Die Zahlungsbereitschaften der Kunden liegen dann aufgereiht parallel zum Bundlingpreis. Eine Verschiebung des Bundlingpreises von unten an diese Kunden führt zu einer Steigerung der Gewinne, gleichzeitig werden nur relativ wenige Kunden vom Kauf des Bundles abgehalten. Ist die Zahlungsbereitschaft dagegen stark positiv korreliert - einige Kunden links unten haben für beide Produkte eine geringe Zahlungsbereitschaft, andere Kunden rechts oben haben hingegen für beide Produkte eine hohe Zahlungsbereitschaft - wie in ► Abbildung 8.14 rechts, führt Bundling nicht zu einer Steigerung des Gewinns: Mit jeder Erhöhung des Bundlingpreises gehen Kunden verloren. Abbildung 8.14: Negativ und positiv korrelierte Zahlungsbereitschaft und Funktionsfähigkeit von Bundling. Um Bundling anzuwenden, benötigt ein Unternehmen allerdings keine exakte Kenntnis der einzelnen Zahlungsbereitschaften. Hinreichend ist aus Managementperspektive die Kenntnis oder Vermutung, dass eine negative Korrelation der Zahlungsbereitschaften vorliegt. z 1 z 2 p 2 p B p B p 1 z 1 z 2 p 2 p B p B p 1 45° 45° stark negativ korrelierte Zahlungsbereitschaft  Bundling erhöht Gewinne stark positiv korrelierte Zahlungsbereitschaft  Bundling erhöht Gewinne nicht <?page no="344"?> Preisstrategien und Preisdiskriminierung 344 Gemischtes Bundling Zahlreiche Unternehmen wählen gemischtes Bundling als Preisstrategie, in der die Produkte separat und gleichzeitig als Bundle angeboten werden. In ► Abbildung 8.15 sind die Preise ausgewählter Einzelprodukte und der darauf basierenden Bundles der McDonald’s Filiale in Hamburg-Barmbek im Mai 2017 dargestellt. Offenbar bietet McDonald’s die Produkte in den verschiedenen Menüs zu Preisen 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 an, die durchschnittlich etwa 10 % unter den addierten Einzelpreisen 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 ‘ liegen - dahinter liegt die Analyse der Preiselastizität der Nachfrage der Einzelprodukte und der Bundles zur Steigerung der Erlöse. Auch bei Pay-TV-Anbietern wird oft gemischtes Bundling angewendet - Programme, Sender oder Filme können einzeln abonniert werden oder bestimmte Pakete (Sport, Action, Unterhaltung etc.) exklusiv oder dazu gebucht werden. In Großbritannien können Kunden auch ihre individuellen Bundles festlegen. Abbildung 8.15: Gemischtes Bundling bei McDonald’s. Um die Wirkungsweise von gemischtem Bundling zu verstehen, sind in ► Abbildung 8.16 für zwei Produkte separate Preise 𝑝𝑝𝑝𝑝 1 und 𝑝𝑝𝑝𝑝 2 , ein Bundlingpreis 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 und durch Punkte gekennzeichnet eine beliebige Zahl an Kunden mit unterschiedlichen Zahlungsbereitschaften 𝑧𝑧𝑧𝑧 𝑃𝑃𝑃𝑃 eingezeichnet. Pommes Frites klein 1,89 mittel 2,39 groß 2,79 Einzelprodukte p i p B ‘ 6,87 7,17 6,97 p B 6,19 6,59 6,19 Menüs Burger Big Mac 3,69 Royal TS 3,99 McChicken 3,79 Big Mac Menü Royal TS Menü McChicken Menü Kaltgetränk 0,25 l 1,29 0,4 l 1,99 0,5 l 2,39 <?page no="345"?> Bundling 345 Abbildung 8.16: Gemischtes Bundling. Bei zwei Produkten und den hier gewählten Preisen kann ein Unternehmen eindeutig vier Regionen (Kunden- oder Marktsegmente) identifizieren:  Region 1 - die Kunden werden weder das Bundle noch eines der beiden Produkte kaufen, denn die Zahlungsbereitschaft ist jeweils zu gering, so dass 𝑧𝑧𝑧𝑧 1 < 𝑝𝑝𝑝𝑝 1 , 𝑧𝑧𝑧𝑧 2 < 𝑝𝑝𝑝𝑝 2 und 𝑧𝑧𝑧𝑧 1 + 𝑧𝑧𝑧𝑧 2 < 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 gilt.  Region 2 - diese Kunden werden in jedem Fall das Bundle kaufen, denn mit 𝑧𝑧𝑧𝑧 1 + 𝑧𝑧𝑧𝑧 2 > 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 liegen die Zahlungsbereitschaften über dem Bundlingpreis.  Region 3 - Kunden in dieser Region kaufen wegen 𝑧𝑧𝑧𝑧 1 < 𝑝𝑝𝑝𝑝 1 aber 𝑧𝑧𝑧𝑧 2 > 𝑝𝑝𝑝𝑝 2 und 𝑧𝑧𝑧𝑧 1 + 𝑧𝑧𝑧𝑧 2 < 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 nur Produkt 2.  Region 4 - Kunden in dieser Region kaufen wegen 𝑧𝑧𝑧𝑧 1 > 𝑝𝑝𝑝𝑝 1 aber 𝑧𝑧𝑧𝑧 2 < 𝑝𝑝𝑝𝑝 2 und 𝑧𝑧𝑧𝑧 1 + 𝑧𝑧𝑧𝑧 2 < 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 nur Produkt 1. Daneben gibt es zwei Regionen 5 und 6, in denen die Kunden zwar das Bundle kaufen könnten, weil 𝑧𝑧𝑧𝑧 1 + 𝑧𝑧𝑧𝑧 2 > 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 . Allerdings ist hier jeweils der relative Nutzen aus dem Kauf des Einzelproduktes, für Region 6 bspw. (𝑧𝑧𝑧𝑧 1 − 𝑝𝑝𝑝𝑝 1 ) > (𝑧𝑧𝑧𝑧 1 + 𝑧𝑧𝑧𝑧 2 − 𝑝𝑝𝑝𝑝 𝐵𝐵𝐵𝐵 ) , größer als der Nutzen aus dem Kauf des Bundles. Kunden in den Regionen 5 und 6 werden also die jeweiligen Einzelprodukte kaufen. Optimale Preise für gemischtes Bundling, insbesondere bei mehr als zwei kombinierbaren Produkten, werden mit Simulationssoftware entwickelt und bestimmt. Typischerweise kann mit gemischtem Bundling der Gewinn gegenüber reinem Bundling gesteigert werden. In ► Tabelle 8.2 ist dies für die Microsoft-Office-Produkte demonstriert. z 1 z 2 p 1 p 2 p B p B p B -p 1 p B -p 2 1 2 3 4 5 6 <?page no="346"?> Preisstrategien und Preisdiskriminierung 346 Tabelle 8.2: Gemischtes Bundling am Beispiel Microsoft Office. Microsoft kann den Gewinn im Vergleich zu reinem Bundling aus ► Tabelle 8.1 um weitere 11,6 % auf jetzt EUR 110.500 für die betrachteten vier Kundengruppen steigern. Hierzu adressiert das Unternehmen zunächst die Kundengruppe A mit der höchsten Zahlungsbereitschaft für Excel und Word mit separaten Preisen von EUR 50 und EUR 70 zum Marktstart neuer Versionen. Keine der anderen Kundengruppen wird diese Produkte zu diesem Preis erwerben. Nach der Markteinführung positioniert Microsoft ein Office-Bundle für den Massenmarkt analog zu ► Tabelle 8.2 zum Preis von EUR 110 - 700 Kunden der Segmente B und C werden dieses jetzt erwerben. Schließlich bietet Microsoft der Kundengruppe D mit der niedrigsten Zahlungsbereitschaft - offensichtlich Studenten, die dringend PowerPoint benötigen - gegen Nachweis eine vergünstigte und ggfs. funktional eingeschränkte Studentenversion zu einem Preis von EUR 95 an. Aus Managementperspektive muss ein Mehrproduktunternehmen mit Marktmacht also immer entscheiden, ob die Produkte separat zu Monopolpreisen, als reines Bundling zu einem Preis oder als gemischtes Bundling angeboten werden, um die Gewinne zu maximieren. Die Beispiele Microsoft oder McDonald’s - zwei der gewinnstabilsten Unternehmen der letzten Jahrzehnte - zeigen, dass gerade gemischtes Bundling ein wesentlicher Treiber für Profitabilität von Mehrproduktunternehmen mit marktbeherrschender Stellung sein kann. Zudem kann Bundling als strategische Eintrittsbarriere eingesetzt werden - ein Einproduktunternehmen kann durch Bundlingpreise eines Mehrproduktunternehmens vom Markteintritt abgehalten werden, wenn aufgrund der Verteilung der Zahlungsbereitschaft der Kunden für das Einproduktunternehmen kein Gewinn erzielbar ist (Nalebuff 2004). Aus diesem Grund ist Bundling allerdings auch eine wettbewerbsbeschränkende Maßnahme und kann bestehende Marktmacht verstärken. Vor diesem Hintergrund finden staatliche Maßnahmen der Wettbe- Zahlungsbereitschaft je Produkt und Kundengruppe Kundengruppen A B C D A B C D A B C D Kundenzahl 200 300 400 100 200 300 400 100 200 300 400 100 Powerpoint 30 40 60 70 30 40 60 70 30 40 60 70 Excel 50 30 10 5 50 30 10 5 50 30 10 5 Word 70 60 40 20 70 60 40 20 70 60 40 20 Office Paket 150 130 110 95 150 130 110 95 150 130 110 95 Strategie Premiumprodukte zum Marktstart Bundling für den Massenmarkt Studentenversion Erlöse 200 ‧ 50 + 200 ‧ 70 = 24.000 110 ‧ 300 + 110 ‧ 400 = 77.000 100 ‧ 95 = 9.500 Gesamterlöse 24.000 + 77.000 + 9.500 = 110.500 <?page no="347"?> Auktionen 347 werbsbehörden zum Unbundling statt, bspw. in der Energieindustrie die Trennung von Netzinfrastruktur und Energieerzeugung oder bei der Deutschen Bahn durch Trennung von Schienennetz, Passagierverkehr und Güterverkehr. Unbundling kann allerdings auch eine innovative Strategie sein, um etablierte Unternehmen anzugreifen. So haben Download- und Streaminganbieter in der Musikindustrie etablierte Anbieter des Bundles „10 Songs auf einer physischen CD“ durch Nutzung neuer Technologie und durch verändertes Kundenverhalten deutlich in Bedrängnis gebracht (Elberse 2010). 8.5 Auktionen In vielen Märkten werden Produkte oder Dienstleistungen über Auktionen angeboten oder nachgefragt. Im B2C-Bereich finden Auktionen in klassischen Auktionshäusern wie Sotheby’s, im Fernsehen bei ‚Antiques Roadshow‘ oder ‚Bares für Rares‘ sowie über Plattformen wie eBay statt. Im B2B-Bereich sind Auktionen üblich im Rahmen von Ausschreibungen für Projekte, im Einkaufs- oder Beschaffungsprozess über elektronische Auktions- und Marktplätze wie WaxDigital oder marketdojo, der Bepreisung von Werbeplätzen über Positionierungsauktionen in der Google-Suche, der Versteigerung von Bundesanleihen durch das Bundesfinanzministerium oder die Vergabe von Funkfrequenzen für Mobilfunkanbieter durch die Bundesnetzagentur. Auktionen sind meist mehrstufige, dynamische Bietverfahren und dienen der Preisbestimmung und/ oder Allokation und Zuteilung eines Produktes. So wurden in 2019 im Rahmen der 5G-Frequenzauktion insgesamt 41 Frequenzblöcke nach 497 Auktionsrunden an die vier Bieter Deutsche Telekom, Vodafone, Telefonica und 1&1 Drillisch in einem Gesamtwert von 6,5 Mrd. EUR versteigert (Bundesnetzagentur 2019). War früher meist noch ein Auktionator zur Sammlung der Gebote und Erteilung eines Zuschlags notwendig, werden die meisten Auktionen heute vom Verkäufer oder Käufer selbst über elektronische Plattformen durchgeführt. Auktionen und asymmetrische Information Auktionen sind eine Alternative zur Bestimmung von Preisen, wenn ein in ► Kapitel 1 beschriebener einheitlicher Marktpreis oder ein Marktgleichgewicht nicht zu erwarten ist. Wesentlich sind hier einerseits Informationsasymmetrien auf der Angebots- oder Nachfrageseite, welche die Preisbildung in Folge eines fehlenden Marktmechanismus erschweren oder unmöglich machen - andererseits kann es sich um einmalige Projekte oder seltene Produkte handeln, für die im Vorfeld keine Information für eine Preisfestlegung vorhanden sind. Ein Anbieter eines solchen Einzelobjektes könnte auf dem Markt zwar als Monopolist auftreten und einen Preis festlegen: Dieser Preis kann aber ohne Kenntnis der Zahlungsbereitschaft der Kunden zu hoch sein, so dass keine Transaktion zustande kommt, oder aber der Preis ist zu niedrig, so dass die maximale Zahlungsbereitschaft nicht ausgeschöpft wird und der Gewinn des Unternehmens nicht maximiert wird. Eine Auktion kann zudem Transaktionskosten reduzieren - wenn die Durchführung einer Auktion kostengünstiger als eine notwendige Marktforschung zur Ermittlung der Zahlungsbereitschaft der Kunden ist (Klemperer 1999, McAfee und McMillan 1987, Varian 2007 sowie Koutroumpis und Cave 2018). <?page no="348"?> Preisstrategien und Preisdiskriminierung 348 Der einfachste Fall einer (einseitigen Verkaufs-) Auktion ist folgendermaßen strukturiert:  Es gibt ein Unternehmen, das ein Einzelobjekt zum Kauf anbietet.  Es gibt mehrere potenzielle Kunden für dieses Einzelobjekt.  Es herrscht Informationsasymmetrie - die Kunden kennen ihre jeweilige maximale Zahlungsbereitschaft, das Unternehmen kennt weder die Zahl der Kunden noch deren Zahlungsbereitschaft. Das Unternehmen könnte nun betreffend der Zahl der Kunden und deren Zahlungsbereitschaft Erwartungen bilden und einen Preis festlegen - oder aber eine Auktion durchführen, um Informationen über die Zahl der Kunden und deren Zahlungsbereitschaft herauszufinden. Hierzu müssen Regeln für die Durchführung der Auktion (Form der Abgabe der Gebote, kontinuierliche Abgabe an Geboten oder festgelegte Anzahl der Auktionsrunden, Information über die Gebote, wechselseitige Kenntnis oder Anonymität der Bieteridentität etc.) sowie für die Festlegung des Preises bestimmt werden. Zentraler Vorteil einer Auktion ist, dass die Preisbestimmung auf der besser informierten Kundenseite erfolgt und für das Unternehmen mögliche Nachteile aufgrund von asymmetrischer oder unvollständiger Informationen reduziert werden. Wird das optimale Auktionsverfahren gewählt, kann das Unternehmen die maximale Zahlungsbereitschaft ermitteln und so den höchstmöglichen Preis erzielen. Auktionsverfahren Ein Auktionsverfahren beschreibt ein Regelwerk, über das der Kaufpreis und der Gewinner einer Auktion bestimmt wird. Die Verfahren unterscheiden sich in den Dimensionen der Gebotsabgabe (offen oder verdeckt) und Preisfestlegung (höchstes Preisgebot oder zweithöchstes Preisgebot. In verdeckten Auktionen (Sealed Bid) darf jeder Teilnehmer nur einmal bieten und die Gebote der anderen Teilnehmer sind unbekannt. In offenen Auktionen (Open Bid) können die Bieter die Gebote der anderen Teilnehmer sehen und die eigenen Gebote sukzessiv anpassen. Der grundlegende Unterschied besteht darin, dass die Bieter durch die Bekanntgabe der neu eingehenden Gebote in offenen Auktionen die Zahlungsbereitschaft der anderen Bieter einschätzen können. In Erstpreisauktionen (First Price Auctions) erhält der Bieter mit dem höchsten Gebot den Zuschlag in Höhe seines eigenen Gebots. In Zweitpreisauktionen (Second Price Auctions) erhält der Bieter mit dem höchsten Gebot ebenfalls den Zuschlag, aber er zahlt nur den Preis des zweithöchsten Gebots. Aus der Kombination dieser Auktionsregeln entstehen vier wesentliche Auktionsverfahren.  Englische Auktionen (,Ascending-Bid Auction‘) sind aufsteigende Auktionen mit offenen Geboten. Der Verkäufer hat die Möglichkeit, ein Mindestgebot festzulegen. Ausgehend vom Mindestgebot nennen die Bieter offen ihre Gebote und haben fortlaufend die Möglichkeit, ihre Gebote zu erhöhen. Den Zuschlag erhält der Höchstbietende, der einen Preis entsprechend seines letzten Gebots zahlt. Englische Auktionen sind üblich bei Versteigerungen von Kunstgegenständen, Antiquitäten oder von Immobilien.  Holländische Auktionen (,Descending-Bid Auction‘) sind absteigende Auktionen: Der Verkäufer startet bei einem hohen Preis (Startpreis) und verringert diesen sukzessiv, bis ein Bieter ein erstes Gebot zum aktuellen Preis abgibt. Dieser Bieter zahlt den Preis, den der Auktionator bei Gebotsabgabe aufgerufen hat. Holländische Auktionen wurden be- <?page no="349"?> Auktionen 349 kannt durch Blumenauktionen mit einer rückwärtslaufenden ‚Blumenpreisuhr‘, finden aber ebenfalls Anwendung bei Versteigerungen von US Staatsanleihen und sind ein mögliches Verfahren zur Zuteilung von Aktien bei Börsengängen, bspw. 2004 beim IPO von Google.  Höchstpreisauktionen (‚First-Price Sealed Bid Auction‘) basieren auf verdeckten einmaligen Geboten - der höchstbietende Interessent erhält den Zuschlag.  In einer Vickrey-Auktion (,Second-Price Sealed Bid Auction‘) geben Bieter innerhalb eines festgelegten Zeitraums einmalig ein verdecktes Gebot ab. Der Höchstbietende erhält den Zuschlag, muss aber - anders als bei einer Höchstpreisauktion - lediglich den Preis des zweithöchsten Gebots zahlen (Vickrey 1961). Englische und holländische Auktionen sind dynamisch, d.h. der Preis kann sich fortwährend ändern - wenngleich die englischen Auktionen oftmals länger andauern und ggfs. Bietergefechte hervorrufen können. Höchstpreis- und Vickrey-Auktionen sind dagegen statisch - nach einmaliger Abgabe aller Gebote kann unmittelbar der Zuschlag erteilt werden. Auf Basis dieser vier Grundmodelle lassen sich beliebige Kombinationen und Regelwerke entwickeln, bspw. um die Erlöse aus einer Mobilfunklizenzauktion zu maximieren (Haeringer 2018, Myerson 1981 und Jia et al. 2009). Bietstrategien und Preise Welches der vier Auktionsverfahren aus Sicht des Verkäufers den höchsten Preis ergibt, welches die optimale Bietstrategie der Käufer ist, und ob die Vorteile eher auf Seite der Verkäufer oder Käufer liegen, hängt vom Grad der Informationsasymmetrie, von der Zahl der Bieter und der Verteilung der Zahlungsbereitschaften sowie der Bewertung des Auktionsgegenstands ab. In Auktionen mit privatem Wert (‚Independent Private Value Auction‘) hat jeder Bieter eine subjektive eigene Bewertung und damit eine individuelle Zahlungsbereitschaft für den Auktionsgegenstand. Diese Bewertungen unterscheiden sich typischerweise zwischen den Bietern, und diese Werte sind zunächst unabhängig voneinander, so dass kein einheitlicher Wert für das Auktionsobjekt existiert und vor dem Auktionsverfahren Ungewissheit über den erzielbaren Preis besteht. Typische Beispiele für dieses Auktionsmodell mit Präferenzunsicherheit sind Auktionen von Kunstgegenständen (die nicht für den Weiterverkauf bestimmt sind) oder Memorabilia (Gegenstände oder Erinnerungsstücke, die für einige Menschen sehr wertvoll, für andere aber ggfs. wertlos sind), aber auch eine Ausschreibung von Aufträgen, wenn die individuellen Produktionskosten nur dem jeweiligen Bieter selbst bekannt sind. Auktionen mit privatem Wert sind damit individuelle Lernprozesse: Jeder Bieter lernt aus den Geboten der anderen Bieter sukzessiv deren Zahlungsbereitschaft kennen, dies wird aber die Zahlungsbereitschaft eines rationalen Bieters nicht ändern. In ► Tabelle 8.3 ist eine Auktion mit privatem Wert dargestellt, in der Gebote in Schritten von 0,01 EUR abgegeben werden dürfen, sowie die Zahlungsbereitschaften von fünf Bietern und die in den vier Auktionsverfahren jeweils abgegebenen höchsten Gebote je Bieter. Drei Ergebnisse sind zentral: (i) Bieter D erhält unabhängig des gewählten Auktionsverfahrens immer den Zuschlag, (ii) die holländische und die Höchstpreisauktion führen zum selben Preis von 6,50 EUR und (iii) die englische und die Vickrey-Auktion führen mit 5,00 EUR und 5,01 EUR (nahezu) zum selben Preis. Entsprechend lässt sich allgemein zeigen, dass - bei einer großen Zahl an rationa- <?page no="350"?> Preisstrategien und Preisdiskriminierung 350 len und risikoneutralen Bietern sowie einem Kontinuum an Zahlungsbereitschaften - eine englische Auktion und eine Vickrey-Auktion strategisch äquivalent sind, und dass eine holländische Auktion und eine Höchstpreisauktion strategisch äquivalent sind (Klemperer 1999 und Haeringer 2018). Wenn nicht nur wenige Bieter, wie in ► Tabelle 8.3 mit diskreten Zahlungsbereitschaften, sondern unendlich viele Bieter vorhanden sind, deren Wertschätzung unabhängig und identisch verteilt sowie vollständig ist (d.h. jeder mögliche Zuschlagspreis ist besetzt), die Bieter risikoneutral sind und rational entscheiden, gilt das Erlösäquivalenztheorem: Alle Auktionsverfahren führen zum selben Preis und für den Verkäufer zu gleichen Erlösen. Auktion mit privaten Werten Bieter A Bieter B Bieter C Bieter D Bieter E maximale individuelle Zahlungbereitschaft 3,30 5,00 2,90 6,50 2,20 englische Auktion höchstes abgegebenes Gebot 3,30 5,00 2,90 5,01 2,20 Zuschlag 5,01 Vickrey- Auktion höchstes abgegebenes Gebot 3,30 5,00 2,90 6,50 2,20 Zuschlag 5,00 holländische Auktion höchstes abgegebenes Gebot - - - 6,50 - Zuschlag 6,50 Höchstpreisauktion höchstes abgegebenes Gebot 3,30 5,00 2,90 6,50 2,20 Zuschlag 6,50 Tabelle 8.3 Auktion mit privaten Werten Entsprechend einfach ist die Festlegung der Bietstrategie für rationale Bieter bei englischen und Vickrey-Auktionen: Man bietet entsprechend der maximalen Zahlungsbereitschaft und erzielt einen Nutzen entsprechend der Differenz aus Zahlungsbereitschaft und tatsächlichem Preis. Bei einer holländischen oder Höchstpreisauktion sollte das maximale Gebot jedes rationalen Bieters dagegen unter der Zahlungsbereitschaft liegen, denn nur dann entsteht ein Nutzen: Damit entsteht allerdings das Risiko, dass ein anderer Bieter den Zuschlag erhält. Dieses Risiko steigt an, je mehr Bieter an der Auktion teilnehmen und je weiter das Gebot unterhalb der Zahlungsbereitschaft gewählt wird - die eigene Bietstrategie wird dann wesentlich durch die Risikoaversion bestimmt: Je größer die Risikoaversion und je größer die Zahl der Teilnehmer der Auktion, desto höhere Preise können erzielt werden. Wenn die Bieter dagegen begrenzt rational, emotional oder risikoavers entscheiden, oder wenn die Zahl der Bieter gering ist und die Zahlungsbereitschaften große Abstände aufweisen, sind in allen vier Auktionsformen deutlich andere Ergebnisse möglich - bis hin zu expe- <?page no="351"?> Auktionen 351 rimentell oft nachweisbaren Bietergefechten (Kagel und Levin 1993 sowie Lusk und Shogren 2007). Damit geht einher, dass die Festlegung und Umsetzung der Bietstrategien deutlich komplizierter sind. Zudem führen Auktionen regelmäßig zu höheren Preisen: eine Studie von Ariely und Simonson (2003) zeigt für 98,8 % der analysierten Online-Auktionen höhere Preise gegenüber alternativen Festpreisen mit durchschnittlich 15,3 % Preiserhöhung. In Auktionen mit gemeinsamen Wert (‚Common Value Auction‘) hat der Auktionsgegenstand für jeden Bieter denselben objektiven Wert - allerdings kann die Beurteilung dieses Wertes durch unterschiedliche Einschätzungen der Qualität oder aufgrund von Unsicherheit betreffs des Auktionsgegenstands variieren: Dies gilt bspw. für Versteigerungen von Geldbörsen in Fundbüros oder Förderrechte von Rohstoffen, bei denen die absolute Menge des Rohstoffs unbekannt ist. Der Wert ist zwar für alle Bieter ex post gleich, jedoch erst bekannt, nachdem sämtliche Rohstoffe gefördert wurden oder die Geldbörse geöffnet wird. Auktionen mit gemeinsamem Wert sind also kollektive Lernprozesse: Wieder lernt jeder Bieter aus den Geboten der anderen Bieter sukzessiv deren Zahlungsbereitschaft, wird jetzt allerdings die eigene Zahlungsbereitschaft anpassen. Diese Anpassungen der Zahlungsbereitschaft und der Gebote führt zum Fluch des Gewinners (‚Winners‘ Curse‘): Mit zunehmender Zahl an Bietern und einer Wahrscheinlichkeitsverteilung der Bewertungen steigen die Gebote aufgrund der wechselseitigen Anpassung an die Einschätzungen der anderen Bieter - in der Folge zahlt der Meistbietende regelmäßig einen Preis oberhalb des tatsächlichen Wertes (Bazerman und Samuelson 1983, Thaler 1988 sowie Bajari und Hortaçsu 2003). Optimales Auktionsdesign In gleicher Weise sind Versteigerungen von Mobilfunklizenzen Auktionen mit gemeinsamen Wert, wenngleich hier meist kombinatorische Auktionen durchgeführt werden: Die Mobilfunkunternehmen benötigen meist zusammenhängende, komplementäre Frequenzblöcke um Dienstleistungen im 4G- oder 5G-Netz anbieten zu können. Mobilfunkunternehmen realisieren allerdings erst im Zeitablauf - nach der Auktion - den wahren Wert von UMTS- oder 5G-Lizenzen, und können im Vorfeld aufgrund starker technologischer Unsicherheit nur Annahmen anhand des eigenen Business Case und auf Basis der Gebote der anderen Unternehmen entwickeln. Allerdings ist ein Nachweis des Fluchs des Gewinners zumindest für die UMTS-Versteigerung in Großbritannien nicht erbracht (Cable et al. 2002). Ein Grund kann sein, dass gerade in englischen Auktionen sichtbare aufsteigende Gebote als Signale an andere Bieter genutzt werden können - damit sind implizite Absprachen möglich und reduzieren den maximal möglichen Auktionserlös (Klemperer 2002). Nachfolgend den ersten Mobilfunklizenzauktionen zu Beginn der 2000er Jahre haben zahlreiche Wettbewerbs- und Regulierungsbehörden ihre Auktionsregeln optimiert, um Kollusion zu verhindern, die Zahl der Teilnehmer an den Auktionen zu erhöhen und auf diese Weise die Erlöse zu steigern. Eine perfekte Auktion - viele risikoneutrale Bieter, alle Bieter haben denselben Informationsstand, alle Bieter verhalten sich rational und haben einen eindeutigen privaten oder gemeinsamen Wert für das Auktionsobjekt, der Zuschlag erfolgt alleine auf Basis der Gebote - erfordert kein Auktionsdesign: Alle Auktionsverfahren führen zu identischen Ergebnissen, d.h. Preisen für die Bieter und Erlösen für die Verkäufer, dem Erlösäquivalenztheorem (Myerson 1981 sowie McAffee und McMillan 1987). Dagegen lassen sich einige aus Experimenten ge- <?page no="352"?> Preisstrategien und Preisdiskriminierung 352 wonnene Bedingungen für optimales Auktionsdesign zur Maximierung der Auktionserlöse ableiten, wenn die Rahmenbedingungen des Erlösäquivalenztheorems nicht erfüllt sind (Lusk und Shogren 2007, Crawford et al. 2009 sowie Davis et al. 2014):  Unabhängig der Auktionsform sollten möglichst viele Bieter teilnehmen - die Zahl der Bieter verstärkt den Wettbewerb, das zu erwartende Höchstgebot und damit auch das zu erwartende zweithöchste Gebot.  Bei Auktionen mit privatem Wert und Risikoaversion erhöht eine holländische Auktion regelmäßig den Erlös gegenüber einer englischen Auktion. Bei englischen Auktionen reduziert ein hohes Mindestgebot das Verlustrisiko für Verkäufer - insbesondere, wenn nicht klar ist, wie viele Bieter teilnehmen.  Bei Auktionen mit gemeinsamem Wert führt eine Reduktion der Informationsasymmetrie zu steigender Bereitschaft risikoaverser Bieter, höhere Gebote abzugeben.  Englische Auktionen erzielen höhere Auktionserlöse als Erstpreisauktionen, wenn im Verlauf der Auktion für alle Auktionsteilnehmer bessere Informationen verfügbar werden.  Verhandlungen und Kooperation der Bieter muss verhindert werden - jede Form der Absprache reduziert Auktionserlöse. 8.6 Zusammenfassung Preisdiskriminierung beschreibt Preisstrategien marktbeherrschender Unternehmen, bei denen entsprechend der Zahlungsbereitschaft der Kunden unterschiedliche Preise für im Wesentlichen identische Produkte verlangt werden. Unternehmen sind dann in der Lage, die Konsumentenrente in Teilen oder sogar vollständig in deutliche Gewinnsteigerungen umzuwandeln. Preisdiskriminierung kann direkt durch personalisiertes Preissetzen oder Marktsegmentierung erfolgen, wenn durch Marktforschung oder digitale Technologien hinreichend genau Kundengruppen identifiziert werden können. Indirekte Preisdiskriminierung basiert auf Selbstselektion der Kunden: Entsprechend der Zahlungsbereitschaft ordnen sich Kunden selbst Mobilfunktarifen zu oder bestimmen im Rahmen von zweiteiligen Tarifen wie der Bahncard im Zeitablauf ihre Nutzung. Reines und gemischtes Bundling sind Strategien von Mehrproduktunternehmen wie Microsoft oder McDonald’s, um durch Bündelung von Produkten höhere Gewinne zu erzielen. Auktionen ermöglichen Preissetzung bei unvollständiger Information. Auktionsverfahren hängen davon ab, ob die Bieter unterschiedliche private Werte für den Auktionsgegenstand haben, oder ob ein gemeinsamer Wert vorliegt. Je geringer die Zahl und je unterschiedlicher der Informationsstand der Teilnehmer, desto wichtiger ist die Wahl des Auktionsverfahrens. Umgekehrt ergibt das Erlösäquivalenztheorem, dass bei vielen risikoaversen Teilnehmern und gleichem Informationsstand kein Unterschied im Ergebnis ist: Englische und holländische Auktionen führen zum selben Preis. Die beschriebenen Preisstrategien gelten dabei im engeren Sinne nur für Unternehmen mit Marktmacht - es ist völlig klar, dass Unternehmen auch bei hoher Wettbewerbsintensität Preisdiskriminierung anwenden. Allerdings sind gerade bei Wettbewerb im Oligopol komplexe Rückwirkungen des Wettbewerberverhaltens zu berücksichtigen (Stole 2007). <?page no="353"?> Zusammenfassung 353  Literaturtipps Pricing aus betriebswirtschaftlicher Perspektive wird von Simon, H. und Fassnacht, M., Preismanagement, Berlin 2016, umfassend abgedeckt. Übergreifende Darstellungen aus mikroökonomischer und strategischer Perspektive bieten Belleflamme, P. und Peitz, M., Industrial organization: markets and strategies, London 2015.  Kontrollfragen [1] Beschreiben Sie praktische Anwendungsfelder der Analyse von Entscheidungen zu Preisdiskriminierung aus mikroökonomischer Perspektive sowie deren Grenzen, Vor- und Nachteile! [2] Welche Bedingungen müssen für eine erfolgreiche Anwendung von Preisdiskriminierung vorliegen? Beschreiben Sie Unterschiede und Gemeinsamkeiten von direkter und indirekter Preisdiskriminierung! Nennen Sie zwei Fälle, in denen die Trennung nicht eindeutig ist. [3] Nennen Sie je zwei Beispiele für personalisierte (vollkommene) Preisdiskriminierung, Paketpreisbildung und Gruppenpreisbildung! [4] Beschreiben Sie die Grundüberlegung von (reinem und gemischtem) Bundling anhand einer Abbildung! Nennen und erläutern Sie knapp drei Beispiele aus unterschiedlichen Industrien, in denen typischerweise (reines oder gemischtes) Bundling angewendet wird. [5] Mobilfunk- oder Smartphone-Tarife haben oft Minuten- oder Datenpakete inklusive, darüberhinausgehende Minuten oder Daten kosten extra - weshalb? Welche Preisstrategie liegt hier vor? Erklären Sie die Grundüberlegungen und Strategien bei zweiteiligen Tarifen! [6] Ein Bowlingclub vermietet Plätze für EUR 20 pro Stunde, aktuell gibt es keine Mitgliedsgebühr. Die Nachfragefunktion des Amateurteams A ist p = 50- 0,025q pro Jahr - aktuell spielt diese Gruppe 1200 Stunden pro Jahr, die Nachfragefunktion einer Kneipengruppe B ist p = 40- 0,025 q pro Jahr - aktuell spielt diese Gruppe 800 Stunden pro Jahr. Der Bowlingclub denkt jetzt über die Einführung einer einheitlichen jährlichen Mitgliedsgebühr je Team nach, die Platzmiete von EUR 20 je Stunde soll beibehalten werden. Wie hoch sollte die Mitgliedsgebühr gewählt werden? Wie viele Stunden werden die beiden Teams nach Einführung der Mitgliedsgebühr jeweils Bowling spielen? [7] Was ist die Grundüberlegung der Deutschen Bahn betreffend der Bahncard 50, welche Bedingungen müssen erfüllt sein? [8] Weshalb bietet der Pay-TV-Anbieter Premiere einzelne Sport- und Spielfilmkanäle, aber auch Programmpakete an - welche Formen von Bundling liegen hier vor? [9] L’Oréal plant die Markteinführung einer neuen Lotion - das Unternehmen denkt darüber nach, die neue Lotion zur Markteinführung mit einem Schal in einem Bundle anzubieten. Die Grenzkosten für die Lotion betragen EUR 3, für den Schal EUR 7. Die Zahlungsbereitschaften wurden durch die Marktforschung für fünf gleich große Kundengruppen ermittelt: <?page no="354"?> Preisstrategien und Preisdiskriminierung 354 Kundengruppe Zahlungsbereitschaften Lotion Schal A 20 5 B 18 12 C 12 18 D 9 21 E 4 24 Zu welchem Preis sollte man die Produkte optimalerweise getrennt voneinander verkaufen? Zu welchem Preis würde man das Bundle (ein Schal, eine Lotion) verkaufen? Welche Strategie führt zu einem höheren Gewinn? Warum? [10] In der Tabelle sind für drei Kinoketten A, B und C die Zahlungsbereitschaften für zwei Filme (Actionmovie und Komödie) wiedergegeben, die Grenzkosten betragen 5.000 EUR je Film pro Woche je Kino. Welche Preise sollte der Filmverleih bei reinem Bundling verlangen? Gibt es eine Möglichkeit, durch gemischtes Bundling höhere Gewinne zu erzielen? Kinokette Zahlungsbereitschaft der Kinoketten Grenzkosten des Filmverleihers Actionmovie Komödie Actionmovie Komödie A mit 5 Kinos 13.000 6.000 5.000 5.000 B mit 5 Kinos 7.000 11.000 5.000 5.000 C mit 5 Kinos 15.000 2.000 5.000 5.000 [11] Erläutern Sie die vier üblichen Auktionsverfahren! [12] Erläutern Sie Unterschiede zwischen Auktionen mit privaten und gemeinsamen Werten der Bieter.  Literatur Adams, W.J. und Yellen, J.L., Commodity bundling and the burden of monopoly, Quarterly Journal of Economics, 1976, 90, 3, 475-498. Ariely, D. und Simonson, I., Buying, bidding, playing, or competing? Value assessment and decision dynamics in online auctions, Journal of Consumer Psychology, 2003, 13, 113-123. Armstrong, M., Recent developments in the economics of price discrimination, in: Blundell, R., Newey, W.K. und Persson, T. (Hrsg.), Advances in economics and econometrics: theory and applications, Volume II, Cambridge 2006, 97-141. <?page no="355"?> Zusammenfassung 355 Ascarza, E., Lambrecht, A. und Vilcassim, N., When talk is “free”: the effect of tariff structure on usage under twoand three-part tariffs, Journal of Marketing Research, 2002, 49, 6, 882-899. Bajari, P. und Hortaçsu, A., The winner's curse, reserve prices, and endogenous entry: Empirical insights from eBay auctions, RAND Journal of Economics, 2003, 34, 2, 329-355. Baker, W., Kiewell, D. und Winkler, G., Using big data to make better pricing decisions, McKinsey Quarterly, July 2014. Bakos, Y. und Brynjolfsson, E., Bundling information goods: pricing, profits, and efficiency, Management Science, 1999, 45, 12, 1613-1630. Bar-Gill, O., Algorithmic price discrimination when demand is a function of both preferences and (mis)perceptions, University of Chicago Law Review, 2019, 86, 2, 217-254. Bazerman, M.H. und Samuelson, W.F., I won the auction but don't want the prize, Journal of Conflict Resolution, 1983, 27, 4, 618-634. Bertini, M. und Koenigsberg, O., When customers help set prices, Sloan Management Review, 2014, 55, 57-66. Bolton, L.E., Warlop, L. und Alba, J.W., Consumer perceptions of price (un)fairness, Journal of Consumer Research, 2003, 29, 474-491. Bundesnetzagentur, 5G Frequenzauktion beendet, Pressemeldung 12. Juni 2019. Busse, C., Vorbild Billig-Konkurrenz: Lufthansa startet neues Preismodell, Süddeutsche Zeitung, 24. Juli 2015. Cable, J., Henley, A. und Holland, K., Pot of gold or winner's curse? An event study of the auctions of 3G mobile telephone licences in the UK, Fiscal Studies, 2002, 23, 4, 447-462. Chen, L., Measuring algorithms in online marketplaces, Boston 2017. Chen, L., Mislove, A. und Wilson, C., An empirical analysis of algorithmic pricing on Amazon Marketplace, Proceedings of the 25th International Conference on World Wide Web, 2016, 4, 1339-1349. Chen, M. und Chen, L., Recent developments in dynamic pricing research: multiple products, competition, and limited demand information, Production and Operations Management, 2015, 24, 5, 704-731. Chu, C.S., Leslie, P. und Sorensen, A., Bundle-size pricing as an approximation to mixed bundling, American Economic Review, 2011, 101, 263-303. Cohen, A., Package size and price discrimination in the paper towel market, International Journal of Industrial Organization, 2008, 26, 2, 502-516. Crawford, V.P., Kugler, T., Neeman, Z. und Pauzner, A., Behaviorally optimal auction design: Examples and observations, Journal of the European Economic Association, 2009, 7, 2-33, 377-387. Dakers, M., Uber knows customers with dying batteries are more likely to accept surge pricing, The Telegraph, Oct 2016. Dautzenberg, K., Gaßmann, C., Groß, B., Müller, F., Neukamp, D. und Bodenstein, U., Dynamische Preisdifferenzierung im deutschen Online-Handel - eine Untersuchung der Verbraucherzentralen, Potsdam 2018b. Dautzenberg, K., Gaßmann, C., Groß, B., Müller, F., Neukamp, D., Schmidtke, L. und Bodenstein, U., Individualisierte Preisdifferenzierung im deutschen Online-Handel - eine Untersuchung der Verbraucherzentralen, Potsdam 2018a. Davis, A.M., Katok, E. und Kwasnica, A.M., Should sellers prefer auctions? A laboratory comparison of auctions and sequential mechanisms, Management Science, 2014, 60, 4, 990-1008. DellaVigna, S. und Malmendier, U., Paying not to go to the gym, American Economic Review, 2006, 96, 3, 694-719. Deneckere, R. und McAfee, P., Damaged goods, Journal of Economics and Management Strategy, 1996, 5, 2, 149-174. Elberse, A., Bye-bye bundles: the unbundling of music in digital channels, Journal of Marketing, 2010, 74, 3, 107-123. Ezrachi, A. und Stucke, M.E., Artificial intelligence and collusion: when computers inhibit competition, University of Tennessee, Research Paper #267, May 2015 <?page no="356"?> Preisstrategien und Preisdiskriminierung 356 Gal, A., It’s a feature, not a bug: on learning algorithms and what they teach us, OECD Roundtable on Algorithms and Collusion, Paris 2017. Garbarino, E. und Lee, O.F., Dynamic pricing in internet retail: effects on consumer trust, Psychology and Marketing, 2003, 20, 6, 495-513. Grubb, M.D., Selling to overconfident consumers, American Economic Review, 2009, 99, 5, 1770-1807. Haeringer, G., Market design: auctions and matching, Cambridge 2018. Hannak, A., Soeller, G., Lazer, D., Mislove, A. und Wilson, C., Measuring price discrimination and steering on e-commerce web sites, Proceedings of the 2014 conference on internet measurement conference, 2014, 305-318. Haucap, J. und Heimeshoff, U., Consumer behavior towards on-net/ off-net price differentiation, Telecommunications Policy, 2011, 35, 4, 325-332. Heidhues, P. und Köszegi, B., Exploiting naïvete about self-control in the credit Market, American Economic Review, 2010, 100, 5, 2279-2303. Jentzsch, N., Wohlfahrts- und Verteilungswirkungen personalisierter Preise und Produkte, Friedrich-Ebert-Stiftung, WP, 2017. Jia, J., Zhang, Q., Zhang, Q. and Liu, M., Revenue generation for truthful spectrum auction in dynamic spectrum access, in: Proceedings of the tenth ACM International Symposium on Mobile ad hoc networking and computing, 2009, 3-12. Just, D.R. und Wansink, B., The flat-rate pricing paradox: conflicting effects of “all-you-can-eat” buffet pricing, Review of Economics and Statistics, 2011, 93, 1, 193-200. Kagel, J.H. und Levin, D., Independent private value auctions: bidder behaviour in first-, secondand third-price auctions with varying numbers of bidders, Economic Journal, 1993, 103, 419, 868-879. Kahneman, D., Knetsch, J.L. und Thaler, R., Fairness as a constraint on profit seeking: entitlements in the market, American Economic Review, 1986, 76, 4, 728-741. Kim, J.-Y., Natter, M. und Spann, M., Pay what you want: a new participative pricing mechanism, Journal of Marketing, 2009, 73, 1, 44-58. Klemperer, P., Auction theory: a guide to the literature, Journal of Economic Surveys, 1999, 13, 3, 227-286. Klemperer, P., How (not) to run auctions: The European 3G telecom auctions, European Economic Review, 2002, 46, 4-5, 829-845. Koutroumpis, P. und Cave, M., Auction design and auction outcomes, Journal of Regulatory Economics, 2018, 53, 275- 297. Krämer, A. und Kalka, R., Dynamic Pricing - Verspielt Amazon das Vertrauen seiner Kunden? , Absatzwirtschaft, 2016, online. Kremer, M., Mantin, B. und Ovchinnikov, A., Dynamic pricing in the presence of myopic and strategic consumers: theory and experiment, Production and Operations Management, 2017, 26, 1, 116-133. Kumar, V., Making “freemium” work: many start-ups fail to recognize the challenges of this popular business model, Harvard Business Review, 2014, 92, 5, 27-29. Levin, Y., McGill, J. und Nediak, M., Dynamic pricing in the presence of strategic consumers and oligopolistic competition, Management Science, 2008, 55, 32-46. Lusk, J.L. und Shogren, J.F., Experimental auctions - methods and applications in economic and marketing research, Cambridge 2007. McAfee, P. und de Velde, V., Dynamic pricing in the airline industry, in: Hendershott, T. (Hrsg.), Handbook on Economics and Information Systems, Amsterdam 2007, 527-570. McAfee, P., McMillan, J. und Whinston, M.D., Multiproduct monopoly, commodity bundling, and correlation of values, Quarterly Journal of Economics, 1989, 104, 2, 371-383. <?page no="357"?> Zusammenfassung 357 McAfee, P., Pricing damaged goods, Economics: The Open-Access, 2007, 1, 1-19. McAfee, R.P. und McMillan, J., Auctions and bidding, Journal of Economic Literature, 1987, 25, 2, 699-738. Mikians, J., Gyarmati, L., Erramilli, V. und Laoutaris, N., Detecting price and search discrimination on the internet, Proceedings of the 11th ACM workshop on hot topics in networks, 2012, 79-84. Mitomo, H., Heterogeneous subscribers and the optimal two-part tariff of telecommunications service, Journal of the Operations Research Society of Japan, 2002, 35, 2, 194-214. Mohammed, R., How retailers use personalized prices to test what you’re willing to pay, Harvard Business Review, 2017. Myerson, R.B., Optimal auction design, Mathematics of Operations Research, 1981, 6, 1, 58-73. Nalebuff, B., Bundling as an entry barrier, Quarterly Journal of Economics, 2004, 119, 1, 159-187. Narahari, C., Raju, K., Ravikumar, K. und Shah, S., Dynamic pricing models for electronic business, University of Bangalore WP 23-4.2015, 2015. Narayanan, S., Chintagunta, P.K. und Miravete, E.I., The role of self selection, usage uncertainty and learning in the demand for local telephone service, Quantitative Marketing and Economics, 2007, 5, 1, 1-34. o.V., Lufthansa weist Vorwurf überhöhter Preise zurück, Die Zeit, 26. November 2017. OECD (Hrsg.), Personalized Pricing in the Digital Era, Paris 2018. Papanastasious, Y. und Savva, N., Dynamic pricing in the presence of social learning and strategic consumers, Management Science, 2014, 61, 1-21. Rayna, T., Darlington, J. und Striukova, L., Pricing music using personal data: mutually advantageous first-degree price discrimination, Electronic Markets, 2015, 25, 2, 139-154. Reinartz, W., Haucap, J., Wiegand, N. und Hunold, M., Preisdifferenzierung und-dispersion im Handel, Ausgewählte Schriften der IFH-Förderer, 2017, # 6. Richards, T.J., Liaukonyte, J. und Streletskaya, N.A., Personalized pricing and price fairness, International Journal of Industrial Organization, 2016, 44, 138-153. Schwalbe, U., Algorithms, machine learning, and collusion, Journal of Competition Law and Economics, 2018, 14, 4, 568- 607. Seele, P., Dierksmeier, C., Hofstetter, R. und Schultz, M.D., Mapping the ethicality of algorithmic pricing, Journal of Business Ethics, 2020. Solon, O., How a book about flies came to be priced $24 million on Amazon, wired.com/ 2011/ 04/ amazon-flies-24million/ Stole, L., Price discrimination and competition, in: Armstrong, M. und Porter, R., Handbook of Industrial Organization, 2007, Volume 3, 2221-2299. Stremersch, S. und Tellis, G.J., Strategic bundling of products and prices: a new synthesis for marketing, Journal of Marketing, 2002, 66, 1, 55-72. Tanner, A., Different customers, different prices, thanks to big data, Forbes, 26. März 2014. Thaler, R.H., The winner’s curse, Journal of Economic Perspectives, 1988, 2, 1, 191-202. Uken, M., Preissysteme - Zahl so viel du willst! , Die Zeit, 14. Januar 2013. Varian, H.R., Position auctions, International Journal of Industrial Organization, 2007, 25, 6, 1163-1178. Vickrey, W., Counterspeculation, auctions, and competitive sealed tenders, Journal of Finance, 1961, 16, 1, 8-37. Xia, L., Monroe, K.B. und Cox, J.L., The price is unfair! A conceptual framework of price fairness perceptions, Journal of Marketing, 2004, 68, 1-15. <?page no="359"?> 9 Strategische Entscheidungen mit Spieltheorie Strategische Entscheidungen eines Unternehmens müssen mögliche strategische Aktionen oder Reaktionen anderer Unternehmen berücksichtigen und antizipieren - die Wechselwirkungen von Strategien werden anhand spieltheoretischer Überlegungen analysiert, wie ein einfaches Beispiel zeigt: Ein mobiler Eiswagen Star-Ice kommt von rechts an einen linearen Strand. Die potenziellen Kunden sind gleichverteilt zwischen den Endpunkten A und B und ein Wettbewerber Triangel-Ice mit einem ebenfalls mobilen Eiswagen ist bereits am Strand positioniert, wie im oberen Teil von ► Abbildung 9.1 zu sehen. Der Wettbewerber bietet Speiseeis derselben Qualität zu gleichen Preisen an, die Kunden haben keine Präferenzen für einen der beiden Eisverkäufer. Wo sollte der neu an den Strand kommende Wettbewerber Star-Ice seinen Eiswagen platzieren bzw. aufbauen, um seine Gewinne zu maximieren? Wie wird sich der Wettbewerber Triangel-Ice verhalten? Abbildung 9.1: Strategische Positionierung von Eiswagen an einem linearen Strand. Zunächst kann sich das neue Unternehmen Star-Ice direkt rechts neben dem Wettbewerber Triangel-Ice positionieren - so haben alle Kunden rechts einen kürzeren Weg zum neuen Wettbewerber Star-Ice und das Unternehmen entsprechend einen großen Marktanteil. Triangel-Ice wird aber reagieren und den eigenen Standort nach rechts verändern - was wiederum eine Reaktion von Star-Ice hervorrufen wird. Diese Dynamik wird solange anhalten, bis keiner <?page no="360"?> Strategische Entscheidungen mit Spieltheorie 360 der Wettbewerber mehr einen Anreiz hat, seine Position zu verändern, weil keine Verbesserung des Marktanteils und des Gewinns möglich ist. Um die Gewinne zu maximieren, werden sich beide Eisverkäufer letztendlich genau in der Mitte des Strands platzieren. Jeder Wettbewerber wird auf diese Weise einen Marktanteil von 50 % erhalten, d.h. jeweils seinen Strandabschnitt vollständig bedienen. Dieses Ergebnis wird auch als Hotelling-Regel der minimalen Differenzierung bezeichnet (Hotelling 1929). Es trifft natürlich nicht nur für Eisverkäufer zu - Unternehmen, die ähnliche oder aus Kundenperspektive schwach differenzierte Produkte anbieten, wählen ihren Standort nebeneinander oder gegenüber: Sparkassen neben Volks- und Raiffeisenbanken, Zara neben H&M, Aral gegenüber von Shell, Burger King neben McDonald’s, Aldi und Lidl teilen sich in Gewerbegebieten gemeinsam den Parkplatz und andere mehr. Die zentrale Erkenntnis ist aber nicht, dass Unternehmen Standorte nebeneinander wählen, sondern dass konkurrierende Unternehmen, solange ihre jeweilige Strategie optimieren, bis die Unternehmen wechselseitig keinen Anreiz mehr haben, ihre Strategie zu verändern - dies ist eines der zentralen Lösungskonzepte der Spieltheorie und ein Sonderfall eines Nash- Gleichgewichtes. Spielfeld und Spielregeln der Spieltheorie Spieltheorie ist ein Konzept zur Analyse strategischer Entscheidungen in Konflikt- oder Kooperationssituationen mit dem Ziel, optimale Entscheidungen unter Berücksichtigung und Antizipation der Entscheidungen aller anderen Spieler zu ermitteln. Spieltheorie findet in so unterschiedlichen Bereichen wie Wirtschaftswissenschaften, Politik, Soziologie, Psychologie, Biologie, aber auch reiner Mathematik Anwendung:  Wettbewerb zwischen Unternehmen, aber auch in Auktionen, bei M&A-Projekten, im Marktdesign der Versteigerung von Mobilfunklizenzen,  sportliche Situationen wie die Strategien von Torwart und Schütze beim Elfmeter,  politische Kooperationen oder Koalitionen und internationale Institutionen,  die Formation und Stabilität von formellen und informellen Organisationen,  Analyse der Entstehung und dem Verlauf politischer Konflikte und Kriege,  allgemeine Verhandlungssituationen mit unterschiedlichen Zielsetzungen der Verhandlungspartner,  Kindererziehung und andere soziale Situationen und natürlich  Gesellschaftsspiele wie Schach, Poker oder Stein, Schere, Papier (von Neumann 1928). Eine Grundüberlegung der Spieltheorie ist - ähnlich wie bei den Eisverkäufern -, die möglichen Schritte und Strategien aller Wettbewerber bei der Wahl der eigenen Strategie zu berücksichtigen. Strategie kann nur funktionieren, wenn die Wechselwirkungen mit den Strategien der Wettbewerber berücksichtigt sind - man muss also in Gedanken und Überlegungen aller Wettbewerber eindringen (Courtney et al. 2009). Meist wird dies informell im Rahmen sogenannter War Games in Management-Workshops durchgespielt. Zunehmend geschieht dies auch in Form von expliziten spieltheoretischen Modellen mit der Unterstützung von spezialisierten Unternehmensberatungen wie OpenOptions, TWS Partners oder Frontier <?page no="361"?> Strategische Entscheidungen mit Spieltheorie 361 Economics und Investmentbanken (Horn 2011). Google dagegen entwickelt den eigenen Suchalgorithmus im Wettbewerb gegen andere Algorithmen mittels evolutorischer Spieltheorie weiter (Tuyls et al. 2018). Notwendig für die Anwendung von Spieltheorie aus theoretischer Perspektive (von Neumann und Morgenstern 1944 sowie Fudenberg und Tirole 1991) ist, dass  für alle Spieler eine eindeutige Zielfunktion vorliegt und identifiziert werden kann,  alle Spieler rational agieren und sich wechselseitig der Spielsituation bewusst sind, sowie Informationen vorliegen betreffend  Identität und Zahl der Spieler - zwei oder beliebig mehr Teilnehmer,  Informationsstand der Spieler - vollständige, unvollständige oder asymmetrische Information,  Dauer des Spiels - einmalige, wiederholte oder unendliche Spiele,  Struktur des Spiels - simultane oder sequentielle Entscheidungen und nicht kooperative oder kooperative Suche nach Lösungen - und  aller denkbaren und zulässigen Strategien - reine oder gemischte Strategien und deren Vielfalt. Man kann nicht erwarten, dass diese Bedingungen in jeder realen Wettbewerbssituation oder in allen Industrien jederzeit für alle Akteure gegeben sind, aber: Ähnlich einem Spiel wie Stein, Schere, Papier - das weltweit in gleicher Art und Weise gespielt wird - bilden sich in zahlreichen Industrien ebenfalls Spielregeln und Abfolgen von Verhaltensweisen heraus, welche die genannten Bedingungen gut erfüllen und aus Managementperspektive spieltheoretisch analysierbar sind (Birshan und Kar 2012 sowie Brandenburger und Nalebuff 1995). Auch aufgrund der Erkenntnisse begrenzter Rationalität (► Kapitel 3) ist ein neuer Zweig als Behavioral Game Theory entstanden, der insbesondere die auf Routinen und dem Festhalten an Überzeugungen oder bisherigen Erfolgsmustern basierenden Strategien im Rahmen von Experimenten überprüft - ökonomische Labore wie VIRTECOLAB versuchen hier Muster der Abweichungen von den bei vollständiger Rationalität zu erwartenden Ergebnissen zu identifizieren, die gerade für Entscheidungen in Unternehmen hohe Relevanz haben (Mailath 1998, Camerer 2003, Bonau 2017 und  virtecolab.com). Aus praxisorientierter Perspektive genügt für die Anwendung von Spieltheorie oftmals eine Liste der Spieler (Aldi, Lidl, …), eine Beschreibung möglicher Strategien (Preise, Qualität, Werbung, ...), eine Einschätzung der Auszahlungen oder Gewinne beim Zusammenspiel verschiedener Strategien (wenn Aldi die Preise senkt und Lidl nicht: Was passiert mit den jeweiligen Gewinnen? ) und eine Kenntnis der industriespezifischen Regeln des Spiels. Die tatsächliche Anwendung bleibt aber aufgrund anspruchsvoller Datenerfordernisse auf  große Unternehmen in Oligopolen  für strategisch wesentliche Entscheidungssituationen beschränkt, ermöglicht in diesen Fällen aber  eine Plausibilisierung möglicher Strategien und deren potenziellen Rückwirkungen, <?page no="362"?> Strategische Entscheidungen mit Spieltheorie 362  weitreichenden Erkenntniszuwachs über die strategische Wettbewerbssituation und eine Ableitung und Bewertung industriespezifischer strategischer Wettbewerbsvorteile und stellt sich oft als sehr wirkungsvoll heraus (Lindstädt und Müller 2009).  Lernziele Dieses Kapitel beschäftigt sich mit  grundlegenden spieltheoretischen Überlegungen und Konzepten zur Analyse strategischer Entscheidungssituationen,  Lösungen für simultane Spiele auf Basis von dominanten Strategien und besten Antworten in Form von Nash-Gleichgewichten in reinen und gemischten Strategien,  Gründe für Stabilität und Instabilität von Absprachen in wiederholten Spielen,  Auswirkungen von Risikoaversion sowie sequentiellen Spielen und der Ermittlung von glaubwürdigen teilspielperfekten First-Mover-Strategien. 9.1 Nash-Gleichgewichte in simultanen Spielen Spiele können per se anhand mathematischer Formeln für eine beliebige Zahl an Strategien und Spielern beschrieben werden. Eine grundlegende Darstellung simultaner Spiele für zwei Spieler kann aber auch wie in ► Abbildung 9.2 anhand der sogenannten strategischen Normalform erfolgen. Um einige grundlegende spieltheoretische Begriffe zu etablieren, ist das bekannte Spiel Stein, Schere, Papier zwischen zwei Spielern in einer Matrix abgebildet. Spieler 1 ist der Zeilenspieler, seine Strategien Stein, Schere oder Papier sind in drei Zeilen angeordnet. Spieler 2 ist der Spaltenspieler, entsprechend sind die Strategien in drei Spalten angeordnet. In Abhängigkeit der Wahl der Strategie beider Spieler kommt eine Strategiekombination zustande, bspw. Spieler 1: Stein/ Spieler 2: Papier - bei einer solchen Strategiekombination erhält der Spieler 1 null Punkte, der Spieler 2 einen Punkt. Für alle möglichen Strategiekombinationen sind in der Auszahlungsmatrix (in diesem Fall mit neun möglichen Feldern) die jeweiligen Auszahlungen für beide Spieler wiedergegeben. Das Spiel Stein, Schere, Papier ist ein simultanes Spiel - d.h., die Spieler entscheiden und zeigen die jeweilige Strategie zum selben Zeitpunkt. Wäre Stein, Schere, Papier ein sequentielles Spiel, würde zunächst einer der Spieler seine Strategie zeigen, danach würde der andere entscheiden - Stein, Schere, Papier ist als sequentielles Spiel offensichtlich einfach zu gewinnen, die optimale Strategie im simultanen Spiel wird am Ende dieses Abschnitts beschrieben. <?page no="363"?> Nash-Gleichgewichte in simultanen Spielen 363 Abbildung 9.2: Stein, Schere, Papier-Matrix als Spiel in Normalform. Um allgemein Lösungen für simultane Spiele zu ermitteln, werden für jede Strategiekombination die Auszahlungen (typischerweise angegeben als Gewinne in statischer Betrachtung wie in ► Abbildung 9.3 links oder als Discounted Cashflow in dynamischer Betrachtung) ermittelt und dann in geeigneter Weise verglichen, um in Abhängigkeit der Strategieoptionen des Gegenspielers die jeweils optimale eigene Strategie zu identifizieren. Wenn beide Spieler in der Lage sind, identische Versionen eines Spiels zu zeichnen, und wechselseitig davon ausgehen, dass der andere dies auch kann, liegen symmetrische vollständige Informationen (Common Knowledge) betreffend Spielstruktur und Auszahlungsmatrix vor. Um reale Wettbewerbssituationen in Spielen abzubilden, ist erheblicher Marktforschungs- und Datenanalyseaufwand notwendig, aber im Prinzip kann ein einfaches Vorgehen, wie in ► Abbildung 9.3 rechts skizziert, erfolgen. Zunächst ermittelt man die relevanten Spieler, in diesem Fall Aldi und Lidl, und gruppiert die maßgeblich den Gewinn beeinflussenden Strategien (hier bspw. die Zahl und Größe der Filialen aus unterschiedlichen Regionen) sowie die Auszahlungen (hier die prognostizierten Gewinne entsprechend der bisherigen GuV und weiterführender empirischer Analysen) in den jeweiligen Strategiekombinationen: Bspw. beträgt der Gewinn von kleinen Aldi-Filialen in Regionen, in denen Lidl große Filialen betreibt, 1,1 Mio. pro Jahr EUR. Auf dieser Basis können dann Strategien bewertet und Business Cases entwickelt werden, um optimale Strategien wie nachfolgend beschrieben zu identifizieren. Wenn Spieler aus ihren möglichen Strategien eine einzelne auswählen, liegen reine Strategien vor, wenn Spieler mehrere Strategien kombinieren, liegen gemischte Strategien vor. Schere Schere Papier Stein Stein Papier Spieler 1 (Zeilenspieler) Spieler 2 (Spaltenspieler) 0 0 1 0 0 0 1 0 0 0 1 1 0 0 1 1 0 0 Gewinn für Spieler 2, wenn er die Strategie Papier wählt und Spieler 1 die Strategie Stein wählt Spieler Strategien Auszahlungen <?page no="364"?> Strategische Entscheidungen mit Spieltheorie 364 Abbildung 9.3: Auszahlungen und Strategien in Normalform-Spielen. Dominante Strategien In ► Abbildung 9.4 links oben ist eine reduzierte Wettbewerbssituation zwischen Coke und Pepsi beschrieben, in der beide Unternehmen nur die Wahl zwischen zwei Strategien haben: Werbung oder keine Werbung. In der Auszahlungsmatrix sind die Gewinne der beiden Unternehmen für alle denkbaren Strategiekombinationen abgebildet - sollten beide Unternehmen bspw. keine Werbung wählen, beträgt der Gewinn von Pepsi 10, der Gewinn von Coke 2. Beide Unternehmen können ihre Gewinne wesentlich durch Werbeausgaben beeinflussen, der individuelle Gewinn hängt aber von der Strategie des anderen Spielers ab - welches ist die beste Strategie für Coke, welches die für Pepsi? Pepsi ist der Zeilenspieler - entsprechend vergleicht Pepsi in ► Abbildung 9.4 links unten zeilenweise die eigenen Gewinne in Abhängigkeit möglicher Strategien von Coke. Sollte Coke Werbung machen, ist es für Pepsi die beste Strategie, auch Werbung zu machen, denn der Gewinn von 10 in der Strategiekombination Pepsi: Werbung/ Coke: Werbung übertrifft den Gewinn von 6 in der Strategiekombination Pepsi: keine Werbung/ Coke: Werbung. Betreibt Coke keine Werbung, ist es für Pepsi die beste Strategie, Werbung zu machen, denn jetzt beträgt der Gewinn 15 in der Strategiekombination Pepsi: Werbung/ Coke: keine Werbung gegenüber einem Gewinn von 10 in der Strategiekombination Pepsi: keine Werbung/ Coke: keine Werbung. Unabhängig davon was Coke tut, ist es für Pepsi offenbar immer besser, Werbung zu betreiben - Pepsi wird daher in jedem Fall Werbung machen, da diese Strategie eindeutig überlegen ist: Für Pepsi ist Werbung somit eine dominante Strategie, die unabhängig von der strategischen Entscheidung des Gegenspielers in jedem Fall gewählt wird - die dominante Strategie Werbung dominiert eindeutig die Alternative keine Werbung. Strategie B von Spieler 1 Strategie A von Spieler 1 Strategie C von Spieler 2 Strategie D von Spieler 2 Spieler 1 Spieler 2 π (2) 1A/ 2C π (1) 1A/ 2C π (2) 1A/ 2D π (1) 1A/ 2D π (2) 1B/ 2D π (1) 1B/ 2D π (2) 1B/ 2C π (1) 1B/ 2C Gewinn des Spielers 1 für die Strategiekombination: Spieler 1 spielt B, Spieler 2 spielt C theoretische Abbildung eines Spiels in (strategischer) Normalform kleine Filialen große Filialen große Filialen kleine Filialen Aldi Lidl -0,4 -0,1 0,4 3,9 0,7 0,8 4,2 1,1 durchschnittlicher Gewinn 2015 von Aldi in Regionen mit kleinen eigenen Filialen, in denen Lidl große Filialen betreibt empirische Daten der Filialstrategie und Gewinne von Aldi und Lidl 2015 <?page no="365"?> Nash-Gleichgewichte in simultanen Spielen 365 Abbildung 9.4: Werbung versus keine Werbung bei Coke und Pepsi. Coke ist der Spaltenspieler - entsprechend vergleicht Coke in ► Abbildung 9.4 rechts oben spaltenweise die Gewinne in Abhängigkeit der Strategien von Pepsi. Auch für Coke gilt: Werbung ist in jedem Fall die überlegene Strategie. D.h., auch Coke besitzt eine dominante Strategie, die unabhängig von der Entscheidung von Pepsi immer gewählt wird. Werbung ist in diesem Beispiel offenbar für beide Unternehmen eine dominante Strategie. In diesem Spiel (dieser Wettbewerbskonstellation) werden beide Unternehmen immer die Strategie Werbung wählen. Die Spieler haben keinen Anreiz, ihre gewählte Strategie zu verändern: Wenn einer der beiden Spieler von seiner dominanten Strategie abweicht, unter der Bedingung, dass der andere Spieler seine dominante Strategie beibehält, stellt er sich schlechter. Pepsi’s Gewinn geht beim Wechsel von Werbung auf keine Werbung von 10 auf 6 zurück, Coke’s Gewinn würde von 5 auf 0 sinken. Die Konstellation zweier dominanter Strategien stellt eine stabile Strategiekombination dar. Das Ergebnis wird als Gleichgewicht in dominanten Strategien bezeichnet - es ist ein Sonderfall eines Nash-Gleichgewichtes. Dokeine Werbung Werbung Werbung keine Werbung Pepsi Coke 5 10 0 15 2 10 8 6 Ausgangssituation keine Werbung Werbung Werbung keine Werbung Pepsi Coke 5 10 0 15 2 10 8 6 Vergleich der Strategien durch Coke (Spaltenspieler) Werbung keine Werbung keine Werbung Werbung Pepsi Coke 5 10 0 15 2 10 8 6 Vergleich der Strategien durch Pepsi (Zeilenspieler) Werbung keine Werbung keine Werbung Werbung Pepsi Coke 5 10 0 15 2 10 8 6 Zusammenführung der Strategien 1 2 3 4 <?page no="366"?> Strategische Entscheidungen mit Spieltheorie 366 minate Strategien sind die einfachste spieltheoretische Strategiewahl und Lösung für simultane Spiele. Dominante Strategien und beste Antworten Etwas komplexer ist die Situation zwischen Unilever und L’Oréal, wie in ► Abbildung 9.5 betreffend einer Neuprodukteinführung beschrieben. Betrachtet man die Auszahlungsmatrix zunächst zeilenweise aus Perspektive von L’Oréal, so ergibt sich, dass L’Oréal keine dominante Strategie hat: Würde Unilever das Neuprodukt einführen, dann würde L’Oréal ebenfalls das Neuprodukt einführen (Gewinn von 10 größer als Gewinn von 6) - führt Unilever kein Neuprodukt ein, würde L’Oréal dies ebenfalls nicht tun (Gewinn von 15 kleiner als Gewinn von 20). Die optimale Strategie von L’Oréal hängt somit von der Strategie von Unilever ab. Um eine Entscheidung zu treffen, kann L’Oréal allerdings das Spiel aus Perspektive von Unilever betrachten, um zu ermitteln, was der Wettbewerber tun wird: Unilever hat eine dominante Strategie in Form der Neuprodukteinführung (die auch für L’Oréal aus der Auszahlungsmatrix identifiziert werden kann), so dass Unilever diese Strategie unabhängig von der Entscheidung von L’Oréal in jedem Fall wählen wird. L’Oréal kann sich daran orientieren und auf dieser Basis entscheiden, selbst ebenfalls Werbung zu wählen. Eine derartige Strategiewahl wird als beste Antwort bezeichnet, da in Abhängigkeit der Entscheidung des Gegenspielers die bestmögliche Alternative ausgewählt wird. Die Kombination aus dominanter Strategie und bester Antwort ist wiederum stabil - keiner der Spieler hat einen Anreiz von seiner Strategie abzuweichen gegeben die Strategie des Gegenspielers - und stellt den zweiten Sonderfall eines Nash-Gleichgewichtes dar. Abbildung 9.5: Dominante Strategie und beste Antwort. Nash-Gleichgewicht in besten Antworten Der allgemeine Fall eines Nash-Gleichgewichtes basiert auf wechselseitig besten Antworten der Wettbewerber (Nash 1950 und 1951). In ► Abbildung 9.6 ist die Wettbewerbssituation zwischen Volkswagen und Toyota betreffend dem Aufbau von Produktionskapazität einer neuen Fabrik in Mexiko beschrieben. Beide Unternehmen können jeweils zwischen einer kleikein Neuprodukt Neuprodukt Neuprodukt kein Neuprodukt L’Oreal Unilever 5 10 0 15 2 20 8 6 Zusammenführung der Strategien kein Neuprodukt Neuprodukt Neuprodukt kein Neuprodukt L’Oreal Unilever 5 10 0 15 2 20 8 6 Ausgangssituation 1 2 <?page no="367"?> Nash-Gleichgewichte in simultanen Spielen 367 nen, mittleren und großen Fabrik entscheiden, deren Größe kurzfristig nicht angepasst werden kann. In ► Abbildung 9.6 links oben ist zu erkennen, dass keines der Unternehmen eine dominante Strategie besitzt: Weder eine Zeile von Toyota noch eine Spalte von Volkswagen ist eindeutig vorzuziehen. In einer solchen Situation muss nun jedes Unternehmen auf alle denkbaren Strategien des Wettbewerbers die besten Antworten identifizieren. Volkswagen - rechts oben in ► Abbildung 9.6 - ermittelt die beste Antwort auf jede mögliche Fabrikgröße von Toyota:  Würde Toyota eine kleine Fabrik aufbauen, ist die beste Antwort von Volkswagen eine mittelgroße Fabrik, denn der Gewinn von 125 übersteigt den Gewinn bei einer kleinen oder einer großen Fabrik mit jeweils 105.  Falls Toyota eine mittelgroße Fabrik aufbaut, ist die beste Antwort von Volkswagen ebenfalls eine mittelgroße Fabrik, denn der Gewinn von 100 übersteigt den Gewinn bei einer kleinen Fabrik in Höhe von 85 oder einer großen Fabrik von 70.  Baut Toyota eine große Fabrik, ist die beste Antwort von Volkswagen eine kleine Fabrik, denn der Gewinn von 50 übersteigt den Gewinn einer mittleren Fabrik in Höhe von 40 oder einer großen Fabrik von 0. Abbildung 9.6: Wechselseitige beste Antworten und Nash-Gleichgewicht. mittel mittel groß klein klein groß Volkswagen 105 125 85 100 70 50 40 0 50 105 85 105 125 100 40 105 70 0 Toyota Ausgangssituation mittel mittel groß klein klein groß Volkswagen 105 125 85 100 70 50 40 0 50 105 85 105 125 100 40 105 70 0 Toyota beste Antworten von Volkswagen mittel mittel groß klein klein groß Volkswagen 105 125 85 100 70 50 40 0 50 105 85 105 125 100 40 105 70 0 Toyota Zusammenführung der besten Antworten 1 2 mittel mittel groß klein klein groß Volkswagen 105 125 85 100 70 50 40 0 50 105 85 105 125 100 40 105 70 0 Toyota beste Antworten von Toyota 3 4 <?page no="368"?> Strategische Entscheidungen mit Spieltheorie 368 In gleicher Weise kann - links unten in ► Abbildung 9.6 - die Situation aus Perspektive von Toyota betrachtet werden:  Würde Volkswagen eine kleine Fabrik aufbauen, ist die beste Antwort von Toyota eine mittelgroße Fabrik, denn der Gewinn von 125 übersteigt den Gewinn bei einer kleinen Fabrik oder einer großen Fabrik mit jeweils 105.  Falls Volkswagen eine mittelgroße Fabrik aufbaut, ist die beste Antwort von Toyota ebenfalls eine mittelgroße Fabrik, denn der Gewinn von 100 übersteigt den Gewinn bei einer kleinen Fabrik in Höhe von 85 oder einer großen Fabrik von 70.  Baut Volkwagen eine große Fabrik, ist die beste Antwort von Toyota eine kleine Fabrik, denn der Gewinn von 50 übersteigt den Gewinn einer mittleren Fabrik in Höhe von 40 oder einer großen Fabrik von 0. Kombiniert man in ► Abbildung 9.6 rechts unten die jeweils besten Antworten der beiden Unternehmen, ergibt sich im Schnittpunkt der besten Antworten ein Nash-Gleichgewicht: Beide Unternehmen werden aus der Analyse des Spieles heraus wechselseitig die Entscheidung für eine mittelgroße Fabrik treffen. In einem Nash-Gleichgewicht treffen sich die besten Antworten aller Spieler - kein Spieler hat einen Anreiz, von der gewählten Strategie abzuweichen, da er sich schlechter stellen würde. Damit ist die zu einem Nash-Gleichgewicht passende Strategie die individuell vorteilhafteste Entscheidung, die ein rationaler Spieler treffen kann. Das Nash-Gleichgewicht ist weder durch die Zahl der Spieler noch durch die Anzahl der möglichen Strategien begrenzt. Allerdings kann es mehr als ein oder auch gar kein Nash-Gleichgewicht in reinen Strategien geben und zudem sind oder handeln nicht alle Spieler vollständig rational - diese Fälle werden in den nächsten Abschnitten betrachtet. Multiple Nash-Gleichgewichte in besten Antworten und notwendige Selektionskriterien Die Wettbewerbssituation zwischen Roche und Novartis ist in ► Abbildung 9.7 wiedergegeben. Beide Unternehmen können über die Höhe der F&E-Aufwendungen für ein neues Medikament entscheiden. <?page no="369"?> Nash-Gleichgewichte in simultanen Spielen 369 Abbildung 9.7: Multiple Nash-Gleichgewichte in besten Antworten. Zunächst ist zu erkennen, dass keines der Unternehmen eine dominante Strategie besitzt, da weder eine Zeile von Novartis noch eine Spalte von Roche eindeutig die besten Ergebnisse erbringt. Beide Unternehmen sind allerdings in der Lage, jeweils beste Antworten auf die Strategien des Konkurrenten zu identifizieren. An allen Stellen, an denen sich beste Antworten treffen, liegen wieder Nash-Gleichgewichte vor: In diesem Fall sind es zwei in den Strategiekombinationen Novartis: mittel/ Roche: mittel und Novartis: hoch/ Roche: niedrig. Aus Perspektive der beiden Unternehmen unterscheiden sich beide Nash-Gleichgewichte: Novartis hat eindeutig eine Präferenz für das Gleichgewicht bei Novartis: hoch/ Roche: niedrig, denn hier beträgt der Gewinn für Novartis 120. Roche hingegen präferiert das Gleichgewicht bei Novartis: mittel/ Roche: mittel, denn hier beträgt der Gewinn für Roche 90. Beide Gleichgewichte wären für sich genommen stabil, aber es ist unklar, welches gewählt wird. In zahlreichen Spielen ergeben sich multiple Nash-Gleichgewichte - ohne weitere Annahmen oder Selektionskriterien (Harsanyi und Selten 1992 sowie Cooper et al. 1990) lässt sich hier zunächst nicht bestimmen, welches der möglichen Gleichgewichte zustande kommt. Selektionskriterien, die zur Auswahl eines der möglichen Gleichgewichte oder zur Koordination der Strategien auf eines der Gleichgewichte dienen, sind z.B.  das Verhalten oder gewählte Strategien der Vergangenheit in Form von Pfadabhängigkeiten fortzuführen oder bestimmte ‚übliche Strategien‘ (Focal Points) zu wählen,  ein allgemein akzeptiertes Rollenverständnis innerhalb der Industrie,  alle Formen expliziter und impliziter Kooperation oder Signaling und natürlich  risikoaverse Bewertung der Strategien oder die Wahl gemischter Strategien,  adaptives Verhalten oder sequentielle Entscheidungen. Allerdings ergibt die Analyse trotz der Unbestimmtheit der beiden Nash-Gleichgewichte für beide Unternehmen wesentliche Erkenntnisse: Aus ► Abbildung 9.7 rechts ist zu erkennen, dass keine Nash-Gleichgewichte für die Novartis-Strategie niedrig und für die Roche-Strategie mittel mittel hoch niedrig hoch Novartis Roche 80 125 80 90 75 60 50 20 60 100 90 100 90 50 120 75 30 70 multiple Nash- Gleichgewichte in besten Antworten mittel mittel hoch niedrig hoch Novartis Roche 80 125 80 90 75 60 50 20 60 100 90 100 90 50 120 75 30 70 Ausgangssituation 1 2 niedrig niedrig <?page no="370"?> Strategische Entscheidungen mit Spieltheorie 370 hoch existieren - die Unternehmen können diese Zeile und Spalte vollständig aus ihren Überlegungen und strategischen Planungen ausklammern. Aus Managementperspektive ist ein zentraler Aspekt von Spieltheorie, dass durch Ermittlung von Nash-Gleichgewichten möglich wird, prinzipiell denkbare Strategien auszuschließen, sowohl eigene als auch diejenigen der Wettbewerber (Sutton 1990 und 1992 sowie Münter 1999), um robuste eigene Strategien zu entwickeln. Stabilität von Kooperationen und Absprachen Im Jahr 1974 planten das damals bereits etablierte Unternehmen Lego und der neu in den Spielwarenmarkt eintretende Wettbewerber Playmobil, Spielfiguren für Kinder auf den Markt zu bringen. Grundlegend hat sich die Situation wie in ► Abbildung 9.8 dargestellt. Wenn beide Unternehmen Figuren der gleichen Größe anbieten, entsteht eine hohe Wettbewerbsintensität, die jeweils zu Verlusten von -5 führt. Bieten dagegen beide Unternehmen unterschiedliche Figurengrößen an, kann jeder in seinem Marktsegment auf Basis reduzierter Wettbewerbsintensität Gewinne in Höhe von 10 erzielen. Es existiert für keines der Unternehmen eine dominante Strategie, aber beide Unternehmen können zwei Nash- Gleichgewichte auf Basis wechselseitig bester Antworten identifizieren. Offenbar ist für beide Unternehmen vorteilhaft, jeweils eine Strategie entgegengesetzt derjenigen des Wettbewerbers zu wählen. Abbildung 9.8: Koordination und Signaling. Um im Rahmen dieser einmaligen Entscheidung - mit hohem Investitionsbedarf - hier eine gewinnabsichernde Strategie zu wählen, gibt es per se drei Möglichkeiten: Koordination (d.h. verbotene Absprachen), sequentielle Entscheidungen oder Signaling. Tatsächlich haben sich beide Unternehmen für Signaling entschieden und im Vorfeld der Spielwarenmesse 1974 bereits Kataloge produzieren lassen. So war für beide Unternehmen im Vorfeld klar, was der Wettbewerber tun wird, und es konnten Gewinne erzielt werden. Diese implizite Absprache ist seither stabil, beide Unternehmen haben in den vergangenen mehr als 40 Jahren nie ihre Strategie betreffend der Größe der Spielfiguren geändert. Die Stabilität dieser impliziten kleine Figuren große Figuren große Figuren kleine Figuren Playmobil LEGO -5 -5 10 10 -5 -5 10 10 Ausgangssituation kleine Figuren kleine Figuren große Figuren große Figuren Playmobil LEGO -5 -5 10 10 -5 -5 10 10 Multiple Nash- Gleichgewichte 1 2 <?page no="371"?> Nash-Gleichgewichte in simultanen Spielen 371 Absprache Lego: klein/ Playmobil: groß basiert in Teilen darauf, dass die gewählte Strategiekombination ein Nash-Gleichgewicht ist. Instabilität von Absprachen und das Prisoner’s Dilemma In ► Abbildung 9.9 ist die Wettbewerbssituation und die Auszahlungen jeder Periode von zwei benachbarten Tankstellen Shell und Esso zu sehen - diese Situation wird im Rahmen wirtschaftspolitischer und soziologischer Analysen als Prisoner’s Dilemma („Gefangenendilemma“) beschrieben, hat aber eine strategische Komponente. Beide Unternehmen verfügen über zwei Preisstrategien - hohe Preise und niedrige Preise. Offensichtlich machen beide Unternehmen hohe Gewinne von 15, wenn beide hohe Preise verlangen, und niedrige Gewinne von 10, wenn beide niedrige Preise verlangen. Analysiert man das Spiel, so ergibt sich, dass beide Unternehmen eine dominante Strategie in Form niedriger Preise haben - so sind allerdings nur geringe Gewinne zu erzielen (► Abbildung 9.9 oben rechts). Abbildung 9.9: Instabilität von Absprachen. hohe Preise niedrige Preise niedrige Preise hohe Preise Shell Esso 10 10 6 20 15 15 20 6 10 Nash- Gleichgewicht in dominanten Strategien hohe Preise niedrige Preise niedrige Preise hohe Preise Shell Esso 10 10 6 20 15 15 20 6 10 Instabilität der Absprachen im einmaligen Spiel hohe Preise niedrige Preise niedrige Preise hohe Preise Shell Esso 10 10 6 20 15 15 20 6 10 Stabilität der Absprachen im wiederholten Spiel hohe Preise niedrige Preise niedrige Preise hohe Preise Shell Esso 10 10 6 20 15 15 20 6 Ausgangssituation 1 2 3 4 <?page no="372"?> Strategische Entscheidungen mit Spieltheorie 372  Fragen │ Gefangenendilemma und kollektives Interesse - warum halten alle Menschen auf Konzerten ihr Smartphone in die Höhe? Das Gefangenendilemma (Prisoner’s Dilemma) beschreibt eine Situation, in der zwei Verdächtige getrennt und ohne Kommunikationsmöglichkeit in Untersuchungshaft einsitzen. Beide werden beschuldigt, gemeinsam eine große Straftat begangen zu haben - allerdings kann ihnen diese Straftat ohne Geständnis nicht nachgewiesen werden. Beide haben sich im Vorhinein verabredet, bei einer Festnahme nicht zu gestehen. In diesem Fall können beiden lediglich kleine Straftaten nachgewiesen werden. In ► Abbildung 9.10 ist diese Situation, die beiden Verdächtigen bekannt ist, dargestellt. Die negativen Auszahlungen bezeichnen die Gefängnisstrafe in Jahren. Gesteht nur ein Spieler, wird aufgrund der Kronzeugenregelung seine Strafe reduziert, der andere Spieler muss länger ins Gefängnis. Abbildung 9.10: Gefangenendilemma. Tatsächlich ist die Verabredung der beiden Gefangenen keine stabile Absprache: Beide Spieler haben bei einer Befragung einen Anreiz, von der Strategie ‚nicht gestehen‘ auf ‚gestehen‘ zu wechseln - denn dadurch kann sich jeder Spieler individuell besserstellen. Die Gefängnisstrafe reduziert sich hier vermeintlich von drei Jahren auf ein Jahr. Da diese Überlegung bei rationalen Spielern aber für beide Gefangene gilt, werden beide auf ‚gestehen‘ abweichen und somit für jeweils sechs Jahren im Gefängnis bleiben. Die individuell rationale Strategiekombination gestehen/ gestehen ist in diesem einmaligen Spiel ein Nash-Gleichgewicht in dominanten Strategien und blockiert die kooperative Absprache nicht gestehen/ nicht gestehen. Das individuelle Interesse dominiert also das kollektive Interesse und stellt beide Spieler schlechter. nicht gestehen gestehen gestehen nicht gestehen -6 -6 -10 -1 -3 -3 -1 -10 Gefangener A Gefangener B <?page no="373"?> Nash-Gleichgewichte in simultanen Spielen 373 Zahlreiche gesellschaftliche und ökonomische Situationen haben strukturell ähnliche Auszahlungsmatrizen wie in ► Abbildung 9.10 zu sehen: Damit lässt sich erklären, weshalb häufig kollektiv bevorzugte Situationen (Begrenzung des Klimawandels, Reduktion von Ressourcenverbrauch, Stopp der Überfischung, atomare Abrüstung etc.) nicht Zustandekommen, weil Individualinteressen entgegenstehen. In gleicher Weise sprechen alle Menschen auf Partys zu laut (weil einige sich nicht leise unterhalten wollen), halten zu viele Menschen bei Konzerten ihr Smartphone anderen ins Sichtfeld und stehen alle Menschen in Flugzeugen nach der Landung gleichzeitig auf. In Experimenten zum Gefangenendilemma zeigt sich allerdings auch, dass einige Menschen eine systematische Verzerrung zu kooperativen Verhalten aufweisen - wenn auch unterschiedlich stark ausgeprägt. Studierende niedriger Semester erscheinen kooperationsbereiter als Studierende höherer Semester, allerdings steigt die Kooperationsbereitschaft in Kenntnis des Mit- oder Gegenspielers an, insbesondere wenn die Spieldauer von einem einmaligen zu einem wiederholten Spiel verändert wird und Vertrauen entstehen kann (Rapoport et al. 1965, Axelrod 1980, Frank et al. 1993 sowie Brosig 2002). Wenn sich beide Tankstellen in einem einmaligen Spiel auf hohe Preise verabreden, hat diese Absprache keinen Bestand: In ► Abbildung 9.9 links unten ist zu sehen, dass beide Unternehmen jeweils einen Anreiz haben, von der Absprache abzuweichen, da der Gewinn durch eine Preissenkung von 15 auf 20 erhöht werden kann, wenn die andere Tankstelle den hohen Preis beibehält. Die im Prinzip kollektiv bevorzugten hohen Preise werden aufgrund von dominanten Individualinteressen keinen Bestand haben - die Absprache ist instabil aufgrund des Nash-Gleichgewichtes in einer anderen Strategiekombination. Dies gilt sowohl für einmalige Spiele wie auch für endlich wiederholte Spiele: Wenn die Wettbewerber eine letzte Spielrunde kennen, in der ein Anreiz zur Abweichung von der Absprache entsteht, werden sie in dieser letzten Spielrunde von einer zuvor bestehenden Kooperation abweichen. Da aber beide Spieler dies bei vollständiger Information und Rationalität vorhersehen, werden beide bereits in der vorletzten Runde abweichen - diese iterative Rückwärtsinduktion setzt sich entsprechend fort, so dass bei einem endlichen Spiel bereits in der ersten Spielrunde keine stabile Kooperation zustande kommt. Um Stabilität in einer Absprache oder Kooperation herzustellen, sind spieltheoretisch drei Möglichkeiten gegeben:  Ein unendliches Spiel, in dem keine letzte Spielrunde existiert - so hat keiner der Spieler einen Anreiz, in einer letzten Spielrunde abzuweichen,  bindende Vereinbarungen mit Sanktionsmöglichkeiten zur Einhaltung der Kooperation, - die aber typischerweise durch wettbewerbspolitische Regelungen untersagt sind, oder aber  den Aufbau von Vertrauen in das kooperative Verhalten des Wettbewerbers. Gerade die letzte Möglichkeit des Aufbaus von Vertrauen spielt eine zentrale Rolle: Wenn in einem wiederholten Spiel einer der Spieler für den anderen sichtbar und nachvollziehbar vom Nash-Gleichgewicht abweicht, sich absichtlich schlechter stellt, bietet er dem anderen Spieler zwar einen temporär höheren Gewinn, aber insbesondere die Möglichkeit zur Kooperation <?page no="374"?> Strategische Entscheidungen mit Spieltheorie 374 an (vgl. auch ► Kapitel 3 zu Fairness im Ultimatumspiel). Wenn der andere Spieler dieses Angebot versteht und sich in der nächsten Spielrunde an das Verhalten anpasst und dieses Vertrauen wechselseitig nicht enttäuscht wird, kann auch in einem endlichen Spiel Kooperation möglich sein. Diese Lösung des reziproken Verhaltens wird häufig in algorithmenbasierten Computersimulationen und in Laborexperimenten mit Menschen als robuste Strategie beobachtet und als Tit for Tat bezeichnet (Axelrod und Hamilton 1981) und findet auch in der Biologie und Politik weitreichend empirische Bestätigung. Begrenzte Rationalität und das Erreichen eines Nash-Gleichgewichtes Ein Nash-Gleichgewicht erscheint zwar aus strategischer und logischer Perspektive plausibel, stellt aber entsprechend hohe Anforderungen an die Rationalität der Spieler, insbesondere an deren kognitive Fähigkeiten. Um dies zu verdeutlichen, kann man das Guessing- Numbers-Spiel heranziehen (Ledoux 1981, Nagel 1995 sowie Duffy und Nagel 1997). In diesem Spiel gelten für eine beliebige Zahl an Spielern folgende Regeln:  Jeder Spieler kann eine ganzzahlige Zahl von 0 bis 100 als Strategie wählen, so dass jeder Spieler aus 101 möglichen Strategien auswählen kann.  Alle Strategien werden geheim und simultan genannt und notiert, addiert und der abgerundete ganzzahlige Mittelwert berechnet.  Gewinner ist der Spieler, dessen Strategie am nächsten an 2/ 3 dieses Mittelwertes liegt. Wenn bspw. der Mittelwert aller von den Spielern genannten Strategien 45,3 beträgt, dann ist die siegreiche Strategie diejenige, die am nächsten an 2/ 3 ⋅ 45,3 = 30 liegt. Aus spieltheoretischer Perspektive lässt sich das Spiel einfach lösen:  Zunächst sind alle Strategien größer 66 durch schwache Dominanz ausgeschlossen - denn selbst wenn alle Spieler die Zahl 100 nehmen würden, ist wegen 2/ 3 ⋅ 100 = 66,67 die siegreiche Strategie maximal 66 - kein rationaler Spieler würde eine Zahl größer 66 wählen.  Würde man annehmen, dass alle Spieler zufällig irgendeine Zahl von 0 bis 100 wählen, dann beträgt der Mittelwert 50 und wegen 2/ 3 ⋅ 50 = 33,33 die siegreiche Strategie 33.  Würden - bei vollständiger Rationalität und Voraussicht der Aktionen der anderen Spieler - alle Spieler das Ergebnis von 33 wählen, wäre wegen 2/ 3 ⋅ 33 = 22 die siegreiche Strategie allerdings 22 .  Diese Überlegung setzt sich entsprechend iterativer Eliminierung möglicher Strategien fort, bis schließlich alle Spieler die 0 wählen - die tatsächlich in diesem Spiel das einzige Nash-Gleichgewicht darstellt - und auch alle Spieler gewinnen. Tatsächlich gewinnen im Rahmen von Experimenten zum Guessing-Numbers-Spiel - nahezu unabhängig der Ausbildung, des Alters der Teilnehmer oder der Vorkenntnis des Spiels - meist Spieler mit Strategien zwischen 15 bis 25 dieses Spiel. Der Grund hierfür ist zweigeteilt: Einerseits sind einige Spieler nicht in der Lage, die Lösung des an sich einfachen Spiels zu erkennen, andererseits erkennen kluge Spieler die begrenzten kognitiven Fähigkeiten und die unzureichende Tiefe der Durchdringung des Problems der Mitspieler - in der Konsequenz wird dann selbst ein vollständiger rationaler Spieler nicht die 0 wählen, denn er weiß, <?page no="375"?> Risikoaversion und gemischte Strategien 375 dass er aufgrund der „falschen Strategien“ der begrenzt rationalen Spieler mit der 0 nicht gewinnen kann: Er wird stattdessen eine Annahme über die Verteilung des Grades an Rationalität der Mitspieler treffen und auf dieser Basis seine Strategie wählen. Dieses Spiel zeigt insbesondere den Unterschied zwischen der vollständigen Rationalität eines Spielers und der kollektiv eingeschränkten Rationalität aufgrund ggfs. begrenzt rationalen Verhaltens einzelner oder aller Spieler (Bosch-Domenech et al. 2002 sowie Güth et al. 2002). Vor diesem Hintergrund ist nachvollziehbar, weshalb in Laborexperimenten oft ein relativ langer und langsamer Annäherungsprozess an ein theoretisch sofort adaptierbares Nash- Gleichgewicht beobachtet wird. Klar ist, dass in empirischen Untersuchungen realer Märkte und Wettbewerbssituationen - die eine deutlich höhere Komplexität und weniger klare Regeln als das Guessing-Numbers-Spiel aufweisen - oft keine stabilen Nash-Gleichgewichte identifiziert werden können (Aiginger 1998). Damit ergibt sich aus Managementperspektive, dass zum einen das Nash-Gleichgewicht zwar als möglicher Zielpunkt in strategischem Wettbewerb dient, aber das Erreichen des Gleichgewichts und die Konvergenz der Strategien vom Grad der Rationalität und der Geschwindigkeit des Lernens der Wettbewerber abhängt (Holt 1993, Mailath 1998, Foss 2001, Armstrong und Huck 2010 sowie Crawford 2013). Allerdings zeigt sich, das formale spieltheoretische Ausbildung und Erfahrung in strategischen Entscheidungssituationen die Wahrscheinlichkeit deutlich erhöht, Entscheidungen konsistent mit Nash-Gleichgewichten zu treffen (Brandenburger und Nalebuff 1995 sowie Camerer 2003). 9.2 Risikoaversion und gemischte Strategien Im vorangegangenen Abschnitt wurde klar, dass Spiele mehr als ein Nash-Gleichgewicht besitzen können. Um hier aus Managementperspektive Entscheidbarkeit herzustellen, ist die Anwendung erweiterter Konzepte auf Basis von Selektionskriterien möglich. Risikoaversion und Maximin-Strategie In vielen Wettbewerbssituationen können nicht alle Parameter erfasst werden, zudem sind vielleicht Zweifel an der vollständigen Rationalität des Gegenspielers angebracht. Alle diese Faktoren tragen dazu bei, dass ein oder alle Spieler risikoavers entscheiden - es geht dann nicht mehr darum, ein bestmögliches Ergebnis zu erreichen, sondern darum mögliche Verluste zu minimieren (► Kapitel 3). In ► Abbildung 9.11 links ist der Wettbewerb zwischen SAP und Oracle auf Basis einer Investition für ein neues Datenbanksystem zu sehen. SAP hat eine dominante Strategie in investieren, Oracle hat keine dominante Strategie, kann aber als beste Antwort ebenfalls investieren ermitteln, so dass ein Nash-Gleichgewicht mit Oracle: investieren/ SAP: investieren zustande kommt. <?page no="376"?> Strategische Entscheidungen mit Spieltheorie 376 Abbildung 9.11: Nash-Gleichgewicht und Risikoaversion. Die mit dem Nash-Gleichgewicht konsistente Strategie führt für Oracle zu einem Gewinn von 20. Sollte allerdings SAP - aus irgendeinem Grund - nicht investieren, dann droht Oracle ein beträchtlicher Verlust von -100. Vor diesem Hintergrund kann Oracle, bei begründeter Risikoaversion, nun eine vorsichtige Strategie wählen: Oracle ermittelt für jede denkbare Strategie das schlechteste Ergebnis - und wählt dann aus diesen schlechtesten Ergebnissen das beste aus, also das „kleinste Übel“. Diese Strategie bei Risikoaversion wird als Maximin-Strategie bezeichnet: Ein risikoaverser Spieler betrachtet die Minima seiner Strategien und wählt daraus das Maximum aus. In ► Abbildung 9.11 rechts ist diese Maximin-Strategie für beide Spieler angewendet: Oracle wählt auf Basis des Maximums aus den Minima -10 und -100 der Zeilen die Strategie nicht investieren, SAP wählt entsprechend im Vergleich von 0 und 10 weiterhin die Strategie investieren. Es kommt nun eine neue Lösung zustande: Oracle: nicht investieren/ SAP: investieren. Zwar macht Oracle jetzt einen geringen Verlust, aber dieser wird aufgrund der Risikoaversion dem potenziellen großen Verlust vorgezogen - die Differenz zwischen 20 und -10 kann als Risikoprämie aufgefasst werden, um einen möglichen Verlust von -100 zu verhindern. Da Vorstände im Allgemeinen aufgrund ihrer Vertragslaufzeit und Bonusregelungen eher risikoavers eingestellt sind, ist eine derartige Strategie nicht unüblich (Ross 2004 und Bolton et al. 2015). Im Fall von SAP ändert sich die Strategie nicht - der Grund ist, dass durch Risikoaversion eine dominante Strategie niemals verändert wird. Im zweiten Beispiel in ► Abbildung 9.12 wird die strategische Bedeutung von Risikoaversion im Vergleich zu einer Strategie auf Basis des Nash-Gleichgewichtes deutlich: Ohne Risikoaversion investieren GSK und Pfizer jeweils ein hohes F&E-Budget, im Nash-Gleichgewicht übertrifft der Gewinn von Pfizer den Gewinn von GSK deutlich. Investieren Nicht investieren nicht investieren investieren 0 10 -100 -10 0 0 10 -10 10 20 0 -100 Oracle SAP Gleichgewicht bei Risikoaversion investieren nicht investieren nicht investieren investieren 0 0 10 -10 10 0 -100 Oracle SAP 20 Nash- Gleichgewicht 1 2 <?page no="377"?> Risikoaversion und gemischte Strategien 377 Abbildung 9.12: Strategischer Einsatz von Risikoaversion. Sollte GSK mit einer - begründeten und für Pfizer glaubwürdigen - Ad-hoc-Meldung am Kapitalmarkt signalisieren, dass aufgrund der konjunkturellen oder politischen Situation derzeit große Unsicherheit auf den Märkten herrscht, und beide Unternehmen daraufhin risikoavers agieren und die Maximin-Regel anwenden, verschieben sich die Gewinne zugunsten von GSK: GSK hat dementsprechend ein hohes strategisches Interesse an risikoaversem Verhalten. Zudem kann - wie in ► Abbildung 9.13 zu sehen ist - Risikoaversion auch absolut die Gewinne beider Unternehmen erhöhen. Im Wettbewerb zwischen Kellogg’s und Nestlé bei Frühstückscerealien existiert offensichtlich kein Nash-Gleichgewicht - egal welchen Ausgangspunkt man in ► Abbildung 9.13 links wählt, immer wieder hat einer der Wettbewerber einen Anreiz, von der aktuellen Strategie abzuweichen, um sich besser zu stellen. In der Folge werden die vier Felder der Matrix wiederholt gegen den Uhrzeigersinn durchlaufen. 30 0 40 200 40 60 100 40 80 0 30 GlaxoSmithKline Pfizer 40 Gleichgewicht bei Risikoaversion 200 40 60 100 40 80 0 30 GlaxoSmithKline Pfizer Nash- Gleichgewicht 1 2 hohes F&E- Budget niedriges F&E-Budget hohes F&E- Budget niedriges F&E- Budget hohes F&E- Budget niedriges F&E-Budget hohes F&E- Budget niedriges F&E- Budget <?page no="378"?> Strategische Entscheidungen mit Spieltheorie 378 Abbildung 9.13: Fehlendes Nash-Gleichgewicht und Risikoaversion. Sollten beide Unternehmen nun die Maximin-Regel anwenden, ergibt sich für Kellogg’s die Strategie knusprig, für Nestlé die Strategie süß - beide Unternehmen machen in diesem Fall einen Gewinn von jeweils 3. Zudem stellen sich beide Unternehmen mit risikoaversem Verhalten rechts sogar besser als in der Situation links: Beim Durchlaufen der vier Matrix-Felder beträgt der durchschnittliche Gewinn je Periode für Kellogg’s (1 + 3 + 2 + 5)/ 4 = 2,75 , der durchschnittliche Gewinn von Nestlé beträgt (2 + 3 + 4 + 1)/ 4 = 2,5 . Gemischte Strategien und zufällige Entscheidungen Die Analyse der Spiele zwischen Lego und Playmobil (► Abbildung 9.8) sowie der Wettbewerb zwischen Kellogg’s und Nestlé (► Abbildung 9.13) hat gezeigt, dass ggfs. mehrere oder kein Nash-Gleichgewicht in reinen Strategien existieren. Eine mögliche Lösung liegt hier in gemischten Strategien (Nash 1951) - ein Spieler entscheidet sich hier nicht für eine einzelne Strategie, sondern wählt zufällig eine Strategie auf Basis einer Wahrscheinlichkeitsverteilung. Nash-Gleichgewichte in gemischten Strategien sind damit eine Verallgemeinerung der Nash-Gleichgewichte in reinen Strategien. Dabei gibt es zwei Möglichkeiten: gibt es keine Nash-Gleichgewichte in reinen Strategien, dann wird die Wahrscheinlichkeitsverteilung über alle verfügbaren Strategien entwickelt - gibt es dagegen mehrere Nash-Gleichgewichte, berücksichtigt die Wahrscheinlichkeitsverteilung nur diejenigen reinen Strategien, die auf die Nash-Gleichgewichte führen. Ein mittlerweile auch wissenschaftlich umfangreich untersuchtes spieltheoretisches Problem in diesem Zusammenhang ist der Elfmeter im Fußball. In ► Abbildung 9.14 ist die Situation zwischen Torwart und Schütze beim Elfmeter in stark vereinfachter Version dargestellt: Beide entscheiden absolut simultan, es gibt nur die Strategien rechts oder links, der Torwart hält den Ball definitiv, wenn er in der richtigen Ecke ist, der Schütze schießt niemals an Latte oder Pfosten oder gar daneben. Offensichtlich hat keiner der Kontrahenten eine dominante Strategie, aller- 1 1 2 2 süß knusprig knusprig süß Kellogg’s Nestlé 4 2 3 3 2 1 1 5 Gleichgewicht bei Risikoaversion süß knusprig süß Kellogg’s Nestlé 4 2 3 3 2 1 1 5 kein Nash- Gleichgewicht knusprig <?page no="379"?> Risikoaversion und gemischte Strategien 379 dings führt auch die Analyse der besten Antworten zu keiner Lösung: In keinem Feld der Matrix treffen sich beste Antworten, so dass kein Nash-Gleichgewicht in reinen Strategien vorliegt. Abbildung 9.14: Torwart und Elfmeterschütze beim Elfmeter. Jeder der beiden Spieler kann nun aber zufällig eine seiner Strategien wählen: Die Verteilung der Strategien stellt dann eine gemischte Strategie über die reinen Strategien dar. Die in derartigen Situationen zu wählende Wahrscheinlichkeitsverteilung muss drei einfachen Bedingungen genügen:  Die Wahrscheinlichkeiten über die Strategien hinweg muss deren relativer Erfolgswahrscheinlichkeit entsprechen,  die gewählten zufälligen Strategien dürfen kein erkennbares Muster aufweisen und  die Summe der Wahrscheinlichkeiten muss sich zu 1 ergänzen. Wenn statt der einfachen Wahrscheinlichkeiten bei zwei Möglichkeiten wie in ► Abbildung 9.14 detailliertere Verteilungen auf Basis bisherigen Verhaltens der Gegner bekannt sind, müssen Elfmeterschützen und Torwart die mit empirischen Wahrscheinlichkeiten gewichteten Strategien des aktuellen Gegners entsprechend berücksichtigen und auf dieser Basis ‚zufällig‘ entscheiden - unter Berücksichtigung dessen, dass der Torwart einem psychologischen Action Bias des Wegspringens aus der Mitte unterliegt (Chiappori et al. 2002, Bar-Eli et al. 2007, Azar und Bar-Eli 2011 und ► Kapitel 3). Um eine Wahrscheinlichkeitsverteilung über die Strategien für den Elfmeterschützen zu entwickeln, muss dieser einen Erwartungswert über die Strategie des Torwarts ermitteln - wüsste der Elfmeterschütze mit Sicherheit, wohin der Torwart springt, braucht es keine gemischte Strategie. Da keine Nash-Gleichgewichte vorliegen, müssen für diese Wahrscheinlichkeitsverteilung alle denkbaren Strategien berücksichtigt werden. Der Erwartungswert hängt von den Wahrscheinlichkeiten ab: 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 (der Torwart springt nach links) und 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 (der Torbeste Antworten Ausgangssituation 1 2 rechts links links rechts Torwart Elfmeterschütze 0 0 0 0 rechts links links rechts Torwart Elfmeterschütze 0 1 1 0 0 1 1 0 pr TL (1-pr TL ) pr SL (1-pr SL ) pr TL = 50 % (1-pr TL ) = 50 % pr SL = 50 % (1-pr SL ) = 50 % 1/ 4 1/ 4 1/ 4 1/ 4 1 1 1 1 <?page no="380"?> Strategische Entscheidungen mit Spieltheorie 380 wart springt nach rechts) beschreibt die Wahrscheinlichkeitsverteilung des Verhaltens des Torwarts - beide Wahrscheinlichkeiten addieren sich wegen 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 + 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 = 1 zu 100 %. Entsprechend bezeichnet 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 (der Schütze schießt nach links) und 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 (der Schütze schießt nach rechts) beschreibt die Wahrscheinlichkeitsverteilung des Elfmeterschützen (► Abbildung 9.14 links). Der Erwartungswert 𝐸𝐸𝐸𝐸 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 des Nutzens für den Schützen, wenn er nach links schießt, beträgt (9.1) 𝐸𝐸𝐸𝐸 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 = 0 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 + 1 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 ) = 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 , der Erwartungswert 𝐸𝐸𝐸𝐸 𝑆𝑆𝑆𝑆𝜕𝜕𝜕𝜕 beim Schuss nach rechts ergibt sich als (9.2) 𝐸𝐸𝐸𝐸 𝑆𝑆𝑆𝑆𝜕𝜕𝜕𝜕 = 1 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 + 0 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 ) = 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 . Für den Torwart ergeben sich entsprechend (9.3) 𝐸𝐸𝐸𝐸 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 = 1 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 + 0 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 ) = 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 , als Erwartungswert beim Sprung nach links und (9.4) 𝐸𝐸𝐸𝐸 𝑇𝑇𝑇𝑇𝜕𝜕𝜕𝜕 = 0 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 + 1 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 ) = 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 . beim Sprung nach rechts. Die Strategie kann zufällig bestimmt werden, wenn die Erwartungswerte beider möglichen Strategien gleich groß sind - mit anderen Worten: Torwart und Schütze berücksichtigen wechselseitig die Wahrscheinlichkeiten der Strategien des Gegners und entscheiden dann ähnlich besten Antworten in mit einer optimalen Wahrscheinlichkeitsverteilung, die jetzt ein Nash-Gleichgewicht in gemischten Strategien darstellt. Man setzt also für die Entscheidung des Elfmeterschützen die Gleichungen (9.1) und (9.2) mit (9.5) 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 = 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 gleich, dann ergibt sich mit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 = 1/ 2 sowie 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑇𝑇𝑇𝑇𝐿𝐿𝐿𝐿 = 1/ 2 die Wahrscheinlichkeitsverteilung für das Verhalten des Torwarts - er springt mit einer Wahrscheinlichkeit von 50 % nach links, mit einer Wahrscheinlichkeit von ebenfalls 50 % nach rechts. Analog erhält man durch Gleichsetzen von (9.3) und (9.4) mit (9.6) 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 = 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 , dass der Elfmeterschütze ebenfalls mit Wahrscheinlichkeiten 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝐿𝐿𝐿𝐿 = 1/ 2 und 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑆𝑆𝑆𝑆𝜕𝜕𝜕𝜕 = 1/ 2 nach links oder rechts schießt. Wenn Torwart und Elfmeterschütze entsprechend ihren Wahrscheinlichkeitsverteilungen entscheiden, dann werden die ► Abbildung 9.14 rechts eingetragenen kombinierten Wahrscheinlichkeiten auftreten. Jede Kombination von Strategien wird mit einer Häufigkeit von 25 % auftreten. Wenn sich die Spieler nicht an die berechneten Wahrscheinlichkeitsverteilungen halten, verschlechtern sie ihre eigenen Chancen und verbessern die Chancen des Gegners: Schießt der Elfmeterschütze bspw. mit einer zu hohen Wahrscheinlichkeit von 70 % nach links, dann sollte der Torwart immer nach links springen und hält jetzt 70 % aller Elfmeter. Gemischte Strategien sind ein ebenfalls mögliches Lösungskonzept in Koordinations- Spielen. Koordinations-Spiele sind gekennzeichnet durch mehrere Nash-Gleichgewichte, die von den Spielern asymmetrisch bevorzugt werden: Es liegen offenbar Interessenkonflikte vor. Derartige Spiele werden häufig unter der Bezeichnung Battle of the Sexes (Geschlechter- <?page no="381"?> Risikoaversion und gemischte Strategien 381 kampf) zusammengefasst. In ► Abbildung 9.15 links ist ein solches Spiel zu sehen: Ein Paar hat sich über die Wochenendaktivitäten zerstritten - sie möchte abends unbedingt zu einem Rugbyspiel, er möchte zeitgleich ins Ballett. Beide haben dennoch eine Präferenz, mit dem Partner gemeinsam den Abend zu verbringen, d.h. die beiden Nash-Gleichgewichte liegen in den Strategiekombinationen Ballett/ Ballett und Rugby/ Rugby, allerdings ist weitere direkte Kommunikation oder indirektes Signaling zur Abstimmung nicht möglich. Abbildung 9.15: Battle of the Sexes. Um jetzt eine Wahrscheinlichkeitsverteilung über die eigenen Strategien Ballett und Rugby festzulegen, müssen Mann und Frau wechselseitig ihre Erwartungswerte des Nutzens in Abhängigkeit vom Verhalten des Partners ermitteln. Der Erwartungswert hängt neben den möglichen Strategien und den Auszahlungen wieder von den Wahrscheinlichkeiten ab: 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 (die Frau geht ins Ballett) und 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 (die Frau geht zum Rugbyspiel) beschreibt die Wahrscheinlichkeitsverteilung des Verhaltens der Frau, 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 (der Mann geht ins Ballett) und 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 (der Mann geht zum Rugbyspiel) beschreibt die Wahrscheinlichkeitsverteilung des Verhaltens des Manns. So ergibt sich der Erwartungswert 𝑢𝑢𝑢𝑢 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 des Nutzens für die Frau, wenn sie ins Ballett geht als (9.7) 𝑢𝑢𝑢𝑢 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 2 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 + 0 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 ) = 2 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 , also entsprechend ihrem Nutzen in Abhängigkeit der Wahrscheinlichkeitsverteilung des Verhaltens des Manns. Der Erwartungswert 𝑢𝑢𝑢𝑢 𝐹𝐹𝐹𝐹𝜕𝜕𝜕𝜕 beim Besuch des Rugbyspiels ergibt sich als (9.8) 𝑢𝑢𝑢𝑢 𝐹𝐹𝐹𝐹𝜕𝜕𝜕𝜕 = 1 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 + 5 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 ) = 5 − 4 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 . Für den Mann ergeben sich entsprechend (9.9) 𝑢𝑢𝑢𝑢 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 = 4 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 + 1 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 ) = 1 + 3 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 und (9.10) 𝑢𝑢𝑢𝑢 𝑀𝑀𝑀𝑀𝜕𝜕𝜕𝜕 = 0 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 + 2 ⋅ (1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 ) = 2 − 2 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 . Rugby Ballet Mann Frau 0 0 2 4 1 1 5 2 Ballet Rugby Rugby Ballet Mann Frau 0 0 2 4 1 1 5 2 Ballet 1/ 30 4/ 30 5/ 30 20/ 30 pr FB =1/ 5 pr MB =5/ 6 (1-pr FR ) =4/ 5 Rugby (1-pr MR ) =1/ 6 <?page no="382"?> Strategische Entscheidungen mit Spieltheorie 382 Die Wahl einer Strategie kann dann alleine vom Zufall abhängig gemacht werden, wenn der Nutzen beider möglichen Strategien gleich groß ist - d.h. ein Spieler indifferent bei der Wahl der Strategie ist. Setzt man für die Entscheidung der Frau die Gleichungen (9.7) und (9.8) mit (9.11) 2 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 = 5 − 4 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 gleich, dann ergibt sich mit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 = 5/ 6 sowie 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 = 1/ 6 die Wahrscheinlichkeitsverteilung für das Verhalten des Manns. Analog erhält man durch Gleichsetzen von (9.9) und (9.10) mit (9.12) 1 + 3 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 2 − 2 ⋅ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 , dass die Frau mit einer Wahrscheinlichkeit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 1/ 5 ins Ballett gehen wird, aber mit deutlich größerer Wahrscheinlichkeit 1 − 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 4/ 5 das Rugbyspiel besucht. Wenn nun beide Spieler entsprechend ihrer Wahrscheinlichkeitsverteilungen entscheiden, dann werden die ► Abbildung 9.15 rechts eingetragenen kombinierten Wahrscheinlichkeiten auftreten: Mit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 ∙ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 5/ 30 Wahrscheinlichkeit gehen beide gemeinsam ins Ballett, mit der Wahrscheinlichkeit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝜕𝜕𝜕𝜕 ∙ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝜕𝜕𝜕𝜕 = 4/ 30 gehen beide zum Rugbyspiel. Allerdings ist mit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝐵𝐵𝐵𝐵 ∙ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝜕𝜕𝜕𝜕 = 20/ 30 die Wahrscheinlichkeit sehr hoch, dass beide getrennt (aber zumindest entsprechend der individuellen Präferenzen) verbringen. Dagegen ist Wahrscheinlichkeit, dass beide getrennt voneinander und entgegen der eigenen Präferenzen den Abend verbringen, mit 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝑀𝑀𝑀𝑀𝜕𝜕𝜕𝜕 ∙ 𝑝𝑝𝑝𝑝𝑟𝑟𝑟𝑟 𝐹𝐹𝐹𝐹𝐵𝐵𝐵𝐵 = 1/ 30 relativ gering. In Spielen auf Basis gemischter Strategien ist eine Grundanforderung, dass die Wahl der Strategien tatsächlich zufällig erfolgt - um sich das klar zu machen, genügt ein Blick zurück auf Stein, Schere, Papier. Auch hier ist die theoretisch optimale Vorgehensweise, anhand einer gemischten Strategie Stein, Schere und Papier mit einer Wahrscheinlichkeit von je einem Drittel anzuwenden, aber natürlich nicht in dieser Reihenfolge, sondern zufällig abwechselnd. Wenn der Gegner in der Lage ist, ein Muster zu erkennen, und sich darauf einstellen kann, erhöht er seine Chancen, dieses Spiel zu gewinnen. Tatsächlich kann bspw. auf der Website der New York Times (  www.nytimes.com/ interactive/ science/ rock-paper-scissors) gegen einen fairen, aber lernfähigen Computer Stein, Schere, Papier gespielt werden. Ein menschlicher Spieler hat hier nur dann eine Chance, wenn er tatsächlich völlig zufällig entscheidet, d.h. weder die aktuelle eigene noch