Allgemeine Marktanomalien - Besondere Marktanomalien
Franz Rieder • Marktversagen und Wohlfahrtsanomalien, Gewinnmaximierung (nicht lektorierter Rohentwurf) (Last Update: 01.06.2019)
Das
Gleichgewicht bei der Preisbildung ist das zentrale Element im
Denkmodell der neoklassischen Werttheorie wie auch der Allgemeinen
Gleichgewichtstheorie. Letztere wurde in der Wirtschaftswissenschaft
erdacht, um eine Volkswirtschaft als Ganzes abzubilden. Diese
Abbildung beruht auf gesamtwirtschaftliche Gleichgewichtszustände,
die der Analyse unterzogen werden.
Gleichgewicht herrscht, wie wir
wissen, in geräumten Märkten. Wenn also Angebot und
Nachfrage im Gleichgewicht sind. Des weiteren wird analysiert, ob
diese als wesentliche oder auch als natürlich angesehenen
Marktkräfte die Gesamtwirtschaft in Richtung eines Gleich- oder
eines Ungleichgewichtes bewegen, was als Stabilität des
Gleichgewichts genannt wird.
Mit dem Gleichgewicht und dessen relativer Stabilität hat dieses Denkmodell einen erweiterten Blickpunkt, da in allen volkswirtschaftlichen Faktoren auch ein Unsicherheitsfaktor mit in die Analyse und Bewertung mit einbezogen werden kann.
Eine dritte Komponente dieses Modells zu einem umfassenden Verständnis einer marktwirtschaftlichen Ökonomie ist die Richtung dieses wissenschaftlichen Blickwinkels. Der findet seine Richtung in der Betrachtung, ausgehend von einzelnen Individuen wie einzelnen Unternehmen, also quasi von unten nach oben zu übertragbaren, verallgemeinerbaren ökonomischen Verhaltensweisen. Man braucht dazu die Präferenzen der individuellen Wirtschaftssubjekte, also deren rational nachvollziehbares Kaufverhalten wie auch die Produktionsmöglichkeiten, über die ein Unternehmen zur Bedürfnisbefriedigung verfügt.
Was dann passiert wird betrachtet als eine sich aus Nachfragepräferenzen und Angebotsmöglichkeiten ergebene Interaktion, die sich in rationalem Verhalten niederschlägt. Aber ohne, dass dabei von frei zugänglichen Informationen ausgegangen werden kann, wird sich keine Interaktion einstellen. In einer Volkswirtschaft, in der ein hoher Grad an Information jederzeit zugänglich ist, sollte dem Modell nach die Interaktion zwischen Angebot und Nachfrage optimal, also effizient verlaufen. Dies sieht dieses Denkmodell in Zeiten und Prozessen, in denen Volkswirtschaften sich zu Informationsgesellschaften entwickeln, als gegeben an.
Der hier angesprochene homo oeconomicus wird oft missverstanden als ein hyperrationalistisch und egoistisch handelnder Mensch; so flach sind die Theoreme der Allgemeinen Gleichgewichtstheorie nicht. Hier wird Verhalten untersucht und zu dem Ergebnis gekommen, dass, wenn zwei Produkte etwa gleicher Qualität angeboten werden, die überwiegende Mehrzahl der Menschen zu dem preiswerteren greift. Besonders auf dem Arbeitsmarkt ist das signifikant, ist doch ein höherer Lohn für vergleichbare Arbeit bis zu einer Grenze von Arbeits- und Freizeit sicherlich der attraktivere. Dieses nutzenorientierte Verhalten bezieht sich also keineswegs auf einem Menschen und dessen Eigenschaften oder dessen Charakter, sondern auf einen Entscheidungsprozess im Rahmen von Preisvergleichen.
Zusammengefasst darf man festhalten, dass dem Individual- wie dem aggregierten volkswirtschaftlichen Nutzen die Annahme unterlegt wird, dass in jedem Fall ein höherer Preis zu weniger Nachfrage, aber mehr Angebot führt. Unterstellt, deshalb zu mehr Angebot, weil der Anbieter sich ja auch größere Erlöse versprechen darf. An dieser Stelle ist bereits eine Grundanomalie im Ansatz versteckt. Der Verallgemeinerung von Individualnutzen liegt ein kardinales Nutzenverständnis, das die allgemeinen wirtschaftlichen Entscheidungsprozesse leitet, zugrunde liegt. Nur dieses ermöglicht qualitative, interpersonelle Nutzenvergleiche und somit, was die Ökonomik Aggregation von Individualnutzen nennt.
Sowohl die relative Stabilität wie auch die Richtung dieser Nutzenaggregation vom einzelnen Wirtschaftssubjekt zur Wohlfahrtsökonomik würden bei einer ordinalen Nutzenbestimmung nicht funktionieren. Gleichzeit begründet und erklärt die Annahme eines kardinalen Nutzenverständnis der Allgemeinen Gleichgewichtstheorie die Wohlfahrtsökonomik und stellt diesen Zusammenhang als einen kausalen wie teleologischen dar. Kausalität und Finalität hängen zusammen, insofern Finalität prospektiv von der Kausalität her zu begreifen bzw. zu erklären ist. Kausalität meint diesen notwendigen Zusammenhang, dass von einer Ursache ein Zweck sich ableitet, jene als realer Grund dieser Möglichkeit angenommen werden kann.
Kausalität ermöglicht zudem mathematische Berechnungen. Wenn, anders als etwa bei Platon, mit Kausalität keine menschlichen, resp. göttlichen Werte als inhärent gedacht werden wie etwa das Gute, das Wahre und das Schöne. In der mathematischen Berechnung hat das Denken so nicht mehr die Augen auf eine ideelle Dimension der Nutzenaggregation gerichtet, sondern allein die Hand fest am differenziellen, formal codierten physischen Aspekt von wirtschaftlichem Nutzen überhaupt, der dann seine berechenbare Form im Geld, in der Preisdifferenz materialisiert findet.
Die Annahme eines berechenbaren Individualnutzens ist erklärende Grundlage, aus der heraus sich, gleichsam durch dessen ermöglichende, gelenkte Finalität ein Prozess des logischen Fortschritts zu einer Wohlfahrtsökonomik sich repräsentiert und formallogisch darstellen lässt, wurde schon bald durch das Unmöglichkeitstheorem1 problematisiert. Aber selbst dieses sog. Arrow-Paradoxon wurde lediglich auf einen formalen Widerspruch hin untersucht und so die grundlegende Formalisierung des kardinalen Nutzenverständnisses nicht überschritten.
In
der Folge führte die Beibehaltung formallogischer Prozessualität
zu einer ganzen Konjunktur an neoklassischen Berechnungen einer
angenommenen Wohlfahrtsökonomik, deren Existenz durchaus
angenommen wurde, ja aus wissenschaftlich-methodischer Übereinkunft
angenommen werden musste. Wissenschaft wurde so zum Aktant, zum
Demiurg, dessen Nachfolge sie antrat und bis heute nicht aus der Hand
zu geben bereit ist. Und sie darf dabei durchaus in der
abendländischen Tradition stehend für sich verbuchen, dass
ihr Denken in Prozessualität, das oder die Wirtschaftssubjekte
nicht als ein einzelnes oder als eine Gruppe von realen Subjekten
begreift, sondern als eine unpersönliche, als inpersonelle,
universale Operationalität bzw. Funktion, die sich als
Veränderung, als Fort- oder Rückschritt zu mehr Wohlfahrt2
manifestiert.
Wie aber aus einer individuellen Nutzenorientierung
ein universelles Verhalten abgeleitet werden kann, bleibt strittig.
Man hätte es besser wissen können, eine Lektüre
erkenntnistheoretischer Schriften hätte vor dem schlimmsten
bewahrt. Der Demiurg erfreut sich nun seiner Wiedergeburt.
Besondere Marktanomalien
Das Besondere an der Allgemeinen Gleichgewichtstheorie war die Idee des Grenzpreises, die im 19.Jhd. von Jevons, Menger und Walras entwickelt wurde. Inhalt dieser Idee war, dass der Preis durch den höchsten Preis, den ein Käufer zu zahlen bereit ist, festgesetzt wird. Dieser Grenzpreis war eine Verbesserung gegenüber den Gedanken von Adam Smith zur Bestimmung des Angebotspreises, nach dem die Nachfrage zwar vom Preis des Gutes abhänge, jedoch umgekehrt keine Beeinflussung des Preises von der Nachfrage existiere3 .
Besonders Walras widmete sich analytisch und teilweise empirisch der Idee über den Zusammenhang von Angebots- und Nachfragepreise und weitete den Blickwinkel dadurch aus, dass er die Einflüsse verschiedener Märkte untereinander betrachtet. Seit dem späten 19. Jahrhundert aber hat die Gleichgewichtstheorie von Angebot und Nachfrage kaum noch Veränderungen erfahren. Einige meinen, weil sie zu starr ist, die vielfältigen Ausprägungen der Märkte zu erfassen, denen mit Mathematik bzw. Algebra und Infinitesimalrechnung kaum nach zu kommen ist.
Jedenfalls kann man feststellen, dass sich die größte Aufmerksamkeit fortan auf Fälle richtete, in denen ein Marktversagen entsteht, etwa bei Monopolen oder irrationalen Handlungsweisen der Marktteilnehmer. Des weiteren flossen andere, preisbestimmende Faktoren in die Betrachtung mit ein, ganz besonders die sog. Transaktionskosten.
Blicken wir aber noch einmal kurz zurück auf die grundsätzliche Schwachstelle der Allgemeinen Gleichgewichtstheorie und fragen, was denn theoretisch gewonnen wurde, Angebot und Nachfrage auf Tauschmärkten zu untersuchen, dann werden wir nicht all zu viel finden. Walras und seine Anhänger mussten alle spezifischen Marktvarianten und alle dynamischen Marktvorgänge so lange reduzieren, bis ein reiner Tauschmarkt übrig blieb, dem man mit mathematischen Formeln abbilden konnte.
Geht man von Tauschmärkten aus, wird das Gleichgewicht zwischen Nachfrage und Angebot über den Preis allein hergestellt. In dynamischen Märkten sind aber mindestens Preis und Mengen bestimmend für ein Marktgleichgewicht, also der optimalen Anpassung der Produktion, hier Kosten, an die Konsumtion, hier Preise. Auf einem reinen Tauschmarkt, der bereits prinzipiel von der Produktion abgetrennt betrachtet wird, können also Mengen keine Rolle spielen. Die Menge kann sich nicht anpassen und liegt gewissermaßen als Größe für den Moment der Berechnung fest.
Vergleichen wir Walras mit dem Ansatz etwa von Alfred Marshall, dann ist das Gleichgewicht innerhalb von dynamischen Märkten, wo sich also Hersteller von Waren und Käufer treffen, das Ergebnis eines dynamischen Prozesses. War in einem Fall z.B. die Nachfrage größer als das Angebot, wird das Angebot solange ausgedehnt, bis die Grenzkosten der Produktion das Niveau des Marktpreises erreichen. Es findet also eine Mengenanpassung und eine Preisanpassung im Marktzeitraum statt.
Allein diese Vorstellung wäre nach Walras‘ Methode kaum noch mathematisch darstellbar. Wenn Preise und Mengen in eine marktgesteuerte dynamische Beziehung gebracht werden, kann Mathematik kaum folgen. Viel wichtiger aber ist, dass die sog. Neoklassik, der wir Alfred Marshall aber kaum subsumieren können, mit dem Tauschmarkt ein derart statisches Element konstruiert hat, das jeglicher Dynamik entbehrt. So erlaubt eben eine Analyse von reinen Tauschmärkten im Ergebnis keine Aussagen von Relevanz über wirtschaftliches Handeln, dessen Marktdynamik zudem nicht allein durch Angebot und Nachfrage bestimmt ist, sondern auch über die Finanz- und Innovationskraft eines Unternehmens, die über Gläubiger-Schuldner-Kontrakte in die Produktion und in die Märkte kommt.
Reine Tauschmärkte sind totale Abstraktionen von dieser Dynamik und somit sind auch die Analysen wie die Berechnungen reiner Tauschhandlungen wenig aussagekräftig, ja irrelevant. Und nimmt man den abstrakten Blick auf Tauschmärkte einmal auf, sind die Kernaussagen der Neoklassik zudem von recht simpler Aussagekraft, sogar, wenn ihnen fünfzig Seiten Formelrechnungen vorausgehen. Wären Kartoffel und Reis nicht gleich preiswertlich, würden die Verbraucher solange Kartoffel essen, bis die letzte Einheit Kartoffel den gleichen Nutzen stiftet wie Reis, dann kaufen sie solange Reis, bis die letzte Einheit Reis soviel Nutzen stiftet wie Spaghetti, dann…Denn nach der Regel liegt ein allgemeines Marktgleichgewicht dann vor, wenn die Konsumenten ihr Geld so anlegen, dass der Grenznutzen des Geldes in jeder Verwendung gleich ist. Nur, folgte man dieser ‚Empfehlung‘, wären kurzfristig bereits erhebliche Mängelschäden bei der Ernährung irreversibel.
Selbst in diesem simplen Beispiel dürfte klar werden, dass Mengenanpassungen unverzichtbar sind. Mehr noch, dass auf reinen Tauschmärkten eine nach Angebot und Nachfrage gerichtete Preisberechnung nicht nur Unsinn, sondrn auch noch tautologischer Unsinn sind. In geräumten Märkten brauchen wir keine Gleichgewichtsberechnungen; was reinkommt, geht raus. Und die Entsorgungskosten der Übermengen sind erstens nicht schwer zu berechnen und zweitens haben sie keine Bedeutung für die Nachfrage und somit auch nicht für das Gleichgewicht. In nicht geräumten Märkten kann man Gleichgewichte nicht berechnen, da dort das Gleichgewicht mathematisch eher einer groben Annäherung gleich kommt bzw. der Markt, so das Produktion und Konsumtion zusammen sind, sich bereits über Preise und Mengen allenfalls heuristisch abbilden lässt.
Wenn nach neoklassischer Regel ein verbessertes und zugleich kostengünstigeres Verfahren zum Weizenanbau eingeführt würde, könnten also mehr Anbieter für den nachgefragte Preis Weizen verkaufen. Dies führte aber in der Regel zu einem Überangebot an Weizen. Um ihren ganzen Weizen verkaufen zu können, müssten die Anbieter über die nötigen Marktinformationen verfügen und den Preis folglich reduzieren. Dies führte dazu, dass der Weizen für mehr Abnehmer, zum Beispiel für Bäcker, interessanter wird, da diese damit günstigeres Brot herstellen können und ihrerseits mehr verkaufen könnten. Voraussetzung wäre, dass die Bäcker extrem flexibel auf die Nachfrageschwankungen – und die technisch-technologischen Veränderungen – reagieren könnten, Produktion aufbauen oder erweitern könnten, so dass in der Folge sich ein neues Gleichgewicht im Weizenmarkt mit einem niedrigeren Gleichgewichtspreis und einem größeren Marktvolumen bilden könnte.
Wären allein Preise marktbestimmend, würden aber heute die Bauern in Deutschland anstatt Weizen nur noch Raps erzeugen und an die Mineralölkonzerne verkaufen, wovon der Bäcker wie der Autofahrer am Frühstückstisch nichts hätten. Die Schwierigkeit ist, dass sich tagtäglich Tausende von Input Faktoren ändern und die marktwirtschaftliche Dynamik nun mal darin besteht, auf diese Veränderungen zeitnah reagieren zu müssen, d.h. sowohl kurz- wie mittel- und langfristig wirksame Entscheidungen herbei zu führen, die in der Regel mit Wettbewerbs-, Markt- und finanziellen Faktoren in Verbindung stehen. Und dabei ist zu bedenken, dass kein Unternehmen umfangreiche Marktanalysen und Berechnungen durchführen kann, die wenig bis keinen Sinn machen, da sie zu kostspielig, zeitaufwendig und marktfern sind, um optimale Entscheidungen besonders kurzfristig treffen zu können, die zeitnah und effektiv im direkten Wettbewerbsumfeld greifen. Wer gewissermaßen seinen „Heimatmarkt“ verliert, wird ernste Probleme bekommen.
Wissenschaft wird selten auf den Heimatmärkten, also den Märkten, in denen man sich einigermaßen auskennt, getrieben. Die Marktwirtschaft ist, was das angeht, der Planwirtschaft deutlich unterlegen. Aber selbst wenn ein, zwei wesentliche Bedingungen konstant blieben, wie etwa Produktionsstrukturen und Ressourcen oder Verbraucher-Grundpreise für Brot etwa usw. stellt sich allenfalls über einen längeren Zeitraum ein gewisses Marktgleichgewicht ein, das genau so starr ist wie die Produktions- und Absatzstrukturen einer Planwirtschaft. Die ist nicht an Diskontinuität und relativer Instabilität des Gleichgewichtes zugrunde gegangen, sondern an der Inflexibilität bzw. an der Anpassungsunfähigkeit der Planwirtschaft an die stets unsicheren weil wechselnden Marktbedingungen.
Muss kurzfristig auf sich verändernde Märkte reagiert werden, sind die Maßnahmen nicht die gleichen wie bei langfristigen Markterfordernissen. Preise lassen sich schnell, zusätzliche Mengen nur schwer kurzfristig bereitstellen. Und nicht nur Produktionskapazitäten sind dabei von zentraler Bedeutung, sondern innerhalb der Produktionsstrukturen liegen die wirklichen, dynamischen Elemente der Marktwirtschaft. Änderungen in den Präferenzen der Nachfrage ereignen sich ständig und blieben doch so mühe- wie wirkungslos, wenn sich das Angebot an die veränderte Nachfrage nicht flexibel, angemessen wie innovativ anpasst. Gleichzeitig aber kann es für den Angebotsmarkt fatal sein, sich den Nachtfragepräferenzen in keinem Fall anzupassen. Das hat der Einzelhandel im Mode- und Bekleidungssegment schmerzlich jüngst erfahren müssen. An diesem Beispiel erkennt man auch recht schnell, dass Märkte aus dem Blickwinkel der Nachfrage selten homogene Märkte sind. Im Bekleidungsmarkt unterscheiden sich Segmente für junge Konsumenten zum Teil erheblich von denen erwachsener oder älterer Konsumenten. Produktion und Logistik der Segmente sind kaum zu vergleichen, Transaktionskosten eben so wenig. Geht es nach Walras, sind (fast) alle Märkte problematisch, weit entfernt davon, auch nur oberflächlich Tauschmärkte nach seiner Gleichgewichtstheorie zu sein bzw. werden zu können.
Die Triebkraft der Tulpomanie
Nach Walras und den weitesten Kreisen der Neoklassik gibt es das Allgemeine Gleichgewicht des Tauschmarktes in Wirklichkeit selten bis gar nicht. Marktversagen war recht schnell zum eigentlichen Untersuchungsgegenstand der Theorie geworden. Einzig die Börse avancierte in deren Theorie als empirische und schöne Wirklichkeit, in der sich die Gleichgewichtstheorie unter lauter Marktversagen behauptete wie das kleine, legendäre Gallierdorf im Nord-Westen Frankreichs inmitten römischer Belagerung.
„Der Tauschwert stellt sich auf ganz natürliche Weise ein, wenn man dem Markt nur den Kräften der Konkurrenz überlässt. In seiner Eigenschaft als Käufer wird jemand die anderen überbieten und in seiner Eigenschaft als Verkäufer wird er einen Rabatt anbieten, so dass der Wettbewerb zu einem bestimmten Tauschwert der Waren führt, der manchmal steigt, manchmal sinkt oder gleich bleibt. Je nach dem, ob der Wettbewerb besser oder schlechter funktioniert, ergibt sich ein mehr oder weniger eindeutiger Tauschwert. Die im Hinblick auf die Konkurrenz best funktionierendsten Märkte sind jene, wo der Verkauf und Kauf durch Zuruf von Agenten wie etwa Börsenhändlern, Maklern oder Zurufern realisiert wird, die sie so in Übereinstimmung bringen, dass kein Tausch stattfindet, bevor nicht die Bedingungen angekündigt und bekannt gegeben wurden und bevor nicht die Verkäufer einen Rabatt und die Käufer ihr Angebot erhöhen konnten. So funktioniert die Börse mit Staatsanleihen, die Handelsbörse, die Getreidemärkte, die Fischmärkte etc. Außer diesen Märkten gibt es noch andere, wo der Wettbewerb, wenn auch weniger reglementiert, noch auf eine zweckerfüllende und zufriedenstellende Art funktioniert, wie zum Beispiel die Obstmärkte, die Gemüsemärkte, die Geflügelmärkte. Die Straßen einer Stadt, wo sich die Läden und die Bäckerläden, die Metzgereien, die Lebensmittelläden, die Schneidereien, die Schuster befinden, sind weniger gut organisiert, jedenfalls was den Wettbewerb angeht.“4
In
Zeiten elektronischer Börsen sind die Stunden der Auktionatoren
gezählt wie die Dichte der zitierten Straßenläden von
Tante Emma durch Supermärkte und eCommerce. Was Walras über
die Börsen, hauptsächlich über die Warenterminbörsen
anmerkt, hat mit diesen fast nicht zu tun. Das Bild, das er vor Augen
hat, entspricht eher einem orientalischen Basar, als
Finanzmarktplätzen; ein wenig eigene Empirie hätte seiner
Theorie nicht geschadet.
Aktien oder gar Optionen auf Commodities
haben mit Rabatten als Scharnier der Preisstellung nichts gemein.
Strukturell sind die Funktionsweisen von Börsen und
Warenproduzenten nicht zu vergleichen. Kann ein Hersteller durch
flexible Anpassung der produzierten Mengen auf Marktveränderungen
reagieren, geht dies bei Börsen so ohne weiteres nicht.
Der 5. Februar im Jahre 1637 war für die Tulpenhändler im niederländischen Alkmaar ein besonders schöner Tag. Bei einer Auktion wurden alle 99 angebotenen Tulpenzwiebeln reibungslos versteigert und unglaubliche 90.000 Gulden in die Kassen der Verkäufer gespült, was einem heutigen Gegenwert von etwa 1 Mio. Euro entspricht.
Begonnen hatte die Konjunktur des Liliengewächses in der Mitte des 16. Jahrhunderts, als der Wiener Gesandte in Konstantinopel sich in die farbenprächtigen Tulpenfelder des hiesigen Sultans verliebte und ein paar der Zwiebeln an den heimischen Kaiserhof schickte. Tulpen fanden schnell Liebhaber an Höfen und bei höfischen Apologeten in ganz Europa. Ganz besonders in den calvinistischen Niederlanden wurde die Zwiebel fast andachtsvoll verehrt, zunächst in der Oberschicht, die allerorts Tulpenbeete in ihren Gärten anlegte. Hinzu kam, dass infolge des blühenden Ostindienhandels in ganz Holland eine reiche Kaufmannsschicht entstanden war, die nach Reputation und Anerkennung gierte. Reiche Händler, sogar Kapitäne der Ostindienroute sahen in der Tulpe fortan ein geeignetes Statussymbol und heizten die Nachfrage nach deren Zwiebel an. Für seltene und besonders verwegene Züchtungen, die dem Statussymbol auch noch eine gewisse Alleinstellung einbrachten, wurden atemberaubende Preise gezahlt.
Nicht
nur die Verkäufer, auch die Käufer in Alkmaar waren am 5.
Februar 1637 besonders guter Dinge und ohne Zweifel davon überzeugt,
dass sie die erworbenen Zwiebeln noch vor deren Lieferung mit
deutlichen Gewinnen würden weiterverkaufen können.
So
wurden an der gerade erst gegründeten Börse von Amsterdam
und in Alkmaar Obligationen auf Knollen versteigert, auf Zwiebeln,
die keiner der Börsentrader je gesehen hatte, die, so glaubte
man, noch in der Erde ihrer Blüte und somit ihrem Wert entgegen
wuchsen. Eine Blume, eine Pflanze aus der Gattung der Liliengewächse,
war in kurzer Zeit zu einem Spekulationsobjekt geworden, ähnlich
einer Warenterminoption. Und wie wenig hat sich bis dato
geändert.
„Alle
Welt glaubte, die Gier nach Tulpen würde nie gestillt werden und
die Begüterten der Welt würden jeden Preis zahlen, um
Tulpen aus den Niederlanden in ihren Besitz zu bringen.“
(Charles MacKay, schottischer Literat).
Was
daraus entstand, wird heute unter dem Ausdruck: Tulpomanie
geführt.
„Adlige,
Bürger, Bauern, Handwerker, Seeleute, Lakaien, Dienstmädchen,
selbst Schornsteinfeger und Flickschneiderinnen. Alle liquidierten
ihr Vermögen, um Investitionskapital zu haben.“ (s.o.)
Für
damalige Verhältnisse enorme Summen an liquidiertem Vermögen
– nebenbei vermerkt, hat ein damaliger schottischer Literat
wesentlich mehr von der Triebkraft der Vorläufer unserer
Marktwirtschaft verstanden, als so mancher Zeitgenosse in aktuellen
akademischen Würden – wurden nun in Anbau und Züchtung
des „Underlying“ sowie, der größere Teil, in
das Finanztrading und in den Derivatehandel gesteckt.
Vorläufer von Warentermingeschäften wurden ein erstes Mal und in begrenzter Ausdehnung zum Massenphänomen, das den Traum, ohne Arbeit reich zu werden, austräumte. Preisabsprachen auf zukünftige Produkte, ja sogar darauf basierende ‚Vorauszahlungen‘ hat es bereits in der griechischen Antike und älteren Kulturen gegeben. Vielleicht sogar ähnliche Geschäfte wie unsere „Leerverkäufe“, also börsengestützter Optionshandel mit geliehenem Geld.
Was es damals nicht gab, war ein feinmaschiges, operatives Finanztrading auf einer eben solchen Rechtsgrundlage. Damals war alles eben wie auf einem orientalischen Basar organisiert. Ein Verkäufer ging ein Geschäft ein, eine Absprache, eine Ware oder ein Wirtschaftsgut noch vor seiner Fertigstellung zu einem bestimmten Preis weit vorab zu kaufen, in der Hoffnung, dass das Gut dann zu einem höheren Preis auf dem Markt wieder veräußert werden kann.
Damals gab es kein eigentumsrechtlich abgesichertes Wirtschaften, also keinen Zugriff oder Rechtstitel auf nicht-liquidiertes Vermögen bzw. Anrechte auf das in Warentermingeschäften disponierte „Underlying“. Die „betrogenen“ Schornsteinfeger und Dienstmädchen hatten am 6. Februar 1637 nicht nur ihr ganzes Geld verloren, als die Preise für Tulpen in den Keller rauschten. Sie standen zudem buchstäblich mit leeren Händen da, weder Zwiebel noch Tulpen gehörten ihnen und konnten Küche oder Garten schmücken oder zur Grundlage für eine eigene Tulpenzucht werden.
Gerne wird die Tulpomanie als die „Mutter aller Spekulationsblasen“ zitiert. Aber Basar- und Börsengeschäfte haben wenig bis nichts gemeinsam. Außer, man betrachtet beide, wie gesagt, als reine Tauschmärkte. Und dabei sieht man doch bereits am Beispiel der Tulpenbörse in Amsterdam, dass einige Störfaktoren anscheinend existierten, die ein Gleichgewicht auf dem Tulpenmarkt damals bereits verhinderten.
Ordinale Anomalien
Wertpapierbörsen sind strukturell, organisatorisch und inhaltlich völlig andere Märkte als reine Tauschmärkte im Sinne der Neoklassik und vor allem Walras‘. Aber selbst den Begriff Tauschmarkt wird so wenig inhaltlich gefüllt, dass man zu einer gemeinsamen Vorstellung kommen könnte, was denn so ein Tauschmarkt sein könnte. Kurzum, es gibt sie nicht. Und wahrscheinlich wird es sie auch in absehbarer Zukunft so geben. Aber alle sprechen von Tauschmärkten, so, als wäre die Welt voll davon; mitnichten.
Im Gleichgewichtsmodell von Walras steck die ein wenig skurile These, dass weder Kauf noch Verkauf zustande kommen, bevor nicht der markträumende Preis gefunden, ausverhandelt ist. Sein Modell basiert also auf eine dualen Situation, in der lediglich der Preis von Interesse, sowohl für den Käufer wie für den Verkäufer, ist. Bei Wertpapieren finden wir diese Situation eher, was die Gesamtmenge5 etwa von Aktien betrifft, die ja bekanntlich festliegt; zumindest über einen für alle transparenten Zeitraum. Aber weder finden wir dort heute einen „Auktionator“ noch werden die Kurse zwischen Angebot und Nachfrage verhandelt. Das meinen sogar heute noch viele, von denen aber niemand anscheinend je etwas mit Börsen zu tun hatte.
So werden heute die Kurse aus einer Vielzahl von Einflussfaktoren gebildet, die aber auf unterschiedlichen Analysematrixen zu entscheidungsfähigen Aussagen versammelt werden. Verfahren aus den Sozialwissenschaften standen hier Pate, die die Grundlage bildeten für stochastische Verfahren, also mathematische Statistik und Wahrscheinlichkeitsberechnungen. Solche Entscheidungsverfahren suchen kein Gleichgewicht, sondern Ähnlichkeitsmuster in der Vergangenheit, die im Rahmen von Projektionen in die Zukunft – beim Day Trading fast auf die Gegenwart, also die aktuellen Kursabschnitte in Minuten – Kurswahrscheinlichkeiten antizipieren.
Unter der Voraussetzung also, dass die Mengen konstant sind und der (Tausch)Markt geräumt werden soll, muss natürlich der Preis so festgelegt werden, dass alles „was da ist“ auch verkauft wird. Und dass das, was verkauft wird, auch den Präferenzen der Käufer weitgehend entspricht. Die Schwierigkeit im Ansatz ist, dass weder das lineare Gleichungssystem funktionierte, wenn sich sowohl der Preis wie auch die Menge dynamisch ändern kann wie wenn auch die Präferenzen sich ändern, die dann per defitionem außerhalb der Betrachtungssituation lägen und so nicht zu den Prämissen gezählt werden könnten.
Hinzu kommt, dass die Neoklassik auch die Funktion von Geld nicht adäquat bestimmen kann. Hier tauschen Individuen zwar Waren mittels Geld, aber theoretisch könnte man in der Allgemeinen Gleichgewichtstheorie auch Geld weglassen, da es keine andere Funktion hat, als eine Ware selbst zu sein, dieser also gegenüber völlig indifferent ist. Im Ergebnis könnte also der Tausch von zwei Waren, etwa fünf Kartoffeln für ein Ei, auch ohne Geld funktionieren. Ein Ei entspräche dann dem Wert von fünf Kartoffeln und wir hätten einen Warentausch oder Naturaltausch in Reinform.
Bei einem reinen Naturaltausch hätte es noch zusätzlich den Vorteil, dass, da ja das Geld nicht ausgehen kann, weil es indifferent zur Ware ist, am Ende des Markttages, man auch keine Ware vernichten oder wieder mit nach Hause schleppen müsste. Sind noch zwei Säcke Kartoffeln da und nur noch zwei Eier, dann wird eben in diesen Wertverhältnis der Markt geräumt. Besser zwei Eier, als nichts oder nur Müll.
Bei nicht-verderblichen Waren wären eigentlich schon von Beginn des Industriezeitalters an leicht genau gegenläufige Marktprozesse zu beobachten gewesen. Sinken etwa die Fixkosten in der Produktion schneller als die variablen Kosten6 , steigen oder sinken auch die variablen Anteile an den Stückkosten z.B. durch höhere Effizienz, dann sinkt in der Regel sogar bei steigender Nachfrage der Preis für die einzelne Ware. So sind fast alle Artikel aus der Unterhaltungselektronik, besonders Handies und Smartphones, preiswerter trotz größerer Nachfrage geworden.
Die ganz prinzipielle Schwierigkeit der Gleichgeichtstheorie liegt schon darin, dass nicht einmal bei den Kosten ein dynamischer Faktor eingesetzt wurde bzw. eingesetzt werden kann. Selbst die Unterscheidung zwischen fixen und variablen Kosten ist langfristig betrachtet sogar obsolet. Langfristig sind alle Kosten nur noch Kosten. Oder anders gesagt: in den letzten drei Jahrzehnten konnte man beobachten, dass Unternehmen, die mehr Wert auf Bilanzpositionen legten und aus dem Blickwinkel von – durchaus guten – Bilanzbuchhaltern, Controllern oder CFOs wie man heute sagt, geführt wurden, trotz ihrer Kostensicht auf Unternehmen und Markt selbst unter Benchmarkings vom Markt verschwanden oder Teile ihrer Unternehmen verkaufen mussten, weil sie im Wettbewerb nicht mehr stand hielten. Der Satz: dieses Unternehmen produziert zu teuer aber war in einer ganz anderen Art also die ausgedrückte zu verstehen. Nicht zu teuer wurde produziert, sondern die gesamte (oder in Teilen) Produktion war veraltet, ineffektiv, nicht wettbewerbsfähig.
Daran
änderten auch keine noch so ambitionierten
Kosteneinsparungsprogramme etwas, kein Wechsel in den Vorständen,
ohne Neuausrichtung des Unternehmens und seiner Strukturen. Heute
muss man fast feststellen, dass es in Deutschland kaum ein
Unternehmen, kaum eine Branche in den letzten drei Jahrzehnten
geschafft hat, sich den Bedingungen der Digitalisierung zu stellen –
wir kommen darauf zurück.
Die Handies von Nokia waren einmal
Marktführer. Dann verschwanden sie vom Markt, weil Nokia den
Prozess der Digitalisierung nicht mitvollzogen hat. Ebenso ging es
den Handies von Mannesmann;
ja, die hatten auch mal welche. Und diese Form der Digitalisierung,
die technologische Verbindung von PC und digitaler Telefonie war eben
jene Präferenz, die die Nachfrage bewegt hat und weniger der
günstige Preis für technologisch veraltete Handies. Sie
durchbrach gewissermaßen das vorherrschende, also kardinale
Nutzenverständnis und setzte ein neues, gleichsam ordinales
Momentum in den vorherrschenden Konsens der Konsumenten. Eine
zeitlang existierte ein kardinales Nutzenverständnis neben einem
ordinalen, Gewohnheit neben Neuheit. Dass aus den besseren
Smartphones allgemeine Präferenzen wurden, hatte mit den Preisen
wenig, mit dem Technologie-Image von Apple sicher mehr zu tun.
Technologieführerschaft ging synchron mit Marktführerschaft,
dem der Preis folgte, gleichwohl man nicht von einer Monopolstruktur
auf dem Sektor des sog. Web 2.0 sprechen konnte.
Wohlfahrts-Glaube
Es ist wie in einem schlechten Film; gäbe es bessere Szenen, wir würden sie zeigen. Seit es die politische Ökonomie gibt ist Ökonomie immer auch „welfare economics“, Wohlfahrtsökonomie. Wohlfahrtsökonomie ist und dies verwundert ein wenig, ein Teilbereich der Volkswirtschaftslehre. Also kein generelles, sondern ein subsidiäres Thema, substituiert unter der Allokationstheorie, also der Frage nach der Zuordnung von beschränkten Ressourcen zu potenziellen Verwendern, mithin also eine Verteilungsfrage.
Und schon sehen wir wieder mitten hinein in den Brennpunkt der Ökonomik, dahin, wo wirtschaftliches Handeln unter dem Primat von Gewinn und Verlust berechenbar wird. Wohlfahrtsökonomik als Allokationstheorie beschäftigt sich also mit den Auswirkungen wirtschaftlichen und politischen Handelns, insofern es Wohlfahrtsgewinne von Wohlfahrtsverlusten unterscheidet. Es geht also um zwei Handlungsmaximen, wobei eine der anderen unter kardinaler Nutzenperspektive eindeutig vorzuziehen ist.
So zählt sich die Wohlfahrtsökonomik von sich aus und ohne erkenntnistheoretische Not zur normativen Ökonomik, als ihr Gegenstand schon am theoretischen Fundament ein Werturteil enthält: Mehr vom Kuchen, mehr Netto vom Brutto, mehr ist besser als weniger usw. Und der Maßstab für die Wohlfahrtsökonomik ist (in den meisten Fällen) die sog. Pareto-Effizienz7 . Erkenntnistheoretisch problematisch aber ist die Sichtweise der ökonomischen Wohlfahrtstheorie doch dann schon deshalb folgenreicher, weil sie vom Besonderen auf das Allgemeine zu schließen trachtet und in den Schlüssen ihren kardinalen Nutzenwert mittransportiert.
Die Auswirkungen der mikroökonomischen Variablen auf die Wohlfahrt einer Gesellschaft geht von dieser mathematisch-hierarchischen Ordnung von Gesellschaften aus, nach der das Ganze die Summe seiner Teile ist. Dieser Reduktionismus steht konträr zu einem in der Sozialwissenschaft so genannten methodologischen Individualismus, der sich aus einem holistischen Weltbild in der Sozialphilosophie bei Thomas von Aquin entwickelt hat und heute den weitreichendsten Streitpunkt in der Volkswirtschaftslehre markiert.
Grundsätzlich teilt der methodologische Individualismus die Ökonomik in einen Bereich der Orthodoxie und einen der Heterodoxie, wobei die orthodoxe Wissenschaft fundamental dadurch gekennzeichnet ist, dass sie ihre „Aversion gegen Empirie“ auf dem Feld der „mathematischen Formeln“ austrägt, „die den Leser von einigen mehr oder minder plausiblen, aber vollkommen willkürlichen Annahmen zu präzise formulierten, aber irrelevanten theoretischen Schlussfolgerungen führen.“8
Folgt man den Streitpunkten zwischen Heterodoxie und Orthodoxie ein wenig tiefer, dann findet man dort also zwei sehr gegensätzliche, methodische Erklärungsmodelle, das der klassischen Physik mit ihrem Reduktionismus und das der sozialwissenschaftlichen, eher holistischen Betrachtungsweise, wie sie von Marx9 begründet wurde. Dabei wird außer Acht gelassen, dass es in diesem Streit weniger um den Begründungszusammenhang einer Betrachtungsweise geht, als um eben eine wertende Sichtweise, die sich nicht aus logischen Zusammenhängen, sondern aus praktischen, vornehmlich gesellschaftspolitischen Zusammenhängen ergibt.
Schon Kant hat aufgezeigt, dass jede wissenschaftliche Erklärung wie ein Projekt, also wie ein in sich definierter Zusammenhang zu betrachten ist, in dem ein Phänomen bzw. eine Eigenschaft durch etwas anderes erklärt wird, welches selbst wiederum, zumindest zeitweilig, ohne Erklärung hingenommen wird. Jedem Projekt wissenschaftlich-mathematischer Erklärung ist somit inhärent, in einen unendlichen Regress zu führen, insofern das „x“, welches man zur Erklärung von „y“ herangezogen hat, selbst nach Erklärung verlangt.
In einer holistischen Tradition stehen die sozialphilosophischen bzw. sozialtheologischen Erklärungsmodelle, nach denen Menschen unterschiedlich sind, aber dadurch, dass jeder seinen besonderen Platz im allgemeinen Gesellschaftskörper hat, niemand also quasi „draußen“ ist, er auch überlebensfähig ist. Die gesellschaftliche Ordnung in der Sichtweise einer natürlichen, sprich göttlichen Ordnung, schützt den Einzelnen, solange er sich als integrales Bestandteil sieht und verhält.
Aus einer sozialtheologischen Betrachtung wurde bereits weit vor dem Beginn des Industriezeitalters eine rein soziologische, als diese die reduktionistische Betrachtungsweise bzw. die Methode der Mathematik übernommen hat. Die gesellschaftliche Ordnung wird nicht mehr betrachtet als ein hierarchisch strukturierter (lebendiger) Körper mit einem göttlich sanktionierten Haupt. Gesellschaft, und hier steht das Denken eines Charles Darwin durchaus Pate, resultiert aus den Bewegungen und Wechselwirkungen, also der komplexen Praxiszusammenhänge wie Politik, Arbeit, Kultur etc. von einzelnen, freien und weitgehend gleichen Individuen. Was der methodologische Individualsimus aufgreift, ist ohne die politische Ökonomie nicht schwer bis unzulänglich zu verstehen, ging es doch damals bereits um grundlegende Ausdeutungen der Beziehung zwischen einzelnen Individuen und gesellschaftlicher Ordnungen.
Seit dem 19. Jhd. trat mit Marx, später durch Durkheim weiter formuliert, ein säkularisiertes sozialontologisches Erklärungsmodell auf, in dem der Staat wieder ein Eigenleben bekam, der sich durchsetzte gegen seine Bürger, dessen natürliche Aufgabe die gerechte Verteilung der „welfare economics“ wurde. Was alle durch Arbeit geschaffen haben, sollte auch allen gehören. Und zwar zu gleich Teilen.
Misst man das „Volksvermögen“ mathematisch, dann ist das Gleichgewicht auch dann gestört, wenn einige (wenige, die sog. „happy few“) überproportional am Reichtum einer Volkswirtschaft partizipieren, als die Mehrheit. Das Pareto-Optimum wäre so nicht erreicht, ein weiterer Austausch, also ein „anderer“ Verteilungsprozess wäre vonnöten, aber niemand wüsste, woher der kommen sollte, da ja der Austauschprozess ein Prozess sui generis ist, also aus sich selbst heraus kommt und zum Gleichgewicht, ohne störende Einflüsse von außen, finden sollte.
Im Kern arbeitete Pareto ganz nach voherrschender Auffassung zu seiner Zeit mit einem ordinalen Nutzenkonzept, d.h. es findet kein interpersoneller noch ein in der Sache wertender Vergleich von Nutzen statt. Ein Pareto-Optimum kann sich daher nur einstellen, wenn zwei Menschen in ein Tauschverhältnis kommen, bei dem beide sich besser stellen und beide solange tauschen, wie sie sich noch besser stellen können, dann den Tausch einstellen, gleichsam in einem „Einvernehmen“, dass es weder noch was zu holen, noch etwas zu geben gibt; diese triviale, ordinale Vernunft, wann hat man je sie am Werke gesehen? Aber so trivial sie ist, so falsch ist sie auch. Tauschen heisst vergleichen und nur in einer mathematischen Gleichung ist die Gleichheit Voraussetzung; daran ändert sich auch nichts, wenn von einer „Ungleichheit“, also etwas ist etwas anderem nicht gleich, in einer mathematischen Gleichung ausgegangen wird. Wären aber in einem Tauschverhältnis die „Ergebnisse“ immer gleich, oder wäre der Tausch stets pareto-effizient, gäbe es weder eine ökonomische noch eine soziale oder kulturelle Entwicklung. Sie haben ihren Ursprung in der Ungleichheit. Auch innerhalb einer sozialen Generationsfolge kann man feststellen, dass ein soziales, ökonomisches oder kulturelles „besser“ stets die Vergleichsgrundlage für die vorhergehende Generation bildet wie auch in der Arbeitsforschung „gleiche Löhne“ nur übergreifend allgemein für „gleiche Arbeit“ gilt. Tariflöhne aber widersprechen nicht der Differenzierung des Lohngefüges innerhalb eines Unternehmens, vor allem auf Abteilungs- oder Projektebene. Findet dort keinerlei materielle Hierarchisierung statt, ist das meistens fatal für das Unternehmen wie für dessen Mitarbeiter – wir kommen auf diesen thematischen Komplex soziologischer und sozialontologischer Fragestellungen später zurück.10
Marktversagen und Wohlfahrtsanomalien
Orthodoxie vs.
Heterodoxie; beides sind Glaubensrichtungen wissenschaftlicher
Diskurse. Die eine glaubt an das Primat des bürgerlichen
Wirtschaftssubjekt, die andere an den Primat staatlich geregelten
Wirtschaftens. Der Wohlfahrtsgedanke ist demnach entweder eine
Verteilungsfunktion oder eine im Tausch selbst natürliche
Funktion, die bereits Adam Smith mit seiner „geheimnisvollen
Hand“ zitiert hat. Diese geheimnisvolle, fast göttliche
Hand, ein humanes Ordnungsprinzip, welches der Tauschwirtschaft
inhärent sei, wird auf die unterschiedlichste Art und Weise in
der Neoklassik vermessen, vornehmlich auf der Grundlage
mathematischer Gleichungen wie wir sahen. Hier ist allein der
Preisbildungsprozess auf Tauschmärkten von analytischer
Relevanz. Warum es aber überhaupt einen Markt bzw. eine
Marktwirtschaft gibt, diese Frage wird nicht gestellt.
Stillschweigend geht ein vermeintlicher Konsens dem einher, der
Mangel, der uns Menschen zwingt, Waren zu tauschen.
Über den
Mangel haben wir
bereits an verschiedenen Stellen gehandelt, hier haben wir gezeigt,
dass der Mangel als mühsam eingeführte Triebkraft des
Wirtschaftens in den mathematischen Formeln vom Gleichgewicht fluchs
wieder verschwindet. D.h. er taucht aus diesen Gleichungen wieder auf
als Ungleichgewicht, als Marktversagen
und Wohlfahrtsanomalien.
Hat der Monetärkeynesianismus zumindest ein Verständnis von der Unterschiedlichkeit von Märkten, die er sogar in eine Art Hierarchie zu bringen versucht, wonach etwa Vermögensmärkte Warenmärkten „überlegen“ sind, so herrscht ganz grundsätzlich aber auch im Monetärkeynesianismus das Paradigma vom Tausch und verhindert so zugleich, die unterschiedlichen Kräfte und Dynamiken auf den verschiedenen Märkten offen zu legen; im Gegenteil, Verschleierung ist die Folge dieser Blickrichtung weg von den wahren Bedingungen einer Marktwirtschaft.
In die Richtung des Neokeynesianismus formuliert ist die Marktwirtschaft eben nicht von dem Streben, von einer inhärenten Kraft des Ausgleichs zum Gleichgewicht hin getrieben. Marktwirtschaft funktioniert gerade im Ungleichgewicht, funktioniert durch Unberechenbarkeit, funktioniert trotz extensiver Dysfunktionalität; das macht sie übrigens so interessant, verleiht ihr des Charakter eines Spiels, das nicht der gewinnt, der die Regeln am besten beherrscht, sondern der, der in der richtigen Situation mit einer Karte überrascht, die eine neue Öffnung in das Spiel bringt.
Natürlich ist Marktwirtschaft kein Spiel, gleichwohl viele Situationen überraschende, nicht vorhersehbare Handlungen und Vorschläge erfordern; ohne Risiko keine Beteiligung am „Spiel“. Unser Beispiel ist auch kein Vergleich, lediglich eine Verdeutlichung, wie weit entfernt Marktwirtschaft von mathematischer Gleichmacherei, also einem Spiel mit Zahlen ist. Das Spiel mit Zahlen, also die Reduktion von wirtschaftlichen Handlungszusammenhängen auf Tauschhandlungen und die Abstraktion von Gläubiger-Schuldner-Verhältnissen, resp. unterschiedlicher Eigentumsverhältnisse auf eine reine Tausch-Preis-Ebene gehen völlig an der Wirklichkeit vorbei.
Eigentumsverhältnisse haben, nota bene, lassen sich nicht in Geldverhältnissen ausdrücken. Sie repräsentieren nicht-pekuniäre, außerökonomische Vertragsverhältnisse, kein Geld, kein Geldvermögen. Spätestens bei Versteigerungen z.B. merkt man, dass immer der zum Abschluss kommt, der nicht das größte Vermögen, sondern über die größte liquide Summe Geld verfügt. Des weiteren sind sogar die ordinnale Nutzenmessung in Geldwerten über den Preis nicht vereinbar, denn der im Preis ausgedrückte Nutzen hängt von etwas in dieser Messung nicht vorhandenem ab, dem Einkommen bzw. den Einkommensunterschieden.
Je höher das Einkommen, desto geringer ist der Nutzenverlust, wenn ein Preis für eine Ware bezahlt werden muss. In dem Modell von Walras wird faktisch der Nutzen nicht interindividuell verglichen und somit schlagen auch Einkommensunterschiede in seinen Gleichungen nicht zu Buche. Entscheidend in Walras‘ Gleichgewichtstheorie sind solche interindividuellen Nutzenvergleiche nicht. Sie werden sprichwörtlich selbst theoretisch substituiert durch die theoretisch und praktisch entscheidende Substitutionsrate11 zweier Güter, die jeweils unterschiedlich sein kann, weil der Nutzen eines Gutes individuell verschieden ist, aber in der Gesamt- bzw. Grenznutzenkalkulation keinen Bruch mit dem Berechnungssystem selbst bedeutet, sondern logisch immanent bleibt.
Wir haben bereits aufgezeigt, dass man im Betrieb meist von sinkenden Grenzkosten ausgeht, da sich die Herstellung von großen Mengeneinheiten für ein Unternehmen mehr rentiert als die Produktion von kleinen Mengen. Auf die Gründe dafür, Skalenerträge und Lernkurveneffekte, sind wir ebenso eingegangen.
Ein neuer Gesichtspunkt, der mit der Allgemeinen Gleichgewichtstheorie in direkter Verbindung steht und den wir, ohne zu weit vor zu greifen, an dieser Stelle zumindest einmal ansprechen möchten, ist die Gewinnmaximierung. Sie widerspricht cum grano salis der Vorstellung jedes Gleichgewichts. Grundsätzlich unterstellt man Unternehmen kurz- wie langfristig Gewinnmaximierung als Unternehmenszweck. In ökonomischer Hinsicht hat die Leitung eines Unternehmens immer das Ziel seine Gewinne zu maximieren, d. h., allen Unternehmen wird unterstellt, sie seien Gewinnmaximierer.
Rechnerisch im Sinne einer GuV (Gewinn und Verlustrechnung) ergibt sich der Gewinn aus der Differenz von Gesamterlösen und Gesamtkosten12 . Da die rechnerische Bestimmung von Gewinn aber nicht auf alle Fälle von Unternehmenstypen identisch angewand werden kann bzw. in der Anwendung recht unterschiedliche Bedingungen vorfindet, muss ein Unternehmer vor allem bei seiner Kosten- und der damit verbundenen Preiskalkulation diese in Abhängigkeit zu seiner Marktform setzen.
Zur
Errechnung des maximalen Gewinns in Wettbewerbsunternehmen,
Polypolen,
spielt der Preis für die ausgebrachten Waren und Güter eine
entscheidende, in Monopolen keine Rolle.
Dort herrscht –
theoretisch – vollkommene Konkurrenz zwischen den Unternehmen.
Alle Wettbewerbsunternehmen sind der Nachfrage anderer
Wirtschaftssektoren und auch des eigenen Sektors gleichermaßen
ausgesetzt, so dass die Substitutionsrate wie die Absatzmenge die
entscheidenden Rollen für die Gewinnmaximierung spielen. Wie bei
Walras gilt in dieser Situation von Wettbewerbsunternehmen oder im
sog. Polypol der Preis für ein Produkt als fix (im Markt bereits
weitgehend ausgehandelt. Wir sprachen „mee too“
Produkten), und der erzielbare Erlös aus einer zusätzlichen
verkauften Leistungseinheit, also der Grenzerlös dem Marktpreis.
Da der Preis also als konstant angesehen werden muss, kann ein
Polypolist die Gewinnmaximierung nur über die Absatzmenge
regeln, nicht über den Preis.13
Anders
ist das bei Monopolen. Anders als Unternehmen in einem Polypol,
können Monopole in ihren Sektoren aufgrund ihre starken
Marktposition, d.h. weil sie als einziger Käufer/Verkäufer
auftreten und keinem Wettbewerb oder nur einem schwachen durch sog.
Follow-up Unternehmen ausgesetzt sind, ihren Gewinn auch über
den Preis bestimmen.
Monopole bestimmen den Schnittpunkt zwischen
der Grenzerlöskurve und der Grenzkostenkurve und erhalten dabei
eine gewinnmaximierende Absatzmenge. Anhand der Nachfragefunktion,
wenn also z. B. die Nachfrage steigt oder sinkt, können Monopole
den dazugehörigen Preis festlegen.
Produzieren nach dieser
„Rechnung“ Monopole unter der errechneten
gewinnmaximierenden Menge, so haben sie zwar weniger Kosten, aber die
entgehenden Erlöse aus den zusätzlichen Verkäufen sind
größer als die eingesparten Kosten und führen somit
zur Gewinnminderung.
Stellen Monopole im Gegensatz dazu mehr als
die gewinnmaximierende Produktionsmenge her, so entstehen ihnen
einerseits höhere Erlöse, andererseits übersteigen die
Kosten für die zusätzliche Produktion über der
Gleichgewichtsmenge die Erlöse und führen ebenfalls zur
Gewinnminderung. Ach, wenn doch alles so einfach wäre!
Paradebeispiel: Aktienrückkauf
Wie haben uns gewundert, dass die neoklassischen Theorien sich nie die Frage gestellt haben, warum es überhaupt einen Markt bzw. eine Marktwirtschaft gibt? Wenn alles nur Tausch wäre, woher kommt dann die unglaubliche Dynamik in den Märkten, die unübersichtliche Vielfalt der Waren und Güter, die geradezu sagenhafte Innovationsgeschwindigkeit effizienterer Produktion, die Lohnzuwächse usw? Aus dem Tausch, wie wir sahen, alleine nicht.
Erlauben wir uns einen Blick auf das, was aktuell an den Finanzmärkten geschieht, ganz besonders an den US Aktienmärkten. Das Jahr 2018 wird ein Rekordjahr bei Aktienrückkäufen. Aktienrückkäufe sind in neoklassischer Terminologie formuliert, eine Verringerung der Anteilsscheine eines Unternehmens und damit eine Verknappung des Angebots. Und dies bedeutet ebenso, dass selbst bei einer geringeren Nachfrage die Aktienkurse hoch bleiben, also Investoren höhere Preise für einen Anteilsschein zahlen müssen.
Waren diese Rückkaufprogramme von Aktien US-amerikanischer Unternehmen im Jahr noch auf 520 Mrd. US-Dollar gestiegen, steigen sie voraussichtlich in 2018 auf weitere 800 Mrd. US$. Analysten, also keine Investoren, sondern Anhänger einer volkswirtschaftlichen Theorie, die eine Marktsituation bewerten, indem sie Aktienanzahl und Preis pro Aktie sowie Kursverläufe berechnen, sind, ganz nach der Lehre von Angebot und Nachfrage begeisterte Anhänger solcher Rückkäufe. In ihren Augen gleicht ein Unternehmen damit eine mangelnde Nachfrage, vor allem von großen institutionellen Anleger wie Aktien- und Pensionsfonds aus, halten so den Preis pro Aktie hoch.
Diese Kurspflege genannten Marktaktivitäten des Managements vor allem großer Konzerne und Monopolisten in den USA, derzeit vor allem aus der IT-Branche und der digitalen Plattform- und Clouddienstleistungsanbieter dürfen aber durchaus anders als von den Analysten bewertet werden. Einmal abgesehen von Tesla, dessen Milliardeninvestitionen in e-Mobilität noch weit weg von einer Marktreife zu sein scheinen, halten andere Unternehmen einfach nur Investivkapital zurück, binden es im Unternehmen.
Langfristig orientierte Investoren sind alarmiert, zeigen die Rückkaufprogramme doch, dass es dem Management an Ideen für lukrative Investments fehlt bzw. ihre Finanzentscheidungen sich mehr am Aktienkurs und ihren damit verbundenen Boni orientieren. Der hohe Aktienkurs dieser Unternehmen muss also kein Spiegelbild einer gesunden Verfassung des Unternehmens sein, sondern ist als das Ergebnis eines künstlich verknappten Angebots an Aktien eher ein unternehmerisches Armutszeugnis oder ein Offenbarungseid, Innovationen und langfristige Ausrichtung des Unternehmens mithin dessen Zweck betreffend.
Wenn also große Fonds ihre Nachfrage nach Aktien zurückfahren, heißt dies nichts anderes, als dass sie nicht in diese Unternehmen langfristig investieren möchten und dass folglich die Aktien und die dahinter stehenden Unternehmen weit weniger begehrenswert sind, als der Börsenkurs vorgaukelt. Aktienrückkäufe aber ersetzen mitnichten unternehmerisches Handeln und den Unternehmenszweck. Wenn keine neuen Werke gebaut, keine neuen Technologien für den Markt oder für die Verbesserung der eigenen Produktion entwickelt werden, keine neuen Märkte auf- und ausgebaut werden etc. sagt der Aktienkurs und somit die reine Berechnung von Angebot und Nachfrage in den üblichen Kurskennzahlen wie etwa Rendite pro Aktie nicht mehr viel.
Betrübliche Vorbilder solcher Unternehmen, die im Verlauf ihrer Geschichte anstelle in zukunftsträchtige Technologien, Produkte oder Märkte zu investieren, überdurchschnittlich viele Aktien zurückgekauft haben, gibt es einige. Und die nennt der Jargon nicht zu Unrecht gefallenen Sterne. Solche „roten Riesen“ waren in der Vergangenheit z.B. so illustre Namen wie etwa General Electric, IBM, Nokia, Motorola oder Blackberry. Sie alle strahlen kaum noch oder nicht mehr, sind nur noch ein Schatten ihrer selbst14 .
Warum kommt es gerade jetzt zu dieser Häufung von Aktienrückkäufen? Die Antwort ist einfach: Mit der jüngsten Senkung der Unternehmensteuern und den steuerlichen Anreizen, die der US Präsident Donald Trump 2107 verfügt hat, regnet es Geld in Milliardengrößen herab auf die amerikanischen Unternehmen. Laut Schätzungen liegt die Summe für die eingesparten Unternehmensteuern bei etwa 1,5 Billionen US-Dollar, die für das rückkehrende Kapital bei insgesamt bis zu zwei Billionen US-Dollar.
Was
Trump sich vorstellte, war nichts anderes als das alte neoklassische
Theorem, dass Geld in jedem Fall Jobs schafft, weil Geld investiert
wird, die Produktion ankurbelt, der Output Nachfrage und
Arbeitsplätze schafft. Dank Trump haben die Unternehmen sehr
viel Geld. Aber keine Ideen, es zu investieren, jedenfalls nicht in
langfristig rentable bzw. profitable Investitionsprojekte. Wenn nun
also weder das Management noch die bestehenden Aktionäre, die ja
auch von den Rückkaufprogrammen qua Wertsteigerung ihrer Anteile
profitieren, in solche Zukunftsprojekte investieren, dann bleibt
unternehmerische Handeln aus und bleiben Jobs perdu.
Langfristig
kann dies auch für „Altaktionäre defizitär
werden. Denn ob der Aktienkurs ohne langfristig orientiertes
Management auf dem hohen Niveau bleibt, steht doch arg im Zweifel.
Gewinnmaximierung
Unternehmen werden nicht l’art pour l’art gegründet. Ihrer Gründung liegt ein Zweck zugrunde, der sich nicht unbedingt mit dem Nutzen, der als ein Unternehmensziel formuliert sein kann, decken muss. Der Unternehmenszweck ist die Daseinsgrundlage und, solange sie mit einem Nutzen-für verbunden ist, auch dessen Daseinsberechtigung. Unternehmenszwecke gibt es wie Sand am Meer. Unternehmensziele in der öffentlichen Meinung wie in den volkswirtschaftlichen Grundseminaren nur noch eins, die Gewinnmaximierung.
Der zur liberalen Fraktion seines Fachs zugehörige Milton Friedman formulierte diese unternehmerische Maxime als das kardinale Handlungsprinzip eines Unternehmens, das nicht nur die Schaffung maximalen Gewinns adressiert, sondern auch und zugleich eine Verteilungsmaxime. Der Gewinn eines Unternehmens wird demnach an die Aktionäre ausgeschüttet, weil sie die Einzigen sind, denen gegenüber ein Unternehmen auch eine Verpflichtung hat. Dies sieht Friedman als die soziale Ebene eines Unternehmens.
Mit dieser fast schon als eine Doktrin formulierten Auffassung hat sich das, was einmal Unternehmensziel war auf die Seite des Unternehmenszwecks verschoben, insofern Gewinne an und für sich das sind, wonach ein Unternehmen zu streben hat, also Zweck des Unternehmens ist. Damit ist das sog. Shareholder-Prinzip formuliert, wonach der Zweck des Unternehmens darin liegt, denjenigen einen Anreiz und eine Art Belohnung dafür zu schaffen, dass sie das Kapital bereitstellen und damit ein Risiko in ein Investment in das Unternehmen eingehen.
Wenn
also die Gewinnmaximierung bei Unternehmen zum obersten Prinzip
erklärt wird, sind nicht nur andere Ziele schwer zu vermitteln,
sondern gerät auch der Unternehmenszweck aus dem Blick.
Dies
um so mehr, wenn die Erzielung von Gewinnen mit den kurzfristigen
Zielen des Unternehmens in eins fällt. Denn nun stehen solche
Unternehmen natürlich auch ganz zentral im Fokus von Investoren,
die ihre Chance darin sehen, mehr Gewinne kurzfristig zu erzielen,
vor allem solche Investoren, die, anders als die großen
institutionellen zur Branche der „Private Equity“ zählen
und Unternehmen oder Teile davon kaufen, um sie gewinnbringend weiter
zu verkaufen, oder die als sog. „aktivistische Investoren“
sich in Unternehmen einkaufen, um dem Management hernach ihren Willen
nach kurzfristigen Entscheidungen, die die Gewinne erhöhen,
aufzuzwingen.
Ist
der Unternehmenszweck einmal mit den Unternehmenszielen und diese mit
der Gewinnmaximierung identisch, sind Beschäftigte, Lieferanten,
Kunden, Umwelt oder Nachhaltigkeit im Sinne der generativen
Fortführung des Unternehmens weniger als sekundär; sie
zählen schlicht nicht mehr.
Noch nach der Finanzkrise 2008
prägten große institutionelle Investoren auf der Seite der
Aktionäre das Geschehen über die Aufsichtsräte und
andere Gremien bis hinein in die Unternehmensleitung, deren
„Arbeitgeber“ letztlich die Pensionsfonds und
Lebensversicherer waren. Sie waren an einer langfristigen Ausrichtung
des Unternehmens orientiert, da etwa Pensionsfonds an sicheren und
profitablen Investments über mehrere Jahrzehnte interessiert
waren. So treue Investoren, die eine langfristige Erwirtschaftung von
Gewinnen sichern helfen, weil sie die Ansprüche ihrer Kunden
wiederum, die heute zu den Erwerbstätigen gehören und in
zwanzig bis vierzig Jahren ihre Pensionen ausgezahlt haben wollen,
findet man zahlenmäßig immer weniger.
Lediglich acht Prozent solcher Investoren z.B., die nicht auf Quartalsbergbisse, sondern auf langfristig ausgerichtete Portfolios schauen, finden sich heute noch gegenüber 50 Prozent von vor zwanzig Jahren als Shareholder des britischen Börsenkapitals. An deren Stelle sind die aktivistischen Aktionäre getreten, die meist eher kleine Anteile halten und im Vergleich zu den Investoren traditioneller Prägung recht aggressiv auftreten, nicht einmal davor zurückschrecken, regelrechte Kampagnen gegen das Management zu fahren, sollte das nicht der Strategie der kurzfristigen Gewinnmaximierung folgen.
Sie
halten gerade so viel Anteile, dass sie gerecht sind, hohe
Ausschüttungen zu fordern, manchmal mehr, als der Gewinn selbst
hergibt. Sie lieben die Zerschlagung von Unternehmen in Teile, die
hoch profitabel zu verkaufen sind, fühlen sich pudelwohl in
waghalsigen Übernahmeschlachten – wir erinnern uns an die
Mutter aller Übernahmeschlachten im laufenden Jahrhundert,
Porsche gegen den eigenen Mutterkonzern VW – oder verfolgen
radikale Portfoliobereinigungen.
Alles, was kurzfristig den
Aktienkurs nach oben treiben oder Gewinne erzielen kann, steht da im
Fokus. So wird das Friedman Paradigma heute umgesetzt. Und in dieser
zahlenmäßig zunehmenden strukturellen Transformation des,
über Börsennotierungen ausgeübten
Transformationsprozess des Unternehmensmanagements, also der
strategischen Ausrichtung wirtschaftlicher Entscheidungen, finden
langfristig orientierte Manager immer weniger Unterstützung von
ihren „Arbeitgebern“, ihren Aktionären. Dabei helfen
natürlich üppige Vergütungen, zumal in Aktienoptionen
des eigenen Unternehmens, und kompensieren so nicht nur die
Entscheidungen, die das Management nicht selten contre coeur trifft.
Der häufige Verlust von Ansehen bei Mitarbeitern, Kunden,
Lieferanten, ja ganzer Öffentlichkeitsbereiche etc. den sich
zudem nicht selten die Politik zu ihren eigenen Zwecken ausnutzt,
wird dem Management lukrativ gemacht. Ein Ruhestand in der Schweiz
oder auf den Bahamas verspricht ein gutes Leben in der gebührenden
Distanz.
Je mehr aktivistische Aktionäre die Spielregeln bestimmen, desto häufiger sieht man Unternehmen, sich frühzeitig in einer Art Selbstschutz vor deren Einflussnahme zu wappnen, indem sie von sich aus Unternehmen auf höhere Profitabilität trimmen durch Einsparungen aller Art, durch Stellenstreichungen, schnelleren Austausches des Managements bei Zielkonflikten, Erhöhung der Ausschüttungen an die Aktionäre bis hin zu sog. Equity Carve-outs und Spin-offs15 . So schlägt das Management im besten Falle gleich zwei Fliegen mit einer Klappe. Private Equities tun sich schwerer und Großinvestoren, die nicht zu den institutionellen gehören, werden zusätzlich angezogen.
Analysten bewerten Mischkonzerne geringer als weniger stark diversifizierte Unternehmen. Am Kapitalmarkt gibt es zudem häufig eine Tendenz gegen Konglomerate zu beobachten, weil aus Sicht der Investoren in den Konglomeraten eine Separierung oder eine separate Notierung natürlich deswegen Sinn macht, weil institutionelle Investoren gerne ihre Portfolios selbst zusammenstellen bzw. diese Diversifizierung in unterschiedlichen Aktiengesellschaften gern selber vornehmen möchten, und auch nicht gerne bereit sind, in einem Konglomerat den Wert aller Einzelteile, der ja sehr unterschiedlich ausfallen kann, voll zu bezahlen.
Hinzu kommt ein enormer Druck seitens der großen Investoren, die in Zeiten niedriger Zinsen wie in den letzten zehn Jahren, lukrative Anlagemöglichkeiten für ihre Gelder um so intensiver suchen und sich dabei nicht auf alt bewährte Bilanzzahlen allein verlassen. Wenn auch der Unternehmenszweck, etwa Autos zu bauen, derselbe ist, sieht man doch intensiver darauf, welche Art von Autos und unter welchen Bedingungen diese in Zukunft gebaut werden.
Konglomerate tun sich mittlerweile immer schwerer, ihren Unternehmenszweck genau zu bestimmen und durch die Konjunktur- bzw. Wirtschaftsphasen durchzuhalten. Dabei steht die Frage im Zentrum, welche Vorteile man in einem Konglomerat oder Mischkonzern erreichen kann. Kann man operative Synergien erzielen, wenn man z. B. auf derselben technischen Anlage zwei verschiedene Produkte herstellen kann? Gibt es zwischen unterschiedlichen Geschäften einen Know-how-Transfer? Kann man Geschäftsstrategien koordinieren wie etwa Bank- und Versicherungsgeschäfte in Allfinanzkonzernen? Kann eine Unternehmensleitung für zwei unterschiedliche aber mit einander verbundene Geschäftsfelder besser eingesetzt werden, als zwei Leitungen?
Derartige Fragen haben offensichtlich nichts mit kurzfristiger Gewinnmaximierung zu tun, vielmehr damit, ob und wie ein Unternehmen die an seinen Unternehmenszweck gebundenen Potenziale am besten ausschöpfen kann. Und besonders institutionelle Investoren machen zunehmend mehr die Erfahrung, dass ihre Ausrichtung an kurzfristigen Gewinnen gerade die Unternehmen langfristig in Schwierigkeiten bringen kann und damit zugleich die eigene Rendite aus ihren Beteiligungen gefährdet. Und ihre Bereitschaft sich auf eine der zahlreichen Desinvestitionsmethoden wie etwa Equity Carve-outs und Spin-offs sowie auf Unternehmensabspaltungen, bei denen entweder das Mutterunternehmen nicht börsennotiert ist oder das Tochterunternehmen außerhalb der Börse veräußert wird, einzulassen, schwindet zunehmend.
Bis hierhin ist leicht zu erkennen, dass kurz- und langfristige Unternehmensstrategien sich teils radikal voneinander unterscheiden können. Kurzfristige Gewinnmaximierung und langfristige Sicherung der Profitabilität eines Unternehmens sind verschieden, aber nicht die einzigen Strategien. Die wichtige Frage, die sich aus diesem strategischen Unterschied, der ja eine konträre Art zu Wirtschaften und eine ebenso konträre Auffassung, zu welchem Zweck und zu welchen Zielen wirtschaftliches Handeln führen soll, ergibt, ist auf den ersten Blick so gar nicht im Rahmen volkswirtschaftlicher Theorien zu stellen. Sie führt weit darüber hinaus auf eine gesellschaftspolitische Ebene, die wir an dieser Stelle nicht umhin kommen, kurz anzureißen.
Anmerkungen:
1
Vgl. Kenneth J. Arrow: Social Choice and Individual Values. 1. Aufl.
Wiley, New York 1951 und
ders.: Social Choice and Individual
Values. 2.
Aufl. Yale University Press, New Haven 1963, ISBN 0-300-01363-9
Das
von Arrow herausgearbeitete Abstimmungsparadoxon führt zu der
ernüchternden Erkenntnis, dass es nicht möglich ist, mit
Mehrheitsentscheidungen individuelle Präferenzen konsistent zu
aggregieren und auf dieser Basis eine gesellschaftliche
Wohlfahrtsfunktion abzuleiten.
2 Ökonomische Wohlfahrt bezeichnet in den Wirtschaftswissenschaften entweder den Nutzen eines Individuums (einzelwirtschaftliche Betrachtung) oder ein Maß für die Nutzen aller Individuen einer Volkswirtschaft (gesamtwirtschaftliche Betrachtung).
3 Vgl. Smith, Adam: An Inquiry into the Nature and Causes of the Wealth of Nations, Vol. I/ Vol. II. Printed for W. Strahn; and T. Cadell, in the Strand, 1776; erschienen im IDION-Verlag, München 1976
4
"La valeur d'échange laissée à elle-même
se produit naturelle- ment sur le marché sous l'empire de la
concurrence. Comme acheteurs, les échangeurs demandent à
l'enchère, comme vendeurs, ils offrent au rabais, et leur
concours amène ainsi une certaine valeur d'échange des
marchandises tantôt ascendante, tantôt d'escendante et
tantôt stationnaire. Selon que cette concurrence fonctionne
plus ou moins bien , la valeur d'échange se produit d'une
manière plus ou moins rigoureuse. Les marchés les
mieux organisés sous le rapport de la concurrence sont ceux
où les ventes et achats se font à la criée, par
l'intermédiaire d'agents tels qu'agents de change, courtiers
de commerce, crieurs, qui les centralisent , de telle sorte qu'aucun
échange n'ait lieu sans que les conditions en soient
annoncées et connues, et sans que les vendeurs puissent
mettre au rabais et les acheteurs à l'en- chère. Ainsi
fonctionnent les Bourses de fonds publics , les Bourses de commerce,
les marchés aux grains, au poisson, etc. A côté
de ces marchés , il y en a d'autres où la concurrence,
quoique moins bien réglée, fonctionne encore d'une
manière assez convenable et satisfaisante : tels sont les
marchés aux fruits et légumes, à la volaille.
Les rues d'une ville où se trouvent des magasins et des
boutiques de boulangers, de bouchers , d'épi- ciers, de
tailleurs, de bottiers, sont des marchés d'une organi- sation
un peu plus défectueuse sous le rapport de la
concurrence."
Aus Léon Walras, Elements d'
economie politique pure ou theorie de la richesse, Section II, 9°
Leçon
5
"Sind zwei Waren gegeben, dann ist die einzige nötige und
ausreichende Bedingung für ein Marktgleichgewicht oder
gleichbleibende Preise bezüglich dieser Güter, dass die
angebotene Menge der beiden Güter der nachgefragten Menge
dieser Güter entspricht. Existiert diese Entsprechung nicht,
muss, damit das Gleichgewicht erreicht wird, der Preis der Ware,
deren Nachfrage höher ist als die angebotenen Menge steigen und
der Preis der Ware, bei der das Angebot die effektiv nachgefragte
Menge übersteigt, sinken."
aus: Léon Walras,
Elements d' economie politique pure ou theorie de la richesse, 12°
LEÇON, Courbes d'offre effective.
6 Variable Kosten sind beispielsweise Kosten für Roh-, Hilfs- und Betriebsstoffe, die in ein Produkt eingehen, aber auch Fertigungslöhne oder Frachtkosten.
7 Ein
Pareto-Optimum (auch Pareto-effizienter Zustand) ist ein Zustand, in
dem es nicht möglich ist, eine (Ziel-)Eigenschaft zu
verbessern, ohne zugleich eine andere verschlechtern zu müssen
(Wikipedia).
Bei der vor allem im englischsprachigen Raum häufig
eingesetzten Nutzen-Kosten-Analyse wird als Maßstab meist das
sog. Kaldor-Hicks-Kriterium verwendet. Es gehört zu den sog.
Kompensationskriterien, die versuchen, auch solche
gesamtgesellschaftlichen Wohlfahrtsänderungen zu bewerten, bei
welchen die Wohlfahrt einzelner Individuen steigt, während die
anderer sinkt. Die genannten Kriterien versuchen also,
Wohlstandsgewinne und Wohlstandsverluste gegeneinander aufzurechnen,
was mit dem Pareto-Kriterium nicht zulässig ist.
Das Pareto
Optimum beschreibt also einen Zustand, bei dem der Tausch allein
durch den Nutzen (wobei Pareto hier nochmal differenziert utilité
= Nutzen im engeren Sinn, also etwas, das tatsächlich nützt,
im Gegensatz zu ofelimità = was jemand will, was aber nicht
unbedingt nützlich sein muss.
Drogen sind nicht nützlich,
aber manche Leute wollen das unbedingt) bestimmt ist und ungehindert
möglich ist.
8
Leontief, Wassily (1982) "Academic Economics" in Sience
217(4555), S. 104.
Tomas Piketty formulierte dieselbe Kritik
etwas freundlicher: Er sei als junger Ökonom von seinen
Fachkollegen sehr geschätzt worden, obgleich er sich bis dahin
nur mit einigen ziemlich astrakten mathematischen Theoremen befasst
hatte und von den ökonomischen Problemen der Welt im Grunde
nichts wusste noch verstand.
Pikkty,
Thomas (2014). Capital in the Twenty-First Century. Cambridge (MA);
The Belknap Press of Harvard University Press. S.
32
9 Holismus (griechisch ὅλος holos „ganz“), auch Ganzheitslehre, ist die Vorstellung, dass natürliche (gesellschaftliche, wirtschaftliche, physikalische, chemische, biologische, geistige, linguistische usw.) Systeme und ihre Eigenschaften als Ganzes und nicht als Zusammensetzung ihrer Teile zu betrachten sind. (Wikipedia)
10
Unter dem Titel „Happiness Economics“ hat sich die
Wirtschaftsforschung des Glücks-Phänomens angenommen. Man
entdeckte, dass das Streben nach Glück eine wirtschaftliche
Triebkraft ist. Herbert Laszlo etwa erkennt einen „Fluch des
Epikur“ (Das große Buch vom Glücklichsein. Verlag
55PLUS, Wien 2005, ISBN 3-902441-22-4, S. 160)
Epikur lehrte:
„Wir brauchen immer dann eine Freude, wenn sie fehlt und wir
darob leiden. Wenn wir aber nicht leiden, bedürfen wir ihrer
nicht.“
Die Folge sei ein Marketing, das durch „Weckung
von Bedürfnissen“ Leiden schaffe, weil man – laut
Epikur – glaubt, glücklichen Menschen nichts verkaufen zu
können.
Ein weiteres Problem der Happiness Economics ist der
Neid auf materielle Dinge. Der britische Ökonom Richard Layard
untersuchte die persönliche Zufriedenheit in Abhängigkeit
vom materiellen bzw. Zeit-Reichtum der umgebenden Personen. Die
Teilnehmer der Studie fühlten sich deutlich weniger zufrieden,
wenn die Umwelt in materiellen Dingen reicher war, während sie
fast keinen Neid auf Zeitwohlstand (längeren Urlaub) zeigten.
11
Substitutionsrate - Maßzahl, zu der ein Konsument bei
gegebenem Gesamtnutzen (Nutzen) bereit ist, ein bestimmtes Gut durch
ein anderes zu ersetzen.
Technische Substitutionsrate - Die
Grenzrate der Substitution gibt bei zwei Produktionsfaktoren an, in
welchem Umfang die Einsatzmenge des einen Faktors erhöht werden
muss, wenn die Einsatzmenge des anderen Faktors gesenkt wird und die
Produktionsmenge konstant bleiben soll.
12
Gewinn (G) = Gesamterlöse (R) − Gesamtkosten (K)
Die
allgemeine und spezielle Bedeutung von Erlös
Erlös
entsteht durch den Verkauf von Waren oder Dienstleistungen, kann
aber auch aus Vermietung und Verpachtung erzielt werden. Im
allgemeinen Sprachgebrauch wird der Begriff auch als Synonym für
Umsatz verwendet und meint damit Erträge, die aus einer
bestimmten Geschäftstätigkeit heraus erwachsen. In der
Buchhaltung hat der Erlös eine besondere Bedeutung, weil dort
unterschiedliche Arten von Erlösen auf Ertragskonten gebucht
werden und später in die Gewinn- und Verlustrechnung (GuV)
einfließen. Eine genaue Definition von Erlös kennt das
Handelsgesetzbuch. Dort dient der Begriff nicht als Synonym, sondern
als Abgrenzung zum Umsatz. Im Bilanzrecht ist diese Unterscheidung
von Bedeutung. Denn vor Wirtschaftsprüfern und Investoren macht
es einen großen Unterschied, ob Umsätze aus der typischen
Geschäftstätigkeit eines Unternehmens entstehen oder ob
andere Erlösquellen erheblich zum Gesamtergebnis beigetragen
haben. (Sage: Blog. )
13
Grenzerlös R ′ entspricht dem Preis P, den ein
Wirtschaftssubjekt für das Produkt zu zahlen hat. Es gilt für
alle Wettbewerbsunternehmen die kurzfristige
Gewinnmaximierungsbedingung:
Grenzkosten K = Grenzerlös R' =
Preis P
14 1 Manchmal gibt es auch absurde Auswüchse, bei denen Unternehmen mehr für den Rückkauf der Aktien ausgeben, als sie an Gewinn erwirtschaftet haben. Nach Berechnungen des Ökonomieprofessors Bill Lazonick hat etwa Hewlett-Packard zwischen 2007 und 2016 insgesamt 57 Milliarden für Rückkäufe ausgegeben, obwohl der Konzern im selben Zeitraum nur 44 Milliarden Dollar Gewinn gemacht hat.
15
Unter einem Equity Carve-out (deutsch etwa: „Herausschnitzen
von Eigenkapital“), teilweise auch Spin-out, versteht man eine
Form der Desinvestition, bei der ein Konzern Anteile einer
Tochtergesellschaft, z.B. im Zuge einer Neuemission (IPO, Initial
Public Offering) über die Börse, veräußert.
Zu
unterscheiden ist Equity Carve-out von einem Spin-off (teilweise
auch Spin-out genannt) (deutsch: Aufspaltung oder Abspaltung), bei
der die bestehenden Aktionäre Aktien an der Tochter „kostenlos“
zugeteilt bekommen; dabei werden die gesamten Anteile eines
Tochterunternehmens an der Börse notiert.
Bei einem Equity
Carve-out hingegen handelt es sich um einen Verkauf von Anteilen,
bei dem in der Regel nur eine Minderheit der Anteile des
Tochterunternehmens angeboten wird. Der Vorteil für die
Muttergesellschaft besteht darin, dass sie die unternehmerische
Kontrolle behalten kann und gleichzeitig die Erträge aus dem
Börsengang vereinnahmen kann.
Nachteilig gegenüber
anderen Finanzierungsformen ist, dass das Tochterunternehmen den
strengen Kontroll- und Veröffentlichungsvorschriften einer
börsennotierten Gesellschaft unterliegt. Außerdem kann
die Muttergesellschaft die Besitzverhältnisse für die an
den Börsen gehandelten Aktien nicht mehr
kontrollieren.(Wikipedia)
zurück ...
weiter ...
Ihr Kommentar
Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.