image

INHALT

THEORIE

GESETZ DER GROSSEN ZAHLEN

IRRFAHRT ZUM MITTELWERT

Statistische Abweichungen mitteln sich heraus – aber nicht so, wie man meistens denkt.

Von Ian Stewart

STOCHASTIK

SPIEL MIT DEM ZUFALL

Zufallszahlen müssen nicht wirklich zufällig sein. Manchmal sind schlechte Imitate sogar optimal.

Von Brian Hayes

MATHEMATIK

UNIVERSELLE GESETZE

Manche gobalen Aussagen über ein System gelten unabhängig von dessen Eigenschaften.

Von Terence Tao

WISSENSCHAFTSPRAXIS

SZIENTOMETRIE

JEDE MENGE MURKS

Viele Studien sind nicht reproduzierbar.

Von Ed Yong

FEHLERSCHÄTZUNG

DER FLUCH DES P-WERTS

Eine viel zitierte Kenngröße wird häufig missverstanden – oder gar missbraucht.

Von Regina Nuzzo

DATENAUSZÄHLUNG

SIMPSONS BEUNRUHIGENDES PARADOX

Das Ergebnis einer Studie kann davon abhängen, wie man die Probanden in Gruppen aufteilt.

Von Jean-Paul Delahaye

REALITÄT

EINSCHÄTZUNGSFEHLER

DER WYATT-EARP-EFFEKT

Die betörende Macht kleiner Wahrscheinlichkeiten

Von F. Thomas Bruss

SPORT

REKORDE IN DER LEICHTATHLETIK

Wie kann man echte Leistungssteigerung und Zufall auseinanderhalten?

Von Daniel Gembris

TESTSTÄRKE

HABEN SCHÖNE ELTERN MEHR TÖCHTER?

Wer kleine Effekte mit zu kleinen Stichproben zu erfassen versucht, bekommt häufig den größten Unsinn heraus.

Von Andrew Gelman und David Weakliem

EXTREMEREIGNISSE

TORNADO-MATHEMATIK

Schwere Erdbeben, Wirbelstürme und Überschwemmungen treten viel häufiger auf, als nach der klassischen Statistik zu erwarten wäre.

Von Frank Grotelüschen

GLOBALE ERWÄRMUNG

KLIMAREKORDE

Unter der derzeitigen Klimaerwärmung wird in wenigen Jahrzehnten ein Jahrhundertsommer wie 2003 zum Normalfall werden.

Von Gregor Wergen, Joachim Krug und Stefan Rahmstorf

WISSENSCHAFTSGESCHICHTE

19. JAHRHUNDERT

THOMAS BAYES UND DIE TÜCKEN DER STATISTIK

Wahrscheinlichkeit als Maß unserer Unkenntnis

Von Marc Dressler

20. JAHRHUNDERT

VON DER SKIPISTE IN DEN ABSTRAKTEN WAHRSCHEINLICHKEITSRAUM

Andrei Nikolajewitsch Kolmogorow: Einer der größten Mathematiker des vergangenen Jahrhunderts

Von Marc Dressler

EDITORIAL

EDITORIAL
WAS IST WAHRSCHEINLICHKEIT?

Image

Von Christoph Pöppe, Redakteur dieses Hefts

poeppe@spektrum.de

Drei Mathematiker sind mit der Bahn im Ausland unterwegs und erspähen durchs Zugfenster ein schwarzes Schaf. »Interessant«, sagt der erste, »in diesem Land sind die Schafe schwarz.« – »Das weißt du nicht«, sagt der zweite, »du kannst bisher nur sagen, dass es in diesem Land mindestens ein schwarzes Schaf gibt.« – »Zu voreilig geschlossen«, sagt der dritte. »Wir wissen nur, dass es in diesem Land mindestens ein Schaf gibt, das mindestens auf der einen Seite schwarz ist.«

Wenn die Mathematiker darauf bestehen, genau abzugrenzen, was man aus welchem Wissen schließen kann und was nicht, dann wirkt das manchmal richtig komisch. Zu dumm, dass sie mit dieser übertriebenen Vorsicht oft Recht haben.

Nur zu leicht führt uns die Alltagserfahrung in die Irre. Wenn ein überaus aktiver Revolverheld namens Wyatt Earp als 80-Jähriger an Altersschwäche stirbt, wirkt das unglaublich genug, um ihm zahlreiche Filme zu widmen. Aber Vorsicht! Dass unter zahllosen Westernhelden einer überlebt, ist alles andere als unwahrscheinlich (S. 44).

Wer nur zweifelsfrei wahre Aussagen über die Welt machen wollte, wäre (außerhalb des abstrakten Reichs der Mathematik) alsbald zum Schweigen verurteilt. Eine gewisse Irrtumswahrscheinlichkeit muss man sich schon genehmigen, wenn man aus den üblichen, durch Fehler beeinträchtigten Messungen Schlüsse ziehen will. Wenn man sich allerdings die Beobachtungen gezielt so aussucht, dass sie mit dieser Irrtumswahrscheinlichkeit gerade noch unter der Genehmigungsgrenze bleiben, ist mit großer Wahrscheinlichkeit Unfug dabei (S. 26 und 32).

Was ist überhaupt Wahrscheinlichkeit? Ist sie die Eigenschaft eines realen Systems, auf eine wiederholt gestellte Frage verschiedene Antworten mit bestimmten relativen Häufigkeiten zu geben? Oder ist sie Ausdruck unserer Unwissenheit über das System, womit sie sich durch unsere Erfahrung ändert? Darüber wird bis in die Gegenwart trefflich gestritten; dem Autor der zweiten Interpretation, Thomas Bayes, verdanken wir eine Formel, die diese Änderung zu berechnen gestattet (S. 74).

Um eine definitive Antwort haben sich die Mathematiker erfolgreich gedrückt. Heute arbeiten sie mit dem Axiomensystem von Andrei Kolmogorow (S. 78), das zwar bestimmt, wie man mit Wahrscheinlichkeiten rechnet, aber jede Aussage über ihr »Wesen« konsequent vermeidet. Und siehe da: Es geht auch ohne. Die abstrakte Theorie liefert belastbare Aussagen darüber, ob es bei einer sportlichen Höchstleistung mit rechten Dingen zugeht (S. 47) oder ob man einen Hitzerekord dem Klimawandel zuschreiben kann (S. 66).

Herzlich Ihr

Image

GESETZ DER GROSSEN ZAHLEN
IRRFAHRT
ZUM MITTELWERT

Statistische Abweichungen mitteln sich aus – aber nicht so, wie man meistens denkt.

Ian Stewart ist Mathematiker, Buchautor und Wissenschaftsjournalist. Bis zu seiner Emeritierung war er Professor an der University of Warwick in Coventry (England).

►► spektrum.de/artikel/1486949

AUF EINEN BLICK
DER WÜRFEL HAT KEIN GEDÄCHTNIS

1 Wenn zum Beispiel in einer Folge von Würfen eines Würfels eine Zahl übermäßig häufig erscheint, gibt es keine Tendenz zum Ausgleich des Ungleichgewichts.

2 Gleichwohl strebt die relative Häufigkeit für jede einzelne Augenzahl gegen 1/6 – im Grenzwert unendlich vieler Würfe.

3 In diesem Grenzwert ist »Wahrscheinlichkeit 1« etwas anderes als Sicherheit; und der statistische Mittelwert ist keineswegs der am häufigsten vorkommende.

Angenommen, ich werfe wiederholt eine faire Münze – also eine, bei der Kopf und Zahl mit jeweils gleicher Wahrscheinlichkeit nach oben zu liegen kommen – und zähle mit, wie oft Kopf und wie oft Zahl erscheint. Wenn ich dann irgendwann vielleicht 100-mal öfter Kopf als Zahl geworfen habe: Besteht dann bei weiteren Würfen die Tendenz, dass die Anzahl der Zahl-Würfe den Rückstand wieder aufholt?

Manche Leute sind davon überzeugt und sprechen von einem »Gesetz der großen Zahl«. Bei Würfen mit einer fairen Münze müssten nach diesem Gesetz Kopf und Zahl letztlich gleich oft erscheinen. Andere halten dagegen, dass Münzen kein Gedächtnis haben – die Wahrscheinlichkeit für Kopf oder Zahl bleibt stets 1/2, einerlei, was vorher geschehen ist – und schließen daraus, dass es eben keinerlei Tendenz für einen Ausgleich gebe.

Ähnliche Fragen tauchen auch in anderen Bereichen auf. Wenn es im Mittel alle vier Monate zu einem Flugzeugabsturz kommt und schon drei Monate lang nichts passiert ist, sollte man dann vorerst auf Flugreisen verzichten?

In all diesen Fällen lautet die Antwort nein. Die Zufallsprozesse, die hier in Frage kommen, genauer gesagt, die üblichen mathematischen Modelle dieser Prozesse, haben in der Tat kein Gedächtnis.

Dennoch hängt viel davon ab, was genau unter »ausgleichen« oder »aufholen« zu verstehen ist. Viele Kopf-Würfe hintereinander machen es nicht wahrscheinlicher, dass später Zahl kommt. Trotzdem: Auch wenn 100-mal öfter Kopf als Zahl gefallen ist, die Wahrscheinlichkeit dafür, dass die beiden Anzahlen zu irgendeinem Zeitpunkt gleich sein werden, ist gleich 1.

Das bedeutet normalerweise Sicherheit, und eine Wahrscheinlichkeit von 0 bedeutet Unmöglichkeit. Hier haben wir es allerdings mit unbegrenzt vielen Würfen und deshalb unendlich vielen denkbaren Wurfserien zu tun; und unter diesen Umständen ist das mit der Sicherheit nicht mehr ganz so sicher. Endlich viele unter unendlich vielen Möglichkeiten fallen für die Wahrscheinlichkeitsberechnung nicht ins Gewicht, trotzdem gibt es sie. Ein Ereignis, das durchaus vorkommen kann, hat unter Umständen die Wahrscheinlichkeit 0. Die Mathematiker nennen ein solches Ereignis »fast unmöglich« und ein Ereignis mit der Wahrscheinlichkeit 1 »fast sicher«.

Es gibt also eine Tendenz zum Ausgleich in dem Sinn, dass in einer (unbegrenzt langen) Wurfserie fast sicher irgendwann Gleichstand auftritt. Aber in einem gewissen anderen Sinn gibt es eben keine Tendenz zum Ausgleich auf lange Sicht. Zum Beispiel besteht die Wahrscheinlichkeit dafür, dass die Gesamtzahl der Kopf-Würfe irgendwann um eine Million größer wird als die Gesamtzahl der Zahl-Würfe, ebenfalls 1.

Wie kann das sein? Schauen wir uns den Münzwurf näher an. Ich habe 20-mal geworfen und folgendes Ergebnis erhalten: ZZZZKZKKKKKKZZZKZZZK, also elfmal Z und neunmal K. Gemäß dem Gesetz der großen Zahlen sollten die Häufigkeiten, mit denen die Ereignisse eintreten, sich auf lange Sicht deren Wahrscheinlichkeiten annähern. Die relativen Häufigkeiten betragen hier 11/20 = 0,55 und 9/20 = 0,45 – ungefähr gleich 1/2, aber nicht genau. Vielleicht gefällt Ihnen diese Folge besser: KZKKZZKZZKZKKZKZKKZZ, mit den Häufigkeiten 10/20 0,50 für Z und K. Nicht nur haben diesmal die Häufigkeiten genau die »richtigen« Werte, die Folge sieht auch irgendwie zufälliger aus. Ist sie aber nicht.

Die erste Folge macht einen etwas geordneteren Eindruck, weil sie im Gegensatz zur zweiten lange Teilfolgen gleicher Ereignisse enthält, wie ZZZZ und KKKKKK. Aber der Eindruck trügt: Zufallsfolgen zeigen oft Muster und auffällige Häufungen. Lassen Sie sich davon nicht ins Bockshorn jagen. (Es sei denn, es kommt eine sehr lange Serie der Form KKKKKKKKKKKKKKK… Dann wäre doch zu vermuten, dass die Münze auf beiden Seiten Kopf trägt.)

Angenommen, Sie werfen die Münze viermal hintereinander. Im Bild rechts sind die möglichen Ergebnisse zusammengefasst. Der erste Wurf zeigt entweder Kopf oder Zahl, jeweils mit Wahrscheinlichkeit 1/2. Der nächste Wurf zeigt unabhängig vom ersten wieder Kopf oder Zahl, und so fort. Bei vier Würfen bekommen wir so einen »Baum«, durch den 16 mögliche Wege führen. Nach der Wahrscheinlichkeitstheorie hat jeder Weg die Wahrscheinlichkeit 1/2·1/2·1/2·1/2 = 1/16. Das leuchtet ein, denn jeder der 16 Wege sollte gleich wahrscheinlich sein. Insbesondere hat ZZZZ die Wahrscheinlichkeit 1/16, ebenso wie KZKK, obgleich letztere viel zufälliger aussieht.

Bei vier Münzwürfen erhält man im Mittel genau zweimal Kopf und zweimal Zahl. Richtig. Also ist zweimal Kopf und zweimal Zahl das wahrscheinlichste Ergebnis? Falsch. Es kommt nur sechsmal unter den 16 Würfen vor, das macht eine Wahrscheinlichkeit von 6/16 = 0,375. Es ist wahrscheinlicher (nämlich mit Wahrscheinlichkeit 1 – 0,375 = 0,625), nicht genau zweimal Kopf zu werfen. Bei längeren Folgen wird dieser Effekt noch ausgeprägter.

Ähnliche Untersuchungen zeigen, dass es kein Gesetz des Ausgleichs gibt: Die zukünftigen Wahrscheinlichkeiten der Ereignisse werden nicht davon beeinflusst, was in der Vergangenheit geschehen ist. Aber in einem gewissen, interessanten Sinn gibt es eben doch eine langfristige Tendenz zum Ausgleich. Man zeichne in einem Diagramm auf, um wie viel nach jedem Wurf die Anzahl der Kopf-Würfe über jener der Zahl-Würfe liegt. Die Kurve steigt also mit jedem Kopf-Wurf und sinkt mit jedem Zahl-Wurf, jeweils um eine Einheit. Derartige Diagramme aus aufeinander folgenden, zufallsbestimmten Schritten nennt man Irrfahrten (random walks).

Image

Baumdiagramm für die möglichen Ergebnisse bei vier aufeinander folgenden Münzwürfen.

Das Bild auf der nächsten Seite oben zeigt eine typische Irrfahrt aus 10000 Münzwürfen. Die lange Phase des Vorsprungs für »Kopf« ist ganz normal. Die Wahrscheinlichkeit, dass bei 10000 Würfen eine Seite höchstens 0,7 Prozent der Zeit (70 Würfe) vorn liegt und den ganzen Rest der Zeit die andere Seite, beträgt ungefähr 1 zu 10.

Allerdings: Die Wahrscheinlichkeit dafür, dass die Waage nie wieder ins Gleichgewicht kommt (also Kopf für alle Zeit vor Zahl liegt), ist 0. Das folgt ebenfalls aus der Theorie der Irrfahrten. In diesem Sinn trifft das Gesetz des Ausgleichs zu. Wenn Kopf einen Vorsprung von 100 hat, können Sie mit Aussicht auf Erfolg darauf wetten, dass irgendwann Gleichstand eintritt. Aber wetten Sie besser nicht darauf, dass das innerhalb der nächsten 1000 Würfe geschehen wird.

Angenommen, Sie erhalten bei 100 Münzwürfen 55-mal Kopf und 45-mal Zahl – ein Ungleichgewicht von 10 zu Gunsten von Kopf. Die Theorie der Irrfahrten besagt, dass dieses Ungleichgewicht sich fast sicher (mit Wahrscheinlichkeit 1) ausgleichen wird, wenn man genügend oft wirft. Ist das nicht ein Gesetz des Ausgleichs? Na ja – nicht so, wie die meisten Leute denken. Man setze die Folge der 100 Würfe durch eine Million weiterer Würfe fort. Dann wird man in der Folge der 1000 100 Würfe im Mittel (das heißt, im Durchschnitt sehr vieler Million-Würfe-Folgen) 500 055-mal Kopf und 500 045-mal Zahl finden. Das Ungleichgewicht der ersten 100 Würfe bleibt also erhalten. Allerdings: Die zu erwartende relative Häufigkeit von Kopf ist nicht mehr 55/100 = 0,55, sondern 500 055/1000 100 = 0,500 005. Ungleichgewichte werden durch große Anzahlen nicht ausgeglichen, sondern bis zur Unkenntlichkeit verwässert.

Image

Diese Irrfahrt, bei der Kopf einem Schritt nach oben entspricht und Zahl einem Schritt nach unten, zeigt, dass sich Kopf und Zahl nur selten ausgleichen.

Image

Eine zweidimensionale Irrfahrt.

Nehmen wir nun einen Würfel statt einer Münze und notieren, wie oft die Augenzahlen 1 bis 6 auftreten. Wir gehen wieder davon aus, dass der Würfel fair ist, also jede Augenzahl mit der gleichen Wahrscheinlichkeit 1/6 auftritt. Zu Anfang stehen alle sechs Zähler auf 0; aber sie zeigen bald verschiedene Werte an. Ein Gleichstand könnte frühestens nach sechs Würfen herrschen, wenn nämlich jede Zahl genau einmal gefallen ist. Wie groß ist die Wahrscheinlichkeit, dass irgendwann noch einmal Gleichstand herrscht, einerlei wie lange ich werfe? Sie ist erstaunlich klein, wie ich gleich zeigen werde.

Dazu verallgemeinern wir das Konzept der Irrfahrt auf mehrere Dimensionen. Eine Irrfahrt in der Ebene findet im einfachsten Fall auf den Kreuzungspunkten eines unendlich ausgedehnten, quadratischen Gitters statt. Der Irrfahrer beginnt im Ursprung und wandert in jedem Schritt um ein Feld nach Norden, Süden, Osten oder Westen, jeweils mit Wahrscheinlichkeit 1/4 (Bild oben links). In drei Dimensionen steigt man in einem unendlich ausgedehnten Klettergerüst herum und hat für jeden Schritt sechs Richtungen zur Auswahl: Nord, Süd, Ost, West, aufwärts und abwärts, jeweils mit Wahrscheinlichkeit 1/6.

Für ein zweidimensionales Gitter kann man zeigen, dass die Wahrscheinlichkeit, irgendwann zum Ursprung zurückzukehren, gleich 1 ist. Stanislaw M. Ulam (1909–1984), besser bekannt als einer der Erfinder der Wasserstoffbombe, hat dieselbe Wahrscheinlichkeit in drei Dimensionen zu 0,35 berechnet. Wenn Sie sich also in der Wüste verirren und ziellos umherlaufen, werden Sie irgendwann auf die Oase treffen, von der Sie aufgebrochen sind. Wenn Sie sich aber im Weltraum verirren, sind Ihre Chancen, zufällig zur Erde zurückzufinden, nur ungefähr 1 zu 3.

Wir markieren nun die sechs Richtungen einer dreidimensionalen Irrfahrt mit den sechs Augenzahlen eines Würfels: Nord 1, Süd 2, Ost 3, West 4, aufwärts 5, abwärts 6. Dann werfen wir wiederholt einen Würfel und lassen einen Punkt sich so durch das dreidimensionale Gitter bewegen, wie der Würfel anzeigt. »Rückkehr zum Ursprung« bedeutet, dass man genauso oft 1 wie 2 gewürfelt hat, genauso oft 3 wie 4 und genauso oft 5 wie 6. Die Wahrscheinlichkeit dafür, dass das irgendwann eintritt, ist also ungefähr 0,35. Die Wahrscheinlichkeit für die stärkere Bedingung, dass alle sechs Zahlen gleich oft gewürfelt werden, ist noch kleiner.

David Kilbridge aus San Francisco gibt sie mit ungefähr 0,022 an. Für Würfel mit 2, 3, 4 oder 5 Seiten betragen die entsprechenden Wahrscheinlichkeiten 1, 1, 0,222 und 0,066. Kilbridge sowie einige andere Leser haben mich auch darauf aufmerksam gemacht, dass Ulams Zahl, die ich dem Standardwerk von William Feller entnommen hatte, nicht ganz richtig ist. Der englische Mathematiker George N. Watson hat 1939 folgenden Wert angegeben: Image. Dabei ist K(z) definiert als 2/π mal das vollständige ellip tische Integral erster Art zum Modul z2. Wollen Sie es noch genauer wissen? Der Zahlenwert ist ungefähr 0,340537329551.

Yuichi Tanaka, ehemaliger Redakteur der japanischen Ausgabe von »Scientific American«, hat mit dem Computer Irrfahrten auf einem vierdimensionalen Gitter durchprobiert, um einen Schätzwert für die Rückkehrwahrscheinlichkeit zum Ursprung zu ermitteln. Nach drei Tagen lieferte sein Programm den Näherungswert 0,193201673. Fühlt sich vielleicht jemand berufen, das durch elliptische Integrale auszudrücken?

Selbst die einfachste eindimensionale Irrfahrt hat viele unvermutete Eigenschaften. Angenommen, Sie legen sich von vornherein auf eine bestimmte, große Anzahl von Würfen fest, sagen wir eine Million, und beobachten nach jedem Wurf, ob Kopf oder Zahl vorn liegt. Wie oft wird Kopf vorne liegen? In der Hälfte aller Würfe, sollte man meinen. Aber in Wirklichkeit ist das der am wenigsten wahrscheinliche Fall. Am wahrscheinlichsten sind die Extreme. Die beiden häufigsten Einzelfälle sind: »Kopf« führt die ganze Zeit, und »Kopf« führt nie!

QUELLE

Feller, W.: An Introduction to Probability Theory and Its Applications 1. Wiley, New York, 3. Auflage 1968

STOCHASTIK
SPIEL MIT DEM ZUFALL

Zufallszahlen sind für vielerlei gut – etwa dazu, den Flächeninhalt kompliziert geformter Figuren zu ermitteln. In vielen Fällen müssen sie allerdings gar nicht wirklich zufällig sein, sondern nur so aussehen. Manchmal funktionieren sogar schlechte Imitate am besten.

Brian Hayes war lange Jahre Verfasser der Kolumne »Computing Science« im »American Scientist«, aus der dieser Artikel stammt. In seinem Blog http://bit-player.org bietet er unter anderem ergänzendes Material zu seinen Kolumnen.

►► spektrum.de/artikel/1135755

AUF EINEN BLICK
ERFOLG MIT PLUMPEN FÄLSCHUNGEN

1 Monte-Carlo-Methoden liefern Näherungslösungen für Probleme, die für eine exakte Lösung zu kompliziert sind, mit scheinbar zufälligen Zahlen, die nach einer festen Rechenvorschrift ermittelt werden.

2 Quasizufallszahlen erwecken nicht einmal mehr den Anschein von Zufälligkeit, liefern aber Verteilungen mit günstigen Eigenschaften und sind daher manchmal ihren echt zufälligen Gegenstücken überlegen.

3 Allerdings gilt das im Normalfall nur für Probleme, deren abstrakter Parameterraum nicht mehr als 20 Dimensionen hat.

Anfang der 1990er Jahre begann Spassimir Paskov im Rahmen seiner Promotion an der Columbia University in New York ein damals neues Finanzinstrument zu analysieren: mit Hypotheken besicherte Wertpapiere (collateralized mortgage obligations, kurz CMOs), die von der Investmentbank Goldman Sachs herausgegeben wurden. Der Doktorand suchte nach einer Möglichkeit, anhand der zu erwartenden künftigen Zahlungsflüsse für tausende Hypotheken mit einer Laufzeit von 30 Jahren den aktuellen Wert solcher Anleihen zu kalkulieren. Dazu genügte es nicht, mit einer Standardformel Zinseszinsen zu berechnen. Hypotheken werden oft vorzeitig abgelöst, etwa beim Verkauf des betreffenden Hauses oder im Zuge einer Umschuldung. Manche Darlehen fallen wegen Zahlungsunfähigkeit des Schuldners aus. Außerdem können die Zinssätze steigen oder sinken. Der gegenwärtige Wert eines CMO entspricht dem zu erwartenden Ertrag über die gesamte Laufzeit von 30 Jahren und wird somit von insgesamt 360 ungewissen, voneinander abhängigen monatlichen Zahlungseingängen bestimmt. Mathematisch gesehen, handelt es sich folglich um eine Art Mittelwert über eine Funktion mit 360 Variablen. Paskov hätte demnach ein Integral im 360-dimensionalen Raum berechnen müssen.

Das schloss eine exakte Lösung des Problems aus. Der Doktorand und sein Betreuer Joseph Traub behalfen sich deshalb mit einem etwas undurchsichtigen Näherungsverfahren: der so genannten Quasi-Monte-Carlo-Methode. Das herkömmliche Monte-Carlo-Verfahren beruht darauf, Rückschlüsse auf den Mittelwert einer Funktion zu ziehen, indem man einige zufällig gewählte Funktionswerte stellvertretend berechnet. Die »Quasi«-Variante unterscheidet sich in der Art der Stichprobe: Sie ist nicht rein zufällig, aber auch nicht regelmäßig. Wie Paskov und Traub herausfanden, lieferten einige ihrer Quasi-Monte-Carlo-Programme erheblich genauere Ergebnisse und waren dabei sogar schneller als das traditionelle Verfahren. So lag der Wert eines CMO nicht erst nach einer mehrstündigen Berechnung vor, sondern innerhalb weniger Minuten.

Image

Den Flächeninhalt einer komplizierten Figur – hier eines Ahornblatts (ganz links) – näherungsweise zu bestimmen, gehört zu den klassischen Anwendungen der Monte-Carlo-Methode. Die grundlegende Idee besteht darin, Punkte auf einem Quadrat mit der Figur in der Mitte zu verteilen und zu zählen, wie viele davon innerhalb des Blatts liegen (gelb) und wie viele es verfehlen (blau). Das Verhältnis der Treffer zur Gesamtzahl der Punkte – hier 1024 – gibt den ungefähren Flächeninhalt der Figur an. Bei der herkömmlichen Monte-Carlo-Methode (halb links) werden die Punkte zufällig über das Quadrat verteilt. Das Gegenteil wäre eine streng deterministische Anordnung in einem regelmäßigen Gitter (halb rechts). Die Quasi-Monte-Carlo-Methode (ganz rechts) beruht auf einem Stichprobenmuster, das eine ausgewogene Verteilung der Punkte anstrebt, ohne dass diese ein zufälliges oder regelmäßiges Muster bilden. Die drei Methoden ergeben für den Flächeninhalt Näherungswerte von 0,4189, 0,4209 und 0,4141 der Quadratfläche, was durchweg weniger als ein Prozent vom tatsächlichen Wert 0,4185 abweicht.

Erklärt das die anschließende irrationale Euphorie auf den Finanzmärkten, den Irrsinn des bedenkenlosen Handelns mit komplexen Derivaten und seine traurigen Folgen – Krise, Kollaps, Rezession, Arbeitslosigkeit? So einfach war es leider nicht, für den Wahn gab es andere Gründe.

Auf dem Feld der Mathematik jedoch hatte das Ergebnis von Paskov und Traub sehr wohl Konsequenzen: Quasi-Monte-Carlo-Modelle kamen dadurch unverhofft zu neuem Ansehen. Nach früheren theoretischen Untersuchungen sollten sie ab 10 bis 20 Dimensionen unbrauchbar werden, also weit unterhalb der hier betrachteten 360. Der überraschende Erfolg bei den CMOs spornte die Mathematiker zur Suche nach einer Erklärung an. Vor allem erhob sich die Frage, ob die Methode auch bei anderen Problemen funktionieren könnte.

Das Beispiel illustriert die seltsam zwiespältige Rolle des Zufalls bei Berechnungen. Algorithmen sind ihrem Wesen nach streng deterministisch, viele von ihnen scheinen aber durchaus von der Möglichkeit zu profitieren, ab und zu für eine benötigte Entscheidung auch mal eine Münze zu werfen. Bei tatsächlichen Berechnungen sind die Zufallszahlen allerdings so gut wie niemals wirklich zufällig, weil ein Computer sie ermittelt. Es handelt sich also um kunstvolle Fälschungen, die zwar wie erwürfelt aussehen und sogar statistische Tests bestehen sollen, aber trotzdem aus einer deterministischen Quelle stammen. Erstaunlich daran ist, wie hervorragend diese Pseudozufallszahlen funktionieren – zumindest in der Mehrzahl der Fälle.

Mathematik mit Pfeilwürfen

Quasizufallszahlen treiben die Scharade noch einen Schritt weiter: Sie geben nicht einmal vor, zufällig zu sein. Trotzdem scheinen sie in manchen Situationen, die nach Zufall verlangen, sehr gute Ergebnisse zu liefern. Unter bestimmten Umständen – wie im Fall der CMOs – leisten sie sogar mehr als ihre pseudozufälligen Gegenstücke.

Ein simples Beispiel soll den Unterschied zwischen »pseudo« und »quasi« klarmachen. Es gelte, den Flächeninhalt einer komplizierten Figur – etwa eines Ahornblatts – zu bestimmen. Die Aufgabe lässt sich mit einem auf Zufall basierenden Trick lösen. Dazu heftet man das Blatt auf ein Stück Papier bekannter Größe und bewirft Letzeres ungezielt mit Pfeilen. Wenn von N Geschossen, die auf das Papier treffen, n innerhalb des Blatts landen, gibt der Quotient n : N näherungsweise das Verhältnis der Blatt- zur Papierfläche an.

Echte Pfeile ungezielt zu werfen, ist sehr aufwändig und nicht ganz ungefährlich. Ersetzen wir aber Pfeile durch Punkte und überlassen deren zufällige Platzierung auf der Vergleichsfläche einem Computer, dann geht die Sache ganz einfach und dabei auch noch erstaunlich präzise.

Ich habe das Verfahren mit einem echten Ahornblatt ausprobiert. Ich setzte ein Foto von ihm in ein weißes Quadrat aus 1024·1024 Pixeln, auf dem ein kleines Programm zufällig – in Wirklichkeit natürlich nur pseudozufällig – 1024 Punkte verteilte. Beim ersten Versuch landeten 429 von ihnen im Blatt, was 0,4189 als Näherungswert für den Flächeninhalt lieferte. Als ich alle grünen Pixel im Feld auszählte, erhielt ich fast dasselbe Ergebnis: 0,4185. Offenbar hatte ich einen Glückstreffer gelandet. 1000 Versuche ergaben einen Mittelwert von 0,4183 mit einer Standard-abweichung von 0,0153.

Je größer N, desto besser wird die Näherung. Strebt die Menge der Punkte gegen unendlich, ergibt sich als Grenzwert die tatsächliche Lösung. Dahinter steckt ein mathematisches Theorem: das berühmte Gesetz der großen Zahlen. Es garantiert auch, dass eine ideale Münze in der Hälfte aller Fälle »Zahl« zeigt, sofern sie nur oft genug geworfen wird.

Das Beispiel illustriert die Grundidee des Monte-Carlo-Verfahrens. Man kleidet ein mathematisches Problem, das zu kompliziert ist, um sich exakt lösen zu lassen, so in die Form eines Glücksspiels, dass die Gewinnchance des Spielers gleich der Lösung ist. Ein Computer wiederholt das Spiel dann sehr oft für immer andere zufällig gewählte Parameter. Das gemittelte Ergebnis ist ein guter Schätzwert für die gesuchte Größe.

Der Zufall spielt dabei eine entscheidende Rolle. Das Gesetz der großen Zahlen gilt ja nur, wenn die Werte der Parameter tatsächlich zufällig gewählt werden. Beim Ahornblatt ist so gewährleistet, dass die Punkte wahllos darüber verstreut sind. Allerdings fragt sich, ob nicht auch andere Methoden, Punkte für die Stichprobe auszusuchen, denselben Zweck erfüllen würden. Schließlich könnte man die Blattfläche genauso bestimmen, indem man ein Gitter auf das Quadrat legt und die Kästchen innerhalb des Blatts zählt. Ich habe das ebenfalls probiert und dazu ein 32×32-Raster mit 1024 Kästchen benutzt. Für den Inhalt der Fläche ergab sich ein Näherungswert von 0,4209 – nicht ganz so gut wie bei meinem Glückstreffer mit Zufallszahlen, aber immerhin weniger als 0,6 Prozent vom tatsächlichen Wert entfernt.

Zuletzt habe ich mit 1024 quasizufälligen Punkten die Blattfläche vermessen. Diese ergeben eine Verteilung, die irgendwo in der Mitte zwischen totalem Chaos und vollkommener Ordnung liegt. Dadurch füllen sie im zweidimensionalen Fall eine Fläche gleichmäßiger aus als echte Zufallszahlen, aber bei Weitem nicht so regelmäßig wie die Punkte eines Gitters. Berechnet werden sie mit mehr oder weniger komplizierten mathematischen Verfahren; das älteste hat schon in den 1930er Jahren der niederländische Mathematiker Johannes G. van der Corput (1890 – 1975) erdacht (siehe »Ein Rezept für Quasizufallszahlen«). Diesmal ergab die Trefferzählung einen Näherungswert von 0,4141 bei einem Fehler von einem Prozent.

Der Fluch der hohen Dimensionen

Jede der drei Vorgehensweisen liefert also ein zufrieden stellendes Resultat. Sind somit alle in etwa gleich gut? Im Allgemeinen nicht. Sie haben nur in diesem Fall ähnlich gut abgeschnitten, weil es ziemlich einfach ist, den Inhalt einer zweidimensionalen Figur zu bestimmen.

In höheren Dimensionen wird die Aufgabe deutlich schwieriger. Um zu verstehen, warum, betrachten wir einen Würfel mit der Kantenlänge 1 samt einem kleineren, dessen Kanten die Länge ½ haben sollen (Bild rechts). Im eindimensionalen Fall besteht ein solcher »Würfel« einfach aus einer Strecke, und sein »Volumen« entspricht deren Länge. Folglich nimmt der kleine Würfel das halbe »Volumen« des größeren ein. Bei zwei Dimensionen handelt es sich um ein Quadrat mit dem Flächeninhalt als »Volumen«. Der kleinere Würfel hat dann das »Volumen« ¼. In drei Dimensionen haben wir es mit dem uns vertrauten Würfel zu tun; das Volumen des kleineren beträgt nun ⅛. So nimmt der Unterschied im Inhalt bei höheren Dimensionen d immer weiter zu. Bei d 20 ist das Volumen des kleineren »Würfels« – dessen Kanten weiterhin alle die Länge ½ haben – auf weniger als ein Millionstel geschrumpft! Der Mathematiker Richard Bellman (1920–1984) bezeichnete dieses Phänomen als »Fluch der hohen Dimensionen«.

2020dd