Gesetz der ungewöhnlichen Zahlen

Stellen Sie sich vor, man bietet Ihnen folgende Wette an:  Sie wählen ein  beliebiges Buch mit Zahlentabellen aus, z.B. den Fischer Weltalmanach  von 1999. Auf einer zufällig aufgeschlagenen Seite werden die ersten  Ziffern jeder dort angegebenen Zahl betrachtet und gezählt, wobei führende Nullen ignoriert werden. Für jede der Ziffer zwischen Eins und Drei erhält Ihr Wettpartner einen Euro, für jede der verbleibenden  Ziffern von Vier bis Neun erhalten Sie selbst den gleichen Geldbetrag. Das Angebot wirkt günstig, und man wäre geneigt sich eine Gewinnchance von 2/3 einzuräumen.

Zufällig  wählt man die Seite mit den Spalten 1065/1066. Hier ist die Jahresproduktion ausgewählter Agrarerzeugnisse (Tabak, Tee und Wein) in Mio. Tonnen abgedruckt. Die 54 Einträge der Doppelspalte enthalten nur 19 erste Ziffern zwischen Vier und Neun. Statt des erhofften Gewinns stellt sich ein Verlust von 16 Euro ein. An Manipulation ist nicht zu denken, waren doch das Buch und die Seite zufällig und selbst gewählt.

Man war jedoch intuitiv von einer Gleichverteilung der ersten Ziffern zwischen Eins und Neun ausgegangen. Tatsächlich ergab sich nicht die gleichverteilte relative Häufigkeit von 33.3% für die Ziffern von Eins bis Drei, sondern fast 65%.

Bereits 1881 entdeckte der Astronom Simon Newcomb ein ähnliches Phänomen. Er bemerkte, dass die vorderen Seiten einer Logarithmentabelle weitaus gebrauchter waren als die hinteren 5. In einer kurzen Notiz zeigte er, dass »the law of probability of the occurrence of numbers is such that all mantissae of their logarithms are equally probable« (Newcomb 1881, S. 40).

Dies führt – wenn auch nicht direkt ersichtlich  zu einer Häufigkeit von log(1 + 1/d ) für jede erste Ziffer d zwischen Eins und Neun. Diese Beobachtung blieb weitgehend unbeachtet bis 1938 Frank Benford die gleiche Entdeckung machte. Im Gegensatz zu Newcomb beließ Benford es nicht bei Logarithmentafeln, sondern untersuchte eine Vielzahl verschiedenster Tabellen. Insgesamt zählte er über 20.000 erste Ziffern und fand immer wieder obiges Wettresultat:  Die Häufigkeit der ersten signifikanten Ziffern nahm von der Eins mit über dreißig Prozent, der Ziffer Zwei mit ca. 17 % bis hin zur Neun mit 4 % ab.

1 2 3 4 5 6 7 8 9
30,1% 17,6 12,5% 9,7% 7,9% 6,7% 5,8% 5,2% 4,6%

Benford vermutete eine Gesetzmäßigkeit und nannte die Entdeckung »law of anomalous numbers«, wobei Benford bemerkt, dass es sich hierbei um eine Verteilung von Ereignissen handelt, die durch das Medium der Zahl beschrieben werden: »It is not a law of numbers in themselves« (Benford 1938, S. 554).

Peter N. Posch hat die Zusammenhänge genauer untersucht und herausgearbeitet, welche Zahlen aufgrund welcher Umstände besonders häufig anzutreffen sind und umgekehrt welche unwahrscheinlich sind. Ein einfaches Instrument, um beispielsweise Steuererklärungen auf Genauigkeit zu überprüfen. Sind viele unwahrscheinliche Zahlen vertreten, dann besteht eine gewisse Wahrscheinlichkeit, dass nicht genau gerechnet wurde.

Formel aus dem Buch von Peter N Posch


Prof. Dr. Peter N. Posch von der Universität Ulm ist auch von dem VEW Konzept überzeugt:

Die Ziffernanalyse ist ein neues, stark wachsendes  Forschungsgebiet mit  grosser praktischer Relevanz. So werden bereits  heute Steuererklärungen mit dem Verfahren der ersten Ziffern auf  Fälschungen überprüft. Ich halte es für wichtig, daß die Grundlagen und  die benutzen Verfahren für jedermann zugänglich sind. Diese Möglichkeit  bietet mir der Verlag Europäischer Wirtschaft mit dem Höffner’schen Verlagskonzept. Ich hoffe durch die freie Verfügbarkeit der Diskussion  und der Weiterentwicklung auf diesem Feld Vorschub zu leisten.


Weiter zum Buch: Ziffernanalyse

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert