Stellen Sie sich vor, man bietet Ihnen folgende Wette an: Sie wählen ein beliebiges Buch mit Zahlentabellen aus, z.B. den Fischer Weltalmanach von 1999. Auf einer zufällig aufgeschlagenen Seite werden die ersten Ziffern jeder dort angegebenen Zahl betrachtet und gezählt, wobei führende Nullen ignoriert werden. Für jede der Ziffer zwischen Eins und Drei erhält Ihr Wettpartner einen Euro, für jede der verbleibenden Ziffern von Vier bis Neun erhalten Sie selbst den gleichen Geldbetrag. Das Angebot wirkt günstig, und man wäre geneigt sich eine Gewinnchance von 2/3 einzuräumen.
Zufällig wählt man die Seite mit den Spalten 1065/1066. Hier ist die Jahresproduktion ausgewählter Agrarerzeugnisse (Tabak, Tee und Wein) in Mio. Tonnen abgedruckt. Die 54 Einträge der Doppelspalte enthalten nur 19 erste Ziffern zwischen Vier und Neun. Statt des erhofften Gewinns stellt sich ein Verlust von 16 Euro ein. An Manipulation ist nicht zu denken, waren doch das Buch und die Seite zufällig und selbst gewählt.
Man war jedoch intuitiv von einer Gleichverteilung der ersten Ziffern zwischen Eins und Neun ausgegangen. Tatsächlich ergab sich nicht die gleichverteilte relative Häufigkeit von 33.3% für die Ziffern von Eins bis Drei, sondern fast 65%.
Bereits 1881 entdeckte der Astronom Simon Newcomb ein ähnliches Phänomen. Er bemerkte, dass die vorderen Seiten einer Logarithmentabelle weitaus gebrauchter waren als die hinteren 5. In einer kurzen Notiz zeigte er, dass »the law of probability of the occurrence of numbers is such that all mantissae of their logarithms are equally probable« (Newcomb 1881, S. 40).
Dies führt – wenn auch nicht direkt ersichtlich zu einer Häufigkeit von log(1 + 1/d ) für jede erste Ziffer d zwischen Eins und Neun. Diese Beobachtung blieb weitgehend unbeachtet bis 1938 Frank Benford die gleiche Entdeckung machte. Im Gegensatz zu Newcomb beließ Benford es nicht bei Logarithmentafeln, sondern untersuchte eine Vielzahl verschiedenster Tabellen. Insgesamt zählte er über 20.000 erste Ziffern und fand immer wieder obiges Wettresultat: Die Häufigkeit der ersten signifikanten Ziffern nahm von der Eins mit über dreißig Prozent, der Ziffer Zwei mit ca. 17 % bis hin zur Neun mit 4 % ab.
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
30,1% | 17,6 | 12,5% | 9,7% | 7,9% | 6,7% | 5,8% | 5,2% | 4,6% |
Benford vermutete eine Gesetzmäßigkeit und nannte die Entdeckung »law of anomalous numbers«, wobei Benford bemerkt, dass es sich hierbei um eine Verteilung von Ereignissen handelt, die durch das Medium der Zahl beschrieben werden: »It is not a law of numbers in themselves« (Benford 1938, S. 554).
Peter N. Posch hat die Zusammenhänge genauer untersucht und herausgearbeitet, welche Zahlen aufgrund welcher Umstände besonders häufig anzutreffen sind und umgekehrt welche unwahrscheinlich sind. Ein einfaches Instrument, um beispielsweise Steuererklärungen auf Genauigkeit zu überprüfen. Sind viele unwahrscheinliche Zahlen vertreten, dann besteht eine gewisse Wahrscheinlichkeit, dass nicht genau gerechnet wurde.
Prof. Dr. Peter N. Posch von der Universität Ulm ist auch von dem VEW Konzept überzeugt:
Die Ziffernanalyse ist ein neues, stark wachsendes Forschungsgebiet mit grosser praktischer Relevanz. So werden bereits heute Steuererklärungen mit dem Verfahren der ersten Ziffern auf Fälschungen überprüft. Ich halte es für wichtig, daß die Grundlagen und die benutzen Verfahren für jedermann zugänglich sind. Diese Möglichkeit bietet mir der Verlag Europäischer Wirtschaft mit dem Höffner’schen Verlagskonzept. Ich hoffe durch die freie Verfügbarkeit der Diskussion und der Weiterentwicklung auf diesem Feld Vorschub zu leisten.
Weiter zum Buch: Ziffernanalyse