Bei der Auswertung wissenschaftlicher Untersuchungen spielt die Statistik eine entscheidende Rolle. Sie legt offen, was auf den ersten Blick möglicherweise gar nicht so offensichtlich ist. Statistische Tests gibt es viele und je nach Versuchsaufbau und Parameteranzahl wählt man die Tests aus, die dafür geeignet sind.
Im optimalen Fall gibt es eine große Zahl an Stichproben in einem Versuch. Stichproben, genannt n, sind die Versuchsobjekte, die getestet wurden. Versuche mit nur wenigen Stichproben sind meist nicht sonderlich signifikant – übrigens ein Wort, das für einen Statistiker so wichtig ist wie der Begriff Geld für einen Kapitalisten. Was ein Statistikprogramm dabei eigentlich prüft, ist die Wahrscheinlichkeit, mit der die Nullhypothese abgelehnt werden kann. Die Nullhypothese ist gewissermaßen das Gegenteil der Hypothese, es würde ihr zufolge also nicht das eintreten, was man untersuchen will. Ist die Nullhypothese mit einer Wahrscheinlichkeit von mehr als 95 Prozent abzulehnen, gilt der Versuch als signifikant – sprich, die Hypothese des Wissenschaftlers hat sich als richtig herausgestellt. Ab einer Wahrscheinlichkeit von 99 Prozent spricht man dann von hoch signifikant.
Nur die Statistik berechnet also korrekt und nachvollziehbar, was die Ergebnisse eines Versuchs also wirklich aussagen und was nicht. Sie ist deshalb auch der Gegner jeder subjektiven Erwartung, denn selbst vielversprechende Ergebnisse müssen einem Statistiktest nicht standhalten.