Der eigentliche Aufgabenbereich einer Regressionsanalyse ist es, Zusammenhänge und Beziehungen zwischen Variablen zu beschreiben. Damit es sich um eine Regressionsanalyse handelt, muss von diesen Variablen eine unabhängig sein, die andere(n) abhängig, also durch die Veränderung der ersten beeinflusst. Mit der Regressionsanalyse kann man nun die Stärke eines solchen Zusammenhanges ermitteln (eben: analysieren) und zusätzlich kann man auch die Werte einer abhängigen Variable prognostizieren.
Es gibt übrigens ziemlich viele Arten der Regressionsanalyse: Median-Regression, Methode der kleinsten Quadrate, die lineare Regression, die nichtparametrische Regression und noch ein paar mehr.
Alle Arten gemeinsam ist, dass ihre Anwendungen hauptsächlich in den Bereich Vorhersage oder Messung der Stärke eines Zusammenhanges von Variablen fallen.
Die Geschichte der Regressionsanalyse
1760 entwickelte Rugjer Jusip Boković (1711 – 1787, kroatischer Mathematiker, Priester, Physiker, Astronom, Dichter, Techniker, Philosoph etc.) die Median Regression, die als robustes Schätzverfahren für Abweichungen und Abhängigkeiten eingesetzt wird (Methode der kleinsten absoluten Abweichungen). Die heute bekannteste Regressionsanalyse, die der Methode der kleinsten Quadrate wurde 1809 von Gauß veröffentlicht (genau: von dem mit der Normalverteilung). Entwickelt hatte er die Methode, um Umlaufbahnen von Planeten um die Sonne zu berechnen (Eine nette Geschichte am Rande: 1801 entdeckte Giuseppe Piazzi den Zwerplaneten Ceres. 40 Tage lang konnte er dessen Bahn beobachten, dann verschwand das verflixte Teil hinter der Sonne. Jahrelang versuchten Wissenschaftler nun, aufgrund der Daten die vorlagen eine vollständige Umlaufbahn zu berechnen – und scheiterten. Erst Gauß war in der Lage mit der Methode der kleinsten Quadrate eine elliptische Umlaufbahn zu berechnen. Gauß war damals übrigens 24 Jahre alt – nur mal so. Dass Gauß recht hatte, bewies Ceres höchstselbst, als er nämlich zu einem vorberechneten Zeitpunkt genau da am Himmel wieder auftauchte, den Gauß mit dieser Methode vorausberechnet hatte).
Nach Gauß kümmerte sich unter anderem noch Karl Pearson (der mit dem Pearson’schen Korrelationskoeffizienten) um die Regressionsanalyse. Tatsächlich wird auch heute noch nach neuen, verfeinerten Methoden der Regressionsanalyse geforscht – vor allem im Bereich der bayesianischen Interferenz (interessiert hier keinen, musste aber mal gesagt werden – das ist übrigens Wahrscheinlichkeitstheorie und basiert und besagt – das ist das Byes-Theorem – folgendes:
„Für zwei Ereignisse A und B mit P(B)>0 lässt sich die Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist, durch die Wahrscheinlichkeit von B unter der Bedingung, dass A eingetreten ist, errechnen.“
(Quelle: Wikipedia – ich würde ja gerne sagen, dass ich das auch so wusste… hab ich aber nicht).