Dies ist meine private Diplomklausurvorbereitung-Endzusammenfassung,
und ich kann für Richtigkeit nicht 100%ig garantieren!
Wenn euch dieser Text nützlich erscheint, würde ich mich
über ne gaaanz kurze E-Mail freuen.
Um von Wahrheit sprechen zu können, müssen drei Voraussetzungen erfüllt sein:
1. Der Sachverhalt, der als wahr klassifiziert wird, darf nicht empirisch sein. Bei den Begriffen "Stuhl" oder "Waschmaschine" stellt sich die Frage nach der Wahrheit nicht.
2. Die Sprache muß eindeutig sein. Das wiederum setzt voraus, daß die Sprachelemente im vornherein eindeutig definiert sind.
3. Ein Problembezug muß vorliegen, d.h. Theorie muß sich auf Probleme, nicht Sachen, beziehen.
Wahrheit im Sinne der analytischen Wissenschaftsheorie bedeutet nicht Letztbegründung, nicht endgültige Wahrheit.
Die Korrespondenztheorie der Wahrheit gibt eine äußerst einfache
Antwort auf die Frage, wann eine Aussage die Eigenschaft habe, wahr zu sein:
Eine Aussage ist genau dann wahr, wenn sie mit den Sachverhalten, auf die sie
sich bezieht, übereinstimmt, wenn sie also mit ihnen
korrespondiert. Eine Meta-Aussage ist eine Aussage über einen
Sachverhalt, der selbst eine Aussage ist, deren Übereinstimmung mit jenem
Sachverhalten festgestellt werden soll.
Unmittelbar mit dem Empirismus ist das Experiment als Methode entwickelt
werden, das universelle Gesetzesaussagen der Art "Wenn a eintrifft, folgt
daraus B" ermöglichen soll.
Die erste Annahme der Induktivisten ist es, daß Beobachtung
sicherere Grundlage für den Aufbau wissenschaftlicher Erkenntnis ist.
Beobachtung wird nicht im Sinne von "Hinsehen" verstanden, Beobachtung im Sinne
der Induktivisten impliziert, daß keine vorgefaßten Meinungen,
Theorien, keine Stereotypen Einfluß finden. Beobachtung soll theoriefrei
sein. Induktivismus richtet sich also gegen vorgefaßte Theorien.
Die zweite Annahme der Induktivisten besagt, daß wissenschaftliche
Erkenntnis aus den Beobachtungsaussagen induktiv abgeleitet wird.
Die dritte. Annahme der Induktivisten legt fest, daß keine
Beobachtungsaussage im Widerspruch zu dem entsprechenden Gesetz stehen darf.
Das Prinzip des Induktivismus ist es, von wenigen beobachteten
Fällen auf viele zu schließen. Das Induktionsprinzip für den
naiven, konventionellen Induktivismus läßt sich folgendermaßen
definieren: Wenn eine große Anzahl A's unter einer großen Vielfalt
von Bedingungen beobachtet wird, und wenn alle diese beobachteten A's ohne
Ausnahme die Eigenschaft B' besitzen, dann besitzen alle A's die Eigenschaft B.
Als induktives Schließen bezeichnet man also, wenn man aus einer
begrenzten Anzahl von Einzelaussagen zu einer allgemeinen Aussage kommt.
Die Induktionsstatistik weiß nichts über die Grundgesamtheit,
versucht aber, auf sie zu schließen, was nicht funktionieren kann: Der
Schluß von endlich auf unendlich ist nicht möglich.
Induktivisten behaupten, daß die induktivistische Beweisführung bei
vielen Beispielen, z.B. in der Optik, erfolgreich angewendet wurde. Sie
behaupten:
Das Induktionsprinzip war erfolgreich bei der Gelegenheit x1
Dieser Beweis an sich aber ist induktiv und kann nicht angewendet werden, um
das Induktionsprinzip zu rechtfertigen. Induktivismus, der bewiesen werden
soll, wird vorausgesetzt. Dieses Problem heißt Induktionsproblem.
1. Wissenschaft beginnt nicht mit Beobachtungsaussagen, weil ihnen allen
irgendeine Theorie vorausgeht. Es existiert keine Theoriefreiheit, jede
Beobachtung beruht auf Umwandlung psychologischer Wahrnehmungsprozesse, Denken
spielt eine zentrale Rolle in vorbewußten Teil der Wahrnehmung. Die
Theorie geht der wissenschaftlichen Wahrnehmung voraus, Beobachtung und
Experimente werden ausgeführt, um eine Theorie zu überprüfen.
2. Beobachtungsaussagen bilden, da sie fehlbar sind, keine sichere Grundlage,
auf der wissenschaftliche Erkenntnis aufgebaut werden kann
Die Induktivisten schreiben den Beobachtungsaussagen also einen falschen
Stellenwert zu.
2. das Induktionsprinzip wird als unmittelbar einleuchtend, als
selbstverständlich betrachtet.
Induktion als Grundlage der Wissenschaft wird in Abrede gestellt, es wird
nachgewiesen, daß wissenschaftliche Induktion nicht notwendig ist (macht
z.B. Karl Popper)
Nicht die Wahrheit von Theorien wird beweisen, sondern die Falschheit. Theorien
können als falsch nachgewiesen werden, wenn entsprechende Befunde
aus Beobachtung und Experiment vorliegen: die Falschheit von allgemeinen
Aussagen kann von entsprechenden Einzelaussagen abgeleitet werden. Jede
wissenschaftliche Hypothese muß falsifizierbar sein.
Theorien sind spekulative und vorläufige Vermutungen, die der
Mensch bei dem kühnen Versuch entwirf, Probleme, die vorangegangene
Theorien aufgeworfen haben, zu überwinden und um eine adäquate
Erklärung des Verhaltens einiger Aspekte der Welt oder des Universums zu
erhalten.
Spekulative Theorien müssen rigoros und nach strengen Kriterien durch
Beobachtung und Experiment überprüft werden.
1.2
Empirismus im angelsächsischen Raum:
Die Vertreter des angelsächsischen Empirismus (John Locke, David Hume)
behaupten, daß man letztlich nur durch Erfahrung, d.h. Sinneswahrnehmung
auf induktivem Wege zu Wissen kommen könnte. Erkenntnis ist nur a
posteriori möglich, also erst, nachdem unverzerrte, reine Erfahrungen
gemacht wurden. Sinneswahrnehmungen durch Beobachtungen und Experimente bilden
die Basis des Wissens. Der klassische Empirismus verzichtet also auf
vorformulierte Theorien, er versucht, ohne metaphysische Grundlage die Welt in
Sprache zu überführen und dann zu manipulieren, also Einfluß
auf die Welt zu nehmen.1.3 Der Rationalismus in Frankreich
Die Vertreter des Rationalismus (Decarte, von Leibnitz) sind demgegenüber
der Ansicht, daß Wissen über die Welt letztlich durch klares,
vernünftiges Denken, also durch reine Spekulation Intellektualismus),
gewonnen werden könne. Die Grenzen der Erfahrungswelt könnten
gewissermaßen überschritten werden, weil es (vornehmlich in einem
metaphysischen Sinne) angeborene Ideen gebe. Erkenntnis sei a priori
möglich, also vor jeder Erfahrung. Von den intuitiv erfaßten
allgemeinen Wahrheiten, den Prinzipien könne man auf deduktive Weise zu
weiteren Erkenntnissen gelangen.
2 Induktivismus
Die Grundlage des naiven Induktivismus ist die Beobachtung. Konventionelle,
naive Induktivisten gehen von drei Annahmen aus.
2.1.1
Kritik am Induktivismus
Das Induktionsprinzip kann nicht mit Hilfe der Logik begründet
werden, es ist nicht logisch, sondern psychologisch. Induktive Aussagen sind
keine logisch gültigen Beweise, bei n Beobachtungen gibt es keinen
logischen Beweis, daß die (n+1)-et Beobachtung nicht völlig anders
ist. er Induktionsschluß ist somit sachlich falsch.
Das Induktionsprinzip war erfolgreich bei der Gelegenheit x2
Das Induktionsprinzip ist immer erfolgreich
2.1.2
Kritik: Induktivismus und Beobachtung
Der Induktivist hat in Bezug auf die Annahme der "theoriefreien Beobachtung" in
zweierlei Hinsicht unrecht:
2.1.3
Lösungsansätze für das Induktionsproblem
1. "skeptischer Ansatz": Wir nehmen an, daß Wissenschaft auf Induktion
beruht und Induktion nicht logisch erschlossen werden kann. Wissenschaft ist
insgesamt nicht rational zu rechtfertigen, der Glaube an Gesetze und Theorien
ist nichts weiter als pure Gewohnheit, die durch die Wiederholungen
entsprechender Beobachtungen entstehen.
3 Konventioneller/naiver Falsifikationismus
3.1
Grundlagen
Der Falsifikationismus geht davon aus, daß Beobachtung theoriegeleitet
ist und Theorie voraussetzt. Er verzichtet auf den Anspruch, daß
Theorien auf der Basis von Beobachtung als wahr oder wahrscheinlich wahr
betrachtet werden können, so überwindet er die Probleme des
Induktivismus.
3.1.1
Falsifizierbarkeit, Eindeutigkeit und Präzision
Hohe falsifizierbare Theorien sollten weniger falsifizierbaren vorgezogen werden, vorausgesetzt, sie werden nicht tatsächlich falsifiziert.
Theorien, die falsifiziert werden, müssen grundsätzlich
zurückgewiesen werden. Wissenschaft besteht darin, hoch falsifizierbare
Hypothesen vorzuschlagen, sowie hartnäckig und ganz bewußt zu
versuchen, sie zu falsifizieren. Theorien müssen eindeutig und
präzise formuliert sein, um sie dem Risiko der Falsifizierbarkeit
unterwerfen zu können.
3.1.2
Falsifikationismus und wissenschaftlicher Fortschritt
Wissenschaft macht Fortschritte durch Versuch und Irrtum, durch
Vermutungen und Widerlegungen. Nur die besten Theorien überleben.
Falsifikationisten verstehen unter dem Fortschritt der Wissenschaft den
Kreislauf von der Erstellung von falsifizierbaren Hypothesen
Überprüfung bei erfolgter Falsifizierung ist ein neues Problem
aufgetaucht, das bereits ein Stück weiter vom Ausgangsproblem entfernt ist
neue Hypothesen müssen wg. des neuen Problems aufgestellt werden neue
kritische Überprüfung usw.
Für den Falsifikationisten besteht wissenschaftliche Tätigkeit also aus dem Versuch, Theorien zu falsifizieren, indem das Zutreffen von Beobachtungsaussagen nachgewiesen wird, die mit den Theorien unvereinbar sind.
Man kann niemals von einer Theorie behaupten, daß sie wahr ist, wie gut
sie auch rigoroser Überprüfung standgehalten hat, aber es kann
hoffentlich gesagt werden, daß eine gegenwärtige Theorie der
vorangegangenen in dem Sinne überlegen ist, daß sie den
Überprüfungen standhalten kann, durch die die vorherigen falsifiziert
werden.
3.1.3
Ad hoc-Modifikationen
Ad hoc-Modifikationen sind Modifikationen einer Theorie, wie das
Hinzufügen einer zusätzlichen Annahme oder eine Veränderung
irgendeiner bestehenden Annahme, die keine weiteren überprüfbaren
Konsequenzen hat als die nicht modfizierte Theorie.
Falsifikationen schließen Ad-hoc-Modifikationen aus, weil Fortschritt in
den Augen der Falsifikationisten ein Mehr an Informationen, eine umfassendere
Theorie, voraussetzt. Ad-Modifikationen schränken die Theorie aber ein.
Ad-hoc-Modifikationen führen zu keinen neuen Überprüfungen.
3.1.4
Bewährung im Falsifikationismus
Fortschritt im Sinne der Falsifikationisten bedeutet, daß auch kühne
Vermutungen vorgeschlagen werden können, die in hohem Maße
falsifizierbar sind, gefolgt von rigorosen Versuche, die neuen Vorschläge
zu falsifizieren. Ad-hoc-Hypothesen sollen verworfen werden.
3.1.5
Kühnheit, Neuartigkeit und Hintergrundwissen
Eine Vermutung ist kühn, wenn dasjenige, was sie behauptet, angesichts des
Hintergrundwissens dieser Zeit unwahrscheinlich ist.
Die Bewährung einer kühnen Vermutung hat die Falsifikation eines
Teils des Hintergrundwissens zur Folge, hinsichtlich dessen die Vermutung
kühn war.
3.1.6
Unhaltbarkeit des naiven Falsifikationismus
Der naive Falsifikationismus ist unhaltbar, er beruht auf zwei falschen
Annahmen:
Die erste Annahme lautet, daß es eine natürliche, psychologische Grenze zwischen theoretischen, spekulativen Sätzen auf der einen Seite und empirischen oder Beobachtungssätzen (oder Basissätzen) auf der anderen Seite gibt. Diese Annahme ist falsch, es gibt und kann keine Wahrnehmung geben, die nicht von Erwartungen durchsetzt ist, und deshalb gibt es auch keine natürliche (d.h. psychologische) Abgrenzung zwischen Beobachtungssätzen und theoretischen Sätzen".
Die zweite Annahme besagt, daß ein Satz, der das psychologische Kriterium der Faktizität oder des Beobachtungcharakters (Basischarakters) befriedigt, auch wahr ist, man kann sagen, daß er durch Tatsachen bewiesen wurde. Aber: Keine Tatsachenaussage kann jemals auf Grund eines Experiments bewiesen werden, Sätze lassen sich nur aus anderen Sätzen herleiten, aus Tatsachen und Erfahrungen folgen sie nicht. Da Tatsachenaussagen unbeweisbar sind, sind sie auch fehlbar. Alle Sätze der Wissenschaft sind theoretisch und fallibel."
Aber auch der klassische Falsifikationismus schlägt vor, Theorien aufgrund unumstößlicher empirischer Daten zu prüfen, was logisch problemlos zu sein scheint. Nur, wenn wahre Beboachtungsaussagen gegeben sind, dann ist es möglich, die Falschheit von allgemeinen Aussagen logisch abzuleiten.
Sätze können also durch Erfahrung als wahr festgestellt werden. Erfahrung beruht aber auf Beobachtung, so daß sich wiederum die Frage stellt, ob und wie Beobachtungssätze eine sichere Basis bilden können. Jede Beobachtung ist von fehlbar (Begründung: siehe Induktivismus). D.h., wenn eine Theorie oder ein Teilaspekt einer Theorie mit einer Beobachtungsaussage im Widerspruch steht, kann folgerichtig auch die Beobachtungsaussage falsch sein.
Wie also kann man den Einsatz von Beobachtungssätzen rechtfertigen? Die Antwort der Begründungsphilsophen lautet, daß man annimmt, daß es gewisse Arten von Beobachtungssätzen gibt, deren Wahrheit mit Gewißheit erkannt werden kann. Basissätze werden also durch Konvention der scientific communitic festgelegt.
Dagegen spricht, daß Wahrnehmungserlebnisse sprachlich formuliert werden müssen, damit sie für die Wissenschaft verwendbar und intersubjektiv kritisierbar sind. Sprache bringt aber bereits einen begrifflichen Rahmen mit sich. Und: Wenn die Theorien, die notwendig sind, um die (verbalisierten Beobachtungen gleich) Meßinstrumente konstruieren zu können, fallibel sind, dann müssen auch die Datensätze fallibel sein.
Die Begründungsphilosophen argumentieren dagegen, daß die Beobachtungssätze in einer vortheoretischen Sprache abgefaßt sind und sind somit von Theorien unabhängig. Dieses Argument ist wiederum nicht überzeugend, denn es gibt keine singulären Sätze, die von der Beeinflussung durch theoretische Annahmen völlig frei.
Um dieses Problem zu umgehen, haben die kritischen Rationalisten den klassischen oder "naiven" Falsifikationismus zu einem methodologischen Falliblismus/Falsifikationismus weiterentwickelt: Theorien werden immer unter expliziter oder impliziter Zuhilfenahme von Hintergrundtheorien überprüft, die erst die Formulierung von Basissätzen ermöglichen und deren Relevanz festlegen.
Basissätze werden nicht aus reinen Fakten, sondern durch
theoriegeprägte Wahrnehmungen von Fakten gebildet.
Wie die Abbildung zeigt, wird die zwischen der Realität und einem Basissatz bestehende Beziehung von (psychologischen) Wahrnehmungstheorien beeinflußt. Die Beziehung zwischen einer Aussage der Theorie und dem Basissatz wird demgegenüber von Beobachtungstheorien (Meßtheorien) bestimmt. In diesem Überprüfungsmodell trifft die Theorie nicht mehr auf die ungefilterte Realität, sondern auf andere fehlbare Theorien.
Tritt allerdings nun eine Kritik in Widerspruch zu einem bestimmten Basissatz,
stehen mehrere Möglichkeiten zur Verfügung, diese Inkonsistenz zu
beseitigen. Man kann entweder den Basissatz (d.h. die Wahrnehmungstheorie), die
Beobachtungstheorie, aber auch die empirische Theorie als falsch verwerfen. Was
letztlich als "falsifiziert" betrachtet wird, liegt im Ermessen des Forschers.
Diese Entscheidung soll rational begründbar und fortschrittsfördernd
sein.
3.1.8
Raffinierter Falsifikationismus
Der raffinierte Falsifikationismus unterscheidet sich vom naiven
Falsifikationismus durch seine Regeln des Akzeptierens (oder das
"Abgrenzungskriterium") und seine Regeln des Falsifizierens oder
Eliminierens.
Der raffinierte Falsifikationist sieht die Unzulänglichkeit dieses Vorgehens und erkennt an, daß sowohl das Bestätigen von spekulativen, neuen Theorien, als auch das Falsifizieren von bewährten Theorien eine entscheidende Rolle spielt
Im Gegensatz zum naiven Falsifikationismus kann kein Experiment, keine Beobachtung, keine wohlbestätigte falsifizierende Hypothese niederer Stufe für sich allein zu einer Falsifikation führen. Es gibt keine Falsifikation vor dem Auftauchen einer besseren Theorie.
Raffinierte Falsifikationisten legen den Schwerpunkt auf den Vergleich von aufeinanderfolgenden Theorien. Anstatt zu fragen: "Ist diese Theorie falsifizierbar" oder "Wie falsifizierbar ist dies Theorie" oder "Ist diese Theorie falsifiziert worden" wird gefragt "Ist die neu vorgeschlagene Theorie ein tragfähiger Ersatz für die Theorie, die sie anficht".
Die Falsifikation bekommt einen historischen Charakter, da nicht mehr die Theorie mit der empirischen Basis, sondern vielstellige Relationen zwischen konkurrierenden Theorien, der ursprünglichen "empirischen Basis" und dem empirischen Wachstum, zu dem der Wettstreit der Theorien führt.
Naive Falsifikationisten verstanden unter Falsifikation "bewährte Gegenevidenz". Raffinierte Falsifikationisten gehen davon aus, daß eine Theorie trotz hunderter Anomalien nicht falsifiziert wurde, solange sie nicht durch eine "bessere" Theorie ersetzt wurde.
Naive Falsifikationisten haben das Problem, daß es sehr schwierig ist, den Falsifizierbargrad einer Theorie zu bestimmen und nachzuweisen. Die Anzahl der Falsifikationsmöglichkeiten ist stets unendlich. Andererseits ist es häufig möglich, den Falsifizierbarkeitsgrad von Gesetzen oder Theorien miteinander zu vergleichen.
Der präferenzialistischen Methodologie geht es darum, Regeln für die rationale Präferenz fallibler Theorien anzugeben. Um die Frage zu klären, wann eine Theorie einer anderen, konkurrierenden Theorie überlegen und daher vorzuziehen ist, entwickelt Radnitzky Pre- und Post-Test-Kriterien.
Ausgangspunkt jeder Theorienkonkurrenz sind n Theorien, die sich mit bei unterschiedlichen Ausgangsstellungen mit dem gleichen Problemkomplex beschäftigen (Überschneidung von Fragekomplexen). Ziel ist es festzustellen, welche Theorie der Wahrheit am nächsten kommt.
Die zur Theorienkonkurrenz verwendeten Kriterien lassen sich in drei Blöcke differenzieren. Der erste Block enthält unter Bezugnahme auf Popper die Abgrenzungskriterien zwischen wissenschaftlichen Theorien und Alltagstheorien, die sogenannten Demarkationskriterien. Wissenschaftliche Theorien zeichnen sich dadurch aus, daß sie falsifizierbar sind, nicht tautologisch und auch keine metaphysischen Aussagen enthalten. Sprich: Jede wissenschaftliche Theorie muß falsifizierbar sein, es muß möglich sein, eine der Aussage widersprechende Aussage zu formulieren.
Der zweite Kriterienblock umfaßt die Pre-Test-Kriterien: Pre-Test-Kriterien ermöglichen den Gehaltsvergleich von Theorien. Mit ihrer Hilfe ist es möglich, bereits im Vorfeld der empirischen Prüfung Theorien "auszusortieren". Fortschritt besteht in der fallibilistisch-kritizistisch-präferenzialistischen Methodologie im Erkenntnisfortschritt, d.h. mit Hilfe der Pre-Test-Kriterien muß man den Erkenntnisfortschritt von Theorien "messen" können.
Gemessen wird der Erkenntnisfortschritt mit Hilfe des Kriteriums "Darstellungsleistung", also der Fähigkeit einer Theorie, verstanden zu werden. Die beiden Indikatoren für die Darstellungsleistung sind der "empirischer Gehalt" und der "Informationsgehalt".
Der Informationsgehalt bezieht sich auf die Tiefe von Aussagen, die aus der Theorie abgeleitet werden können.
Nach Popper ist der empirische Gehalt die Informationsmenge der potentiellen Falsifikatoren der Theorie, d.h. derjenigen Sätze, die Sachverhalte beschreiben, die von der Theorie als empirisch unmöglich deklariert werden. Je mehr Sachverhalte ausgeschlossen sind, also unmöglich sind, nicht vorkommen dürfen, desto "besser" ist die Theorie. Anders ausgedrückt: je universeller die Aussage formuliert ist, desto leichter ist es, die Aussage zu widerlegen.
Der dritte Block enthält die Post-Test-Kriterien. Diese ermöglichen den Theorienvergleich durch empirische Prüfung. Sie machen den Vergleich von Aussagen über Daten möglich. Die empirische Prüfung einer Theorie besteht in der Konfrontation der Theorie mit der Wirklichkeit durch den Vergleich von Datensätzen. Zu den Post-Test-Kriterien gehört die Erklärungsleistung, die Prognoseleistung sowie die Bewährung ( colloberation) einer Theorie. Bewährung heißt in dem Zusammenhang, daß man von unabhängigen Theorien ausgehend zu gleichen Ergebnissen gelangt. Die Bewährung findet also durch Korrespondenz und Stützung mit anderen Theorien statt.
Radnitzky verteilt für die Leistungen der Theorie in den einzelnen
Kriterien Plus- und Minuspunkte, Punkte für Erfolg und Mißerfolg.
Damit erweitert er Poppers Verständnis, der nur den Erfolg einer Theorie
honorierte. Diese Erweiterung begründet Radnitzky zum einen damit,
daß Falsifikation selbst fallibel ist und damit eine Theorie nie sicher
falsifiziert werden kann. Unter Umständen ist eine Theorie im
entscheidenden Punkt, im Kern zutreffend, obwohl sie strenggenommen als
falsifiziert betrachtet werden müßte (beispielsweise wurde Einsteins
Relativitätstheorie durch die Millerschen Experimente streng betrachtet
falsifiziert, erst 25 Jahre später entdeckte man, daß Millers
experimentelle Resultate falsch waren, daß sein Falsifikationsargument in
der Randbeschreibung Fehler enthielt). Das zweite Argument für die
Verteilung von Plus- und Minuspunkten ist, daß eine Theorie auch
für die erbrachte Erklärungsleistung honoriert werden sollte: Popper
bewertet - nach Ansicht von Radnitzky etwas einseitig - die Prognoseleistung,
nicht aber die Erklärungsleistung.
5
Lakatos Forschungsprogramm
5.1.1
Die Lakatosschen Forschungsprogramme
Imre Lakatos umgeht mit seinem Konzept des Forschungsprogramms die
Schwierigkeit von Popper, daß Theorien nach einem einzigen
Mißerfolg falsifiziert, verworfen werden. Er erweitert und dynamisert die
Präferenzregeln von Radnitzky und stellt die Entwicklung von Theorien
(u.a. durch die Tätigkeit des/der Forscher) in den Mittelpunkt. Das
Lakatossche Forschungsprogramm wird zur "Evolutionstheorie des Wissens".
Lakatos bietet mit seinem Forschungsprogrammkonzept eine (psychologische) Strategie, die die Verteidigung der eigenen Theorie immer und auch immer logisch ermöglicht, die es dem Forscher ermöglicht, mit dem Scheitern seiner eigenen Theorie umzugehen.
Forschungsprogramm
Ein Forschungsprogramm ist nach Lakatos eine Struktur, die sowohl auf positive, als auch auf negative Art und Weise einen Leitfaden für zukünftige Forschung bietet. Ziel ist es, die Richtigkeit der Kerntheorie zu beweisen.
Das Forschungsprogramm hat folgende Struktur
Die negative Heuristik enthält die Bedingung, daß die Grundannahmen, die dem Programm zugrunde liegen, ihr harter Kern, weder verworfen, noch verändert werden dürfen.
Der harte Kern besteht also aus einigen, sehr allgemeinen theoretischen Hypothesen, die die Grundlage bilden, von der aus das Programm entwickelt werden muß (Bsp.: Kopernikus: Annahme, daß die Erde und die Planeten um die feststehende Sonne kreisen, die Erde dreht sich in einem Tag einmal um ihre eigene Achse).
Der harte Kern wird "aufgrund der methodologischen Entscheidung seiner Protagonisten" (Lakatos) unfalsifizierbar gemacht. Jeder Wissenschaftler, der den harten Kern verändert, schließt sich selber aus diesem bestimmten Forschungsprogramm aus.
Dieser harte Kern wird gegen die Falsifikation durch einen Schutzgürtel aus Hilfshypothesen, Anfangsbedingungen etc. geschützt: Die positive Heuristik enthält grobe Richtlinien, die angeben, wie das Forschungsprgramm weiterentwickelt werden könnte. Positive Heuristik besteht also aus einer partiell artikulierten Reihe von Vorschlägen oder Hinweisen, wie man die "widerlegbaren Fassungen" des Forschungsprogramms verändern und entwickeln soll und wie der "widerlegbare" Schutzgürtel modifiziert und raffinierter gestaltet werden soll
In der positive Heuristik sind die "biegsamen, metaphysischen" Prinzipen festgehalten, sie beschäftigt sich nicht mit Anomalien, also der Theorie entgegenstehende Theorien.
Die positive Heuristik weist darauf hin, wie der harte Kern ergänzt werden muß, damit er imstande ist, reale Phänomene zu erklären und vorherzusagen (Erweiterung durch Hilfshypothesen und experimentelle Programme).
Der Schutzgürtel besteht nicht nur aus expliziten Hilfshypothesen, die den
harten Kern ergänzen, sondern auch aus Annahmen, die der Beschreibung der
Anfangsbedingungen und ebenso den Beobachtungsaussagen zugrunde liegen.
5.1.2
Die Methodologie innerhalb eines Forschungsprogramms
Jeder Schritt, der den Schutzgürtel verändert, ist zulässig,
solange er nicht ad hoc ist. Veränderungen und Ergänzungen eines
Schutzgürtels müssen nämlich überprüfbar sein, was
ad-hoc Hypothesen nicht sind.
D.h. Ad-Hoc-Hypothesen sind verboten und Veränderungen des harten
Kerns.
5.1.3
Forschungsprogramme im Vergleich
Erfolgreiche Forschungsprogramme führen nun zu einer progressiven
Problemverschiebung, Ein progressives Forschungsprogramm zeichnet aus,
daß es zur Entdeckung neuartiger Phänomene beigetragen hat. Jeder
Schritt eines progessiven Forschungsprogrammes muß im Sinne Lakatos
konsequent gehaltvermehrend sein.
Degenerative Forschungsprogramme tragen demgegenüber nicht zur Entdeckung neuer Phänomene bei.
Ein wissenschaftliches Forschungsprogramm zeichnet sich neben der Entdeckung neuer Phänomene noch durch eine zweite Eigenschaft aus: Es muß außerdem ein gewisses Maß an Kohärenz besitzen, das die Ausarbeitung eines bestimmten Programms für zukünftige Forschung mit sich bringt.
Ein Problem innerhalb des Lakatosschen Ansatzes ist, daß man letztlich niemals definitiv und uneingeschränkt behaupten kann, daß ein Forschungsprogramm besser ist als ein anderes, weil Lakatos die Variable Zeit ins Spiel bringt. Es ist für ein Forschungsprogramm immer möglich, aus einer degenerativen Phase ein Comeback zu starten.
Ein Comeback ist die Formulierung der n+kten gehaltsvermehrenden Fassung und die Verifikation eines Teils von diesem neuen Gehalt. Man kann über den jeweiligen Wert zweier Programme, wenn überhaupt, fast immer erst aus der Retrospektive entscheiden.