Wissenschaftstheorie und Didaktik der Physik

Wilfried Kuhn

Institut für Didaktik der Physik, Universität Gießen


Quelle:

KUHN, W. (1984): Wissenschaftstheorie und Didaktik der Physik,
DPG-Didaktik-Tagungsband 1984, S. 1 - 25.
Hrsg.: Prof. Dr. Wilfried Kuhn, Direktor des Instituts
für Didaktik der Physik der Universität Gießen




Die Formulierung des Themas Wissenschaftstheorie „und“ Didaktik der Physik sollte nicht in dem Sinne mißverstanden werden, als könnten diese beide Disziplinen in einfacher Weise in Verbindung gebracht werden. Die Konjunktion will vielmehr ihre komplexen und sehr tief gehenden Wechselbeziehungen bewußt machen und auf daraus resultie­rende, vielfältige Konsequenzen für den Vermittlungsprozeß physikali­scher Erkenntnisse verweisen.



1. Grundsätzliche Überlegungen

Wissenschaftstheorie wie Didaktik entspringen dem kritischen Nachdenken über das Faktum Wissenschaft.

Im Hinblick auf ihre Bezugswissenschaft - in unserem Falle die Physik - nehmen sie die gleiche erkenntnistheoretische Position ein. Diese ist gekennzeichnet sowohl durch ihre sehr enge Verbindung, als auch zugleich durch eine kritisch-reflektierende Distanz. Solcher Reflexion geht es beiden Disziplinen um das zentrale Problem, die Prozeßstruktur physikalischer Begriffs- und Theorienbildung zu „erklä­ren“ und zu „verstehen“. Die dabei gewonnenen Einsichten sind von grundlegender Bedeutung für den Lehr- und Lernprozeß physikalischer Inhalte; denn erst nach eingehender wissenschaftstheoretischer Analyse kann entschieden werden, worin eigentlich das Wesentliche der Bezugsdisziplin besteht, und welche Inhalte, bzw. welche methodischen Konzepte dementsprechend Lehrgegenstände sein sollten.

Der Physikdidaktik fällt dabei die sehr wichtige Aufgabe zu, in zwei grundsätzlich verschiedenen Richtungen zu argumentieren und zu überzeugen.

Physik-Pädagogen, die ihre Arbeit als spezielle Anwendung allgemeiner Pädagogik oder sozialwissenschaftlicher Lehren verstehen, glauben, ihre „corricularen Entscheidungen“ primär „pädagogisch“ - nicht selten unter dem korrodierten bildungspolitischen Damoklesschwert endlos zu garantierender Chancengleichheit - verantworten zu müssen. Für eine wissenschaftstheoretisch intendierte Physik-Didaktik stellt sich die Frage, ob dabei denn auch Wesentliches der Bezugsdisziplin, d.h. grundlegende, strukturelle Einsichten in den physikalischen Erkenntnisprozeß vermittelt werden, die sich nicht „spielerisch“, sondern nur durch harte intellektuelle Anstrengungen erschließen, denen oberfläch­licher Zeitgeist gar nicht hold zu sein scheint.

Aber auch in anderer Richtung ist Aufmerksamkeit geboten, nämlich gegenüber jenen Fachspezialisten, die in der Befangenheit ihres fachspezifisch verengten, wissenschaftstheoretischen Verständnishorizon­tes im Lehr- und Lernprozeß auftretende, schwierige begriffliche Probleme mit erstaunlicher und zuweilen such peinlich wirkender Harmlosigkeit ganz unwissenschaftlich erledigen, obwohl sie sich sonst gerne als Gralshüter der Wissenschaftlichkeit geben.

Wissenschaftstheoretisch Unreflektiertes von Fachspezialisten plakativ und forsch ex cathedra verkündet, macht es gerade intellektuell anspruchsvollen und kritischen Hörern schwer, weil sie die Physik nicht nur „handhaben“, sondern such „verstehen“ wollen.

Wenn Fachspezialisten sich gelegentlich veranlaßt sehen, wissenschaftstheoretisch Flagge zeigen zu müssen, dann ist es meist die etwas zerschlissene Standarte des logischen Empirismus oder die eines Induktionismus BACONscher Prägung.

Hinter diesen Fahnen marschieren auch Physikdidaktiker, die meinen, in jener Phalanx Gesinnungsgenossen zu haben, die ihren rein „empirischen“ Arbeiten, orientiert an sozialwissenschaftlichen Erhebungsmethoden, wissenschaftliche Dignität schwerlich versagen könn­ten. Als Organisatoren von „effektiven Lernprozessen“ - wobei immer zu bedenken ist, daß man mit optimalen Methoden und unter Einsatz modernster Medien auch ganz Unwesentliches vermitteln kann - ist ihnen nicht selten die Anerkennung auch jener sicher, denen aus oben genannten Gründen wissenschaftstheoretisch orientierte Physikdidaktik nicht ohne Vorsicht und Zurückhaltung begegnet.



2. Kritik veralteter wissenschaftstheoretischer Positionen

Die Zusammenhänge zwischen Physikdidaktik, Wissenschaftstheorie und ihrer Bezugsdisziplin sollen nun näher beleuchtet werden.

Ein Blick in Lehrbücher der Physik zeigt, daß häufig ein konsistentes wissenschaftstheoretisches Konzept überhaupt nicht vorhanden ist, oder unbewußt bzw. bewußt veraltete wissenschaftstheoretische Positionen vertreten werden. Gerne peitscht man die toten Pferde eines naiven Positivismus, Instrumentalismus und Operationalismus. Wen wundert es dann, wenn Vertreter einer instrumentalisch orientierten Didaktik ihre Thesen mit Argumenten veralteter wissenschafts­theo­re­tischer Standorte zu legitimieren versuchen. Dabei werden meist folgende Behauptungen kolportiert:

1. Beobachtung und Experiment sind alleinige Quellen der naturwissen­schaftlichen Erkenntnis.

2. Naturwissenschaftliche Begriffsbildungen werden nur aus Beobach­tungen und Experimenten gewonnen.

3. Naturwissenschaftliche Begriffe müssen durch operationale Defini­tionen exakt festgelegt und veranschaulicht werden.

4. Hypothesenbildung erfolgt ausschließlich aufgrund empirischer Erfah­rung.

5. Naturwissenschaftliche Gesetze und Theorien lassen sich direkt durch Verallgemeinerung spezieller empirischer Daten im Prozeß der generalisierenden Induktion finden.

6. Theorien sind effektive Verfahren zur ökonomischen Beschreibung von Sinneswahrnehmungen.

7. In Form eines sogenannten „experimentum crucis“ führt ein Ex­periment eine Entscheidung zwischen einander widersprechenden Theorien herbei.

9. Theorien haben lediglich syntaktische Funktion als formaler Übersetzungsmechanismus von empirischen Daten in mathematische Beschrei­bungen („Datenmühlen“). Sie zielen nicht auf Wirklichkeitsstrukturen, sondern fungieren als mathematische Brücken zwischen tatsächlichen und möglichen Beobachtungen.

10. Modelle vermitteln keinen Einblick in Wirklichkeitsstrukturen. Indem sie lediglich der Vorhersage und instrumenteller Manipulation der Phänomene dienen, haben sie rein praktischen, utilitaristischen Charakter. Es ist zweckmäßig, von Fall zu Fall unterschiedliche Modelle auch nebeneinander zu benutzen. Da sie nur „Denkhilfen“ sind, ist die Problematik einer Synthese sich gegenseitig aus­schließender Modellvorstellungen im Sinne der Idee einer einheit­lichen Wirklichkeitsstruktur ausgeklammert. Dieser ontologische Verzicht wird im Sinne einer „Komplementarität der Modelle“ legitimiert bzw. zum methodischen Prinzip erhoben.

Da derartige dogmatische Behauptungen nicht bloß in „Einleitungen“ und „Bemerkungen zu Methode der Physik“ von Physiklehrbüchern, sondern auch in den Präambeln und Handreichungen zahlreicher Lehrpläne sogar als „methodische Empfehlungen“ herumgeistern - einige davon sind ihnen wörtlich entnommen - ist es notwendig, sie zu diagnostizieren. Dabei ist das Hauptaugenmerk auf das Problem der Begriffsbildung und Theoriendynamik gerichtet. Sollte sich jemand bei dieser Diagnose ertappt oder betroffen fühlen, dann mag es für ihn tröstlich sein, sich in guter Gesellschaft jener Fachspezialisten zu befinden, auf die die bekannte Metapher von LAKATOS zielt, diese verstünden von der Methode ihres Faches so viel wie die Fische von der Hydrodynamik.

Die folgende Kritik ist vor dem Hintergrund einer historischen Analyse der Entwicklung der Methode der Physik und von der heutigen wissenschaftstheoretischen Position eines hypothetischen Realismus zu sehen.



3. Begriffs- und Theorienbildung in heutiger wissenschaftstheoretischer Sicht

Die oben aufgeführten Behauptungen sollen jetzt im Lichte heutiger Wissenschafts­theorie seziert werden.


3.1 Die Rolle des Experiments

Naturwissenschaftliche Erkenntnisse basieren zwar auf Naturbeobach­tungen, aber sie werden nicht rein empirisch gewonnen. Das Experiment ist eine gezielte theoriegeleitete Beobachtung. Es dient der Prüfung von Hypothesen über den vermuteten Zusammenhang der Naturvorgänge. Dementsprechend gibt es keinen direkten Weg von den Sinneswahr­nehmungen zu physikalischen Begriffen.

Adepten und Epigonen des Empirismus die GALILEI gern zum Kronzeugen einer „rein induktiven Methode“ machen, sollten die historischen Quellen genauer studieren! Sie wären nicht wenig überrascht, welche Rolle GALILEI dem Experiment bei seinem methodischen Vorgehen tatsächlich zuerkennt: „Ich habe ein Experiment darüber angestellt, aber zuvor hatte die reine Vernunft mich ganz fest davon überzeugt, daß die Erscheinung so verlaufen mußte, wie sie tatsächlich verlaufen ist“ (1). Dementsprechend hat KANT in der Vorrede seiner „Kritik der reinen Vernunft“ GALILEIs methodisches Konzept in hervorragender Weise bildhaft beschrieben:

„Als GALILEI seine Kugeln die schiefe Fläche mit einer von ihm selbst gewählten Schwere herabrollen ließ,... ging allen Naturforschern ein Licht auf. Sie begriffen, daß die Vernunft nur das einsieht, was sie selbst nach ihrem Entwurfe hervorbringt, daß sie mit Prinzipien ihrer Urteile nach beständigen Gesetzen vorangehen und die Natur nötigen müsse, auf ihre Fragen zu antworten, nicht aber sich von ihr allein gleichsam am Leitbande gängeln lassen zu müssen; denn sonst hängen zufällige, nach keinem vorher entworfenen Plane gemachte Beobach­tungen gar nicht in einem notwendigen Gesetze zusammen, welches doch die Vernunft sucht und bedarf. Die Vernunft muß mit ihren Prinzipien, nach denen allein übereinkommende Erscheinungen für Gesetze gelten können, in einer Hand, und mit dem Experiment, das sie nach jenen ausdachte, in der anderen, an die Natur gehen, zwar um von ihr belehrt zu werden, aber nicht in der Qualität eines Schülers, der sich alles vorsagen läßt, was der Lehrer will, sondern eines bestallten Richters, der die Zeugen nötigt, auf die Fragen zu antworten, die er ihnen vorlegt. Und so hat sogar Physik die so vorteilhafte Revolution ihrer Denkart lediglich dem Einfalle zu verdanken, demjenigen, was die Vernunft selbst in die Natur hineinlegt, gemäß, dasjenige in ihr zu suchen (nicht ihr anzudichten), was sie von dieser lernen muß, und wovon sie für sich selbst nichts wissen würde. Hierdurch ist die Naturwissenschaft allererst in den sicheren Gang einer Wissenschaft gebracht worden, da sie so viel Jahrhunderte durch nichts weiter als ein bloßes Herumtappen gewesen war“ (2).

Die beiden Angelpunkte der physikalischen Methode sind demnach die „Prinzipien der Vernunft“, d.h. die apriorischen Konzepte und das „Experiment“. Ein theoretisches Konzept kann jedoch nicht direkt auf die komplexen Phänomene, sondern erst auf deren Idealisierungen angewandt werden. Im Experiment wird dann die Brauchbarkeit des theoretischen Ansatzes getestet. Auch dies hat bereits GALILEI klar herausgestellt:

„Ich will mich im Experiment davon überzeugen, daß die beim natürlichen Fallen auftretenden Beschleunigungen mit den vorher (durch die Theorie) beschriebenen übereinstimmen“ (3). Voraussetzung für die Anwendung der physikalischen Methode ist die „Idealisierung“. Dabei kommt es darauf an, die - wie GALILEI erklärt - „am besten passenden Begriffe und Definitionen“ zu finden. Wie diese Anpassung der mathematischen Abstrakta an die Naturphänomene geschieht, verrät uns GALILEI selbst:

„Bei der Untersuchung der natürlichen beschleunigten Bewegung ließen wir uns von den Gewohnheiten der Natur selbst leiten, die uns in all ihren verschiedenen Prozessen lehrt, nur die allgemeinsten, einfachsten und leichtesten Mittel anzuwenden“ (4).

Dies ist eine metaphysische Hintergrundsüberzeugung, auf deren Rolle wir später bei der genaueren Behandlung physikalischer Hypothesenbil­dung noch ausführlicher eingehen werden.

Wir fassen zusammen:
Es gibt keinen direkten induktiven Weg von den Sinneswahrnehmungen zu theoretischen Termen. Naturwissenschaftliche Erkenntnisse können nicht durch den Prozeß der generalisierenden Induktion gewonnen werden. Spezielle empirische Einzelerfahrungen lassen sich nicht zu Allaussagen verallgemeinern. Die Erfahrung verweist auf geeignete mathematische Konzepte, aber sie können nicht aus ihr direkt deduziert werden.

NEWTONs Vorgehen erweckt zwar den Anschein, er habe durch „generali­sierende Induktion“ aus den drei KEPLERschen Gesetzen das Prinzip der allgemeinen Gravitation gefunden. Aber die KEPLERschen Gesetze sind kinematische Gesetze, in denen Kräfte und Massen nicht in dem Zusammenhang wie im Gravitationsgesetz vorkommen (5).

Auch die KEPLERschen Gesetze sind keineswegs einfach aus „Beobachtungsdaten“ gewonnen. Geleitet von metaphysischen Hintergrundsüberzeu­gungen einer „Weltharmonie“ hat KEPLER sie durch intuitive Handha­bung seiner „Hypothesis vicaria“ (Ersatzhypothese) und problematischen sd-hoc-Annahmen in nichtlogischer Weise gegen jede wissenschaftstheore­tische Vernunft in geradezu „nachtwandlerischer Weise“ gefunden. Das COULOMBsche Gesetz ist ebenfalls nicht aus Meßdaten im Prozeß der generalisierenden Induktion abgeleitet. sondern theoretisch in Analogie zum Gravitationsgesetz postuliert worden. Auch die „Entdeckung“ der Wellennatur der Materie zeigt in alter Deutlichkeit, daß er keinen direkten, logisch zwingenden Weg von empirischen Daten zu einer ganz bestimmten Theorie gibt. DAVISON und GERMER konnten ihre Elektronenbeugungsmuster ganz im Gegensatz zu der DE BROGLIEschen Dualismus-Hypothese mit besonderen Annahmen über die Struktur der Atome theoretisch völlig anders deuten (6).

Diese Überlegungen werfen ein besonderes Licht auf das grundlegende Problem der physikalischen Begriffsbildung. Die angeführten Beispiele sollten das vom Empirismus nicht richtig erkannte, komplexe und sehr subtile Zusammenspiel von Theorie und Erfahrung verdeutlichen. P. K. FEYEHABENDs provozierende These, Erfahrungswissen werde erst durch die Theorie erzeugt, ist in diesem Zusammenhang zu sehen. Theoretische Konzepte entspringen der schöpferischen Phantasie und Intuition. Es gibt dafür keine erlernbare Methode. Nach EINSTEIN muß man sie einfach „der Natur ablauschen“. Rechtfertigung erfahren theoretische Begriffe erst nachträglich durch den pragmatischen Erfolg der gesamten Theorie und zwar in dem Maße, wie die Begriffe eine kohärente Übersicht über die Sinneserlebnisse ermöglichen.

Am Beispiel des Kraftbegriffs kann leicht gezeigt werden, wie die Bedeutung theoretischer Begriffe sich erst aus dem Kontext der ganzen Theorie ergibt. Es ist nicht möglich, die Kraft außerhalb des theoretischen Bezugsrahmens „rein empirisch“ über das HOOKEsche Gesetz zu definieren, da dies nur unter bestimmten experimentellen Randbedin­gungen gilt. Auch eine „exakte“ Definition des Kraftbegriffs über das 2. NEWTONsche Axiom F = m · a ist nicht zu erreichen; denn in der Relativitätstheorie gilt:

F = dp/dt = d(mv)/dt = m · dv/dt + v · dm/dt.

Kräfte verdanken ihre Existenz eben nicht exakten Definitionen, derart wie man in der Mathematik Dinge definiert. Kräfte sind reale Phäno­mene. Sie lassen sich nicht direkt, sondern nur über ihre verschiede­nen Wirkungen feststellen. Ihre Deutung als Ursache einer Impuls-änderung erhält aber erst im Rahmen des Gesamtsystems der Theorie einen besonderen Sinn. Das 2. NEWTONsche Axiom ist kein Axiom im Sinne der Mathematik: es beinhaltet Elemente der formalen Struktur der Theorie und gleichzeitig spezielle, empirisch erfahrbare Gesetze der Kraftwirkung.

Hinsichtlich der Kritik an den oben aufgeführten Behauptungen veralteter wissenschaftstheoretischer Positionen soll nun das Problem physikalischer Theorienbildung detaillierter behandelt werden.



3.2 Theorienbildung

Es ist bereits deutlich geworden: Theorien beginnen nicht mit einem Katalog von exakten Definitionen, sondern eher mit einer Liste von nicht vollständig festgelegten, d.h. offenen, flexiblen Begriffs­bildungen, die während des Ausbaus der Theorie und erst im Rahmen des Kontextes der ganzen Theorie eine allmähliche Ausschärfung und ihre semantische Bedeutung gewinnen. Bei den wegen ihrer Anschaulich­keit vermeintlich didaktisch nützlichen „operationalen“ Definitionen, z.B. den der elektrischen und magnetischen Feldstärken, darf man nicht übersehen, daß die Operation des Messens diesen Begriffen keine exakte physikalische Bedeutung geben kann. Die operationalen Definitio­nen E = F/q bzw. B = F/(q·v) als Meßvorschriften sind keine rein empirischen Prozeduren. Sie setzen theoretische Vorstellungen über das Definiendum bereits voraus. Die physikalische Bedeutung, d.h. die Semantik der Felder ergibt sich erst aus dem Gesamtkontext der MAXWELLschen Theorie des Elektromagnetismus. Sie ist ein hervorragen­des Beispiel, an dem das Wesen einer physikalischen Theorie wissenschafts­theoretisch-didaktisch aufgezeigt werden kann.

Allgemein versteht man unter einer physikalischen Theorie eine geordnete Menge von Einzeldaten sowie Gesetzesaussagen, die durch logische Ableitungs­beziehungen untereinander verbunden sind. Eine Theorie ist ein hypothetisch-deduktives System, mit dem man einen bestimmten Wirklichkeits­bereich erklären kann. Die Theorie ermöglicht, nachprüfbare Vorhersagen zu machen.

Durch semantische Zuordnungsregeln werden beobachtbare Fakten mit abstrakten mathematischen Termen in Korrespondenz gesetzt. Theorien ragen über die Erfahrung hinaus, d.h. theoretische Terme, wie z.B. Wahrscheinlichkeitsamplitude, Vektorpotential, Eigenvektor, stehen nur in einem sehr indirekten Zusammenhang mit Beobachtungsdaten. So gibt es z.B. keinen direkten Weg von den verwickelten Beobachtungsdaten der Linienspektren zu dem mathematischen Term der Wahrscheinlichkeits­amplitude der SCHRÖDINGER-Gleichung.

Solche Begriffe werden, wie L. DE BROGLIE es hinsichtlich seiner Idee der „Materiewellen“ sehr treffend formuliert hat, durch „une sorte d'illumination intérieure“ (7) oder - wie M. BORN es ausgedrückt hat - durch „intuitives Erraten“ (8) gefunden. Ihre Rechtfertigung erfahren sie durch ihren Erfolg im Rahmen der Gesamttheorie.

Die Evidenzmenge. d.h. die beobachtbaren Fakten, auf die sich eine Theorie stützt, ist immer kleiner als die Referenzmenge, d.h. die möglichen Objekte, auf die sie sich bezieht, und die sie symbolisch abbildet.

Repräsentant einer klassischen Theorie ist die MAXWELLsche Theorie des Elektromagnetismus. In ihr sind zahlreiche, zunächst unabhängig nebeneinander stehende Gesetzmäßigkeiten der Elektrostatik, Magneto­statik in vier Grund­gleichungen miteinander verbunden.

Der Begriff des „Verschiebungsstromes“ ist ein gutes Beispiel eines abstrakten Theorienelements, das weit über den vorherigen Erfahrungs­bereich der Theorie hinausragt und diese erst damit zu voller Entfaltung brachte. Dieser theoretische Term verleiht den MAXWELL-Glei­chungen gerade eine solche Struktur, die es MAXWELL erlaubte, die Existenz elektromagnetischer Wellen theoretisch vorherzusagen. Der 20 Jahre später gelungene Nachweis elektromagnetischer Wellen durch H. HERTZ konnte erst den bis dahin hypothetischen Begriff des Verschiebungsstroms rechtfertigen. Die Tatsache, daß elektromagnetische Wellen sich mit Lichtgeschwindigkeit ausbreiten, führt zu der bedeuten­den Erkenntnis, daß das Licht ein elektromagnetischer Vorgang ist. Damit wurde die Optik zu einem Teilgebiet der Elektrodynamik. Dies ist ein Beispiel einer systematischen Zusammenfassung einzelner vorher unabhängiger Theorien zu einem einheitlichen, übergreifenden theore­tischen Konzept.

Dieses Streben nach systematischer Vereinfachung und explanativer Kohärenz ist stets Motor der Theoriendynamik.

Die semantischen Zuordnungsregeln zwischen den mathematischen Termen einer Theorie und ihrem Realtext hatten wir schon als Korrespondenz-regeln oder Referenzhypothesen bezeichnet. Im Detail haben diese Referenzhypothesen (9) folgende Funktion:

1. Innertheoretische Kriterien fordern logische Kohärenz, sowie begriff­liche und systematische Einfachheit und einen möglichst geringen Kontingenzanteil. Weiterhin soll die Theorie dem Referent strukturell angepaßt sein.

2. Zwischentheoretische Kriterien verlangen, daß die Referenzhypothese nicht in Widerspruch zu anderen Korrespondenzregeln und bewährten Theorien gerät.

3. Metatheoretische Kriterien enthalten grundsätzliche Annahmen über die Beschaffenheit der Natur, wie z.B. Symmetrie, Einfachheit oder Zweckmäßigkeit. Sie sind oft getragen von dem Streben nach prinzipieller Vereinheitlichung und dem Suchen nach einer übergrei­fenden theoretischen Konzeption (z.B. Erhaltungskonzept, Kausalität).

4. Die Referenzhypothese darf nicht im Widerspruch zur experimentellen Erfahrung stehen. Sie ist dann fruchtbar, wenn bisher unbekannte Zusammenhänge vorhergesagt und gleichzeitig neue Testmöglichkeiten geschaffen werden.



3.3 Experimentum crucis

Die letzte Referenzhypothese lenkt uns auf einen zentralen Punkt unserer wissenschaftstheoretischen und didaktischen Überlegungen. Kann durch ein „experimentum crucis“ eine endgültige experimentelle Ent­scheidung zwischen zwei konkurrierenden Theorien herbeigeführt werden? Wie sind Messungen zu bewerten?

Stimmen einzelne Messungen mit der theoretischen Vorhersage überein, dann kann man daraus noch nicht auf die Gültigkeit der Theorie schließen. Andererseits folgt aus dem nicht erwarteten Ausfall einer Messung noch nicht, daß die Theorie zu verwerfen ist.

Diese Erkenntnis soll an Hand von Test-Situationen, die in der Entwicklung der Physik eine wichtige Rolle gespielt haben, belegt werden.

TYCHO BRAHE erkannte das copernicanische System nicht an und entwarf ein System. bei dem sich alle Planeten außer der Erde um die Sonne bewegen, und dieses ganze System sich dann um die Erde dreht. Er hielt die nicht meßbare Parallaxenbewegung der Fixsterne für das „experimentum crucis“ gegen das copernicanische System. Dabei hatte er jedoch nicht bemerkt, daß diese Testimplikation die Richtigkeit seiner Hilfshypothese voraussetzt, daß die Fixsterne so nahe bei der Erde sind, daß ihre Parallaxenbewegung mit seinen Instrumenten beobachtbar war. BRAHEs Hilfshypothese ist falsch, und deshalb ist das Nichtauftre­ten der gesuchten Parallaxe kein „experimentum crucis“. Die Fixstern­parallaxe, die etwa 1/3 Bogensekunden beträgt, konnte erstmalig 1838 durch den deutschen Astronomen BESSEL gemessen werden.

Im 19. Jahrhundert glaubte man, FOUCAULTs Experiment, in dem festgestellt wurde, daß die Lichtgeschwindigkeit in Luft größer als in Wasser ist, sei ein solches „experimentum crucis“, das zwischen der Korpuskulartheorie des Lichtes von NEWTON und der Wellentheorie von HUYGENS entscheiden könne. Man meinte dieses Experiment als Rechtfer­tigung der Wellentheorie ansehen zu können. Ist es dies wirklich?

Die Vorhersage der Korpuskulartheorie, daß die Lichtgeschwindigkeit im Wasser größer als in Luft sei, basiert auf einer ganzen Gruppe von Hypothesen, wobei die Emissions-Hypothese, welche das Licht als Teilchenstrom interpretiert, nur eine einzige, mögliche Prämisse darstellt. Daneben stehen Hypothesen über die Wechselwirkung der Lichtkorpuskel mit verschiedenen Medien. Analog werden in der Wellentheorie Hypothesen über die Ausbreitung von Wellen in ver­schiedenen Medien postuliert, die sich wieder auf eine Menge von Annahmen stützen, welche dann nach einer langen Argumentationskette die Aussage implizieren, daß die Lichtgeschwindigkeit in Luft größer als in Wasser sein sollte.

Man kann aus dem Ausfall des FOUCAULT-Experiments daher nur den Schluß ziehen, daß nicht sämtliche Hypothesen der Korpuskeltheorie richtig sind. Mindestens eine muß falsch sein. Aber das FOUCAULT-Ex­periment sagt nichts darüber aus, welche es ist.

Daraus folgt. daß der Physiker niemals eine isolierte Hypothese, sondern immer nur eine ganze Gruppe von Hypothesen im Rahmen der Gesamttheorie der Kontrolle des Experiments unterwerfen kann (5).

Ein „experimentum crucis“ im strengsten Sinne ist nicht möglich! Es kann lediglich Hinweise darauf geben, welche von zwei rivalisierenden bzw. sich widerspre­chenden Theorien der Erklärung empirischer Daten adäquater erscheint und damit die Tendenz zukünftiger theoretischer Entwicklungen beeinflußt, die dann neue „Entscheidungsexperimente“ implizieren.



3.4 Die metaphysischen Hintergrundsüberzeugungen

Wir haben Theorien als hypothetisch-deduktive Systeme gekennzeichnet. Motor und Katalysator der Theoriendynamik sind die in allen Forschungsprogrammen wirksamen metaphysischen Hintergrundsüberzeu­gungen. Während der logische Empirismus metaphysische Ideen völlig auszuklammern versucht, sehen wir heute in ihnen ein sehr wesentliches Element der Theoriendynamik.

Diese Einsicht ist eine der interessantesten Entwicklungen der modernen Wissen­schaftstheorie.

Sie bedeutet aber keineswegs die Wiederauferstehung einer Irrationalisierung. Die metaphysischen Deutungsschemata werden im Rahmen der Theorien-Validierung in rationaler Weise diskutiert (10). Ihre Rechtfer­tigung können sie jedoch nicht nur logisch, sondern erst durch eine „Art historische Vernunft“ erfahren (11). Hypothesen sind kreative Schöpfungen mit metaphysischen Hintergrunds­überzeugungen, die nicht logisch, sondern historisch verstehbar sind. Sie leiten sich nicht aus der Erfahrung ab, bedürfen jedoch einer empirischen Überprüfung.

Die copernicanische Hypothese ist nicht aus der Erfahrung abgeleitet, sondern die Wiederbelebung der platonischen Idee der Harmonie und Schönheit der idealen Kreisbewegung. KEPLERs metaphysische Triebfe­dern offenbaren sich bereits in dem Titel seiner Werke „Mysterium cosmographicum“ und „Harmonices mundi“.

FARADAYs Konzept, den Zusammenhang von elektrischen und magneti­schen Erscheinungen aufzudecken, ist bestimmt durch Ideen der romantischen Naturphilosophie von der „inneren Einheit aller Natur­kräfte“.

Die Suche nach Extremalprinzipien bzw. Erhaltungssätzen ist meta­physisch geleitet von der Idee eines weisen, sparsamen Schöpfers bzw. der zuverlässigen Beständigkeit Gottes (LEIBNIZ).

Der Kritik K. POPPERs am Positivismus kommt das entscheidende Verdienst zu, bei der Analyse physikalischer Hypothesenbildungen nachdrücklich aug die besondere Rolle außerphysikalischer, d.h. meta­physischer Komponenten aufmerksam gemacht zu haben (12). Während dabei POPPERs „normativer“ Ansatz jedoch die Entwicklung der Wissenschaft (Theoriendynamik und Theorieablöse) durch den Prozeß der logischen Falsifikation, im Bereich einer „Logik der Forschung“, bestimmt sieht und für rational rekonstruierbar hält, betrachtet Th. KUHNs (13) „deskriptiver“ Ansatz die in Form radikalen „Para­digmawechsels“ sich vollziehende Theorieablöse als ein „Problem der Psychologie der Forschung“, bei dem „wissenschaftliche Revolutionen“ sich in der Art „religiöser Bekehrungen“ darstellen. In dieser überspitzten von Th. KUHN in der späteren Diskussion mit LAKATOS teilweise wieder zurückgenommenen Form, enthält der KUHNsche Ansatz für eine sozialwissenschaftlich orientierte Didaktik eine Reihe von ideologischen Versuchungen, auf die später noch eingegangen werden soll.

J. LAKATOS' „Methodologie der wissenschaftlichen Forschungsprogramme“, die versucht, den normativen und deskriptiven Ansatz der Wissenschafts­theorie ausgewogen in ein gewisses komplementäres Verhältnis zu bringen, enthält entscheidende Ansatzpunkte für moderne didaktische Forschungsprogramme (14).

Für die Didaktik ist der Zusammenhang zwischen der „ars inveniendi“ den Entstehungszusammenhängen, und der „ars iudicandi“, den Begrün­dungszusammenhängen, hinsichtlich des „Verstehens“ von Wissenschaft besonders relevant. Die Analyse der Entstehungszusammenhänge verweist den Wissenschaftstheoretiker wie den Didaktiker nachdrücklich auf die historische Dimension der Disziplin; denn nach MAXWELL läßt sich Physik im Zustand des Entstehens am leichtesten verstehen, und nach M. JAMMER kann man das, was Physik ist, auch nur historisch verstehen.

Die didaktische Wertigkeit der beiden Komponenten des „context of justification“ und des „context of discovery“ für den Lern- und Verstehensprozeß von Physik zu erkennen, definiert eine zentrale Aufgabe der Physikdidaktik in Forschung und Lehre (15). Gelungene Lösungen möchte ich den „context of instruction“ nennen.






TEM-Diagramm


3.5 TEM - Diagramme

Die bisherigen Überlegungen zur Hypothesenbildung und Theorien-dynamik, die den komplexen Prozeß der Wissenschaftsentwicklung bestimmen, lassen sich übersichtlich in einem dreidimensionalen Schema darstellen.

In diesem Diagramm symbolisiert E die „empirische“ und M die „mathematische“ Dimension. Orthogonal zu der EM-Ebene erhebt sich die T-Achse. Unter Fortführung von G. HOLTONs Konzept „Thematische Analyse der Wissenschaft“ (16) soll sie die „thematische“ Komponente der Wissenschaftsentwicklung symbolisieren. Sie repräsentiert die historischen, psychologischen, religiösen und metaphysischen Hinter­grundsüberzeugungen. die einzelne Forscher oder Epochen als Evidenz-wahrheiten und Ideen von der Beschaffenheit der Natur und der Wirklichkeit vertreten haben. Zu ihnen gehören: Einfachheitspostulate, Erhaltungssätze der Substanz und Bewegung, die Antagonismen Kontinui­tät oder Diskontinuität des Substrates, Stofflichkeit und Form, Strukturiertheit und Chaos.

Die Punktmenge der E-Achse soll die empirischen Daten darstellen. Die M-Achse symbolisiert die mathematische Logik und Syntax der Theorie.

Im Prozeß der „Idealisierung“ oder der Herausarbeitung „reiner Phänomene“ werden die Punkte der EM-Ebene durch eine empirische und mathematische Komponente gekennzeichnet.

Physikalische Korrespondenzregeln stellen sich in dieser Symbolik dann als verschiedene „Linienelemente“ in der EM-Ebene dar.

In diesem zweidimensionalen Schema der EM-Ebene zur mathematischen Darstellung empirischer Daten vollzieht sich nach den Vorstellungen des Empirismus die Entwicklung der Wissenschaft, die im Sinne des Positivismus nicht auf eine Erfassung der „Wirklichkeit“, sondern lediglich auf die zweckmäßige, ökonomische Darstellung von Gesetz­mäßigkeiten gerichtet ist, mit dem Ziel, richtige Voraussagen über Naturvorgänge machen zu können. Korrespondenzregeln werden nach der Methode der logischen Falsifikation geprüft. EINSTEIN hat dieses methodische Konzept ein „primitives Ideal“ (17) genannt. Diesem „Ideal“ wird jedoch bewußt oder unbewußt bei „primitiven“ didaktischen Konzepten immer noch Tribut gezollt. Diese „zweidimensionalen“ Konzepte der EM-Ebene übersehen dabei die imaginative Kraft der Theorienbil­dung. Sie ist in unserem Schema durch die T-Achse gekennzeichnet, bei der das Symbol T im Sinne von HOLTON zunächst für „Themata“, implizite aber auch für „Tempus“ - interpretiert als zeitlich historische Dimension - stehen soll.

In unserem TEM-Diagramm stellen sich physikalische Theorien als dreidimensionale „Wirklichkeitsgebilde“ dar. Ihre „Geometrie“ ist durch die „Linienelemente“ der Referenzhypothesen bestimmt. Während die TM-Ebene die Ebene der mathematisch (logisch) kontrollierten kreativen Intuition symbolisiert, soll die TE-Ebene den qualitativen Aspekt physikalischer Modellbildung veranschaulichen. Vortheorien können sich in der EM-Ebene entwickeln. In dieser Ebene sind auch gewisse „Entscheidungsexperimente“ im Sinne von Verifikation oder Falsifikation eines mathematischen Ansatzes möglich, z.B. GALILEIs alternative Ansätze für den Bewegungsablauf des freien Falls: v · t oder v · s (s: Fallweg, v: Geschwindigkeit, t: Zeit) sind hier entscheidbar.

Widersprüche zwischen Theorien können jedoch nicht in der EM-Ebene aufgelöst werden. Dazu bedarf es der Einbeziehung der thematischen Dimension der T-Achse. NEWTONs Vorstellung eines „absoluten“ Raumes als „Sensorium Gottes“ ist eine metaphysische Hintergrundsüberzeugung. Er glaubte, diese Vorstellung durch seinen berühmten Eimerversuch empirisch bestätigt zu haben (18). E. MACH (19) interpretierte das NEWTONsche Experiment im Rahmen seiner positivistischen Philosophie indem er, die von NEWTONs als absolut angesehene Drehung des Wassers im Eimer, als Relativbewegung hinsichtlich der Fixsterne deutete. Die Verformung der Wasseroberfläche, die NEWTON durch die Fliehkräfte erklärte, wird nach MACH durch die kreisenden gravitierenden Fixsternmassen verursacht. Das Eimerexperiment ist also kein Entscheidungsexperiment. MACHs positivistische Hypothese ist nicht weniger metaphysisch als die NEWTONs. Auch MACHs Empirismus ist auf Erfahrung gegründet. Durch Erfahrung kann man zwar wissen, daß man durch sie Erkenntnis gewinnen kann, aber man kann so nicht wissen, daß man nur „empirisch“ Erkenntnisse gewinnen kann. So ist z.B. EINSTEINs Idee von der Harmonie und Symmetrie der Welt nicht aus Erfahrung gewonnen; da sie als konstruktives Erkenntnis-Prinzip mit jeder möglichen Erfahrung vereinbar ist, bzw. diese erst ermöglicht. Dieses Faktum verweist wiederum auch auf die historische Dimension des Rechtfertigungsproblems physikalischer Hypothesen- und Theorienbil­dungen.

Die Entstehung der Relativitätstheorie ist durch eine solche Situation gekennzeichnet. Sie ist charakterisiert durch den dramatischen Wider­spruch zwischen der MAXWELLschen Theorie des Lichtes und der klassischen Forderung nach der Gleichberechtigung aller Inertialsyste­me. Beobachter in verschiedenen Trägheitssystemen sollten hinsichtlich der Ausbreitungsgeschwindigkeit des Lichtes nach klassischen Überle­gungen zu unterschiedlichen Ergebnissen kommen, je nachdem, ob das System sich in Richtung des Lichtes oder entgegengesetzt bewegt. Dies ist jedoch nicht der Fall. Wie läßt sich nun dieser vermeintliche Widerspruch zur MAXWELL-Theorie, nach der die Lichtgeschwindigkeit immer gleich bleiben muß, auflösen? Es gibt zwei einander entgegenge­setzte Lösungen. Die eine stammt von LORENTZ und FITZGERALD und die andere von EINSTEIN. Diese Lösungen sind nur unter Einbeziehung der T-Achse unseres Diagramms zu bewerten. LORENTZ und FITZGERALD einerseits und EINSTEIN andererseits hatten unterschiedliche Hinter­grundsüberzeugungen hinsichtlich ihrer Vorstellungen von der „physika­lischen Wirklichkeit“. Dementsprechend stellte LORENTZ die Hypothese eines „Ätherwindes“ auf. Die durch ihn verursachten Kontraktionskräfte verkürzen Strecken und Maßstäbe in Bewegungsrichtung gerade so, daß durch diesen Effekt die Verkleinerung der Lichtgeschwindigkeit genau ausgeglichen wird. EINSTEIN dagegen erklärt die Invarianz der Gesetze der Lichtausbreitung nicht durch derartige, anschaulich vorstellbare Kräfte, sondern mit Hilfe der abstrakten Vorstellung einer unterschied­lichen Raum-Zeitstruktur für verschiedene Inertialsysteme, wobei er ausdrücklich an der Gleichberechtigung aller Trägheitssysteme in dem Sinne festhält, daß kein Beobachter behaupten kann, ausgezeichnete, d.h. absolute Maßstäbe zu besitzen. Der vermeintliche Widerspruch zwischen der Gleichberechtigung aller Inertialsysteme und der Invarianzforderung der MAXWELL-Gleichungen wird durch Aufgabe der klassischen Vorstellungen von Raum und Zeit aufgelöst. Kann experimen­tell entschieden werden, ob die EINSTEINsche oder die LORENTZsche Lösung die „richtige“ ist?

Die mathematische Darstellung der empirischen Befunde, d.h. die Erklärung des berühmten MICHELSON-MORLEYschen Experiments gibt in der EM-Ebene keinen Hinweis. Ist dann ein „experimentum crucis“ hinsichtlich der LORENTZschen bzw. der EINSTEINschen Deutungshypothese, d.h. mit Einbeziehung der T-Dimension unseres Diagramms möglich? Beide Hintergrundsüberzeugungen erweisen sich als im Einklang mit der Erfahrung stehend, aber keineswegs durch sie zwingend begründet. Während die LORENTZsche Interpretation von der Idee einer verur­sachenden Kraft getragen ist, ist EINSTEINs Hypothese von dem Gedanken getragen „ein möglichst einfaches Gedankensystem“ zu suchen, das die beobachteten Tatsachen zu einem Ganzen verbindet (20). Aus dieser metaphysischen Hintergrundsüberzeugung (Monismus) opfert er die klassische Raum-Zeit-Vorstellung, während der LORENTZschen Ätherhypothese die Idee eines absoluten Raumes und einer absoluten Zeit zugrunde liegen. die EINSTEIN als Metaphysik gerade ablehnt. Wieso hat sich dann ohne die Möglichkeit eines Entscheidungsexperiments EINSTEINs Hintergrundsüberzeugung hinsichtlich der Struktur der Wirklichkeit durchgesetzt? Ihre explanative Kohärenz hinsichtlich der Erfassung der physikalischen Wirklichkeit als Ganzes von der Mikrophy­sik bis zur Kosmologie hat sich als weit überlegen erwiesen. Ein wesentliches Kriterium der Überlegenheit einer Theorie im Vergleich zu ihrer Vorgängerin besteht darin, daß sie methodisch mehr Falsifikationsmöglichkeiten als diese enthält. Am treffendsten hat EINSTEIN selbst seine metaphysische Hintergrundsüberzeugung als „Bewunderung für Schönheit und Glaube an die logische Einfachheit der Ordnung und Harmonie“ charakterisiert (21).

Eine detaillierte Analyse der unterschiedlichen theoretischen Inter­pretationen des Photoeffektes im Rahmen unseres TEM-Diagramms vermittelt tiefgehende wissenschaftstheoretische und didaktische Einsich­ten. Eine solche Untersuchung ist an anderer Stelle beabsichtigt. Soviel sei hier jedoch schon mitgeteilt: MILLIKANs hervorragende experimentelle Arbeiten zur Untersuchung der EINSTEINschen Gleichung:

½·m·v2 + A = h·n

(v: Geschwindigkeit der Photoelektronen, A: Austrittsarbeit, n: Frequenz der einfallenden Strahlung, h: PLANCKsches Wirkungsquantum) veran­laßten diesen keineswegs zu Annahme der EINSTEINschen Licht­quantenhypothese. MILLIKAN bemerkt dazu: „Der Erfolg der Gleichung von EINSTEIN ist augenscheinlich ein vollkommener - und trotzdem hat sich gezeigt, daß die physikalische Theorie, als deren symbolischer Ausdruck jene Gleichung bezeichnet wurde, unhaltbar ist... Das Experiment hat die Theorie überholt - oder besser gesagt, es hat, geführt von einer falschen Theorie, Beziehungen aufgedeckt, welche von höchster Wichtigkeit sind...“ (22).

Die MILLIKANschen Experimente unterliegen einer Eigendynamik, die ihn nach falschen Messungen und unzutreffenden Deutungen dann aber wieder zur späteren Anerkennung der EINSTEINschen Lichtquanten­hypothese führen. Diese Eigendynamik zeigt sich darin, daß die MILLI­KANschen Experimente dann eigentlich nicht der Überprüfung der Photo­nen-Hypothese dienen, sondern die experimentelle Verifizierung der EINSTEIN-Gleichung zum Kriterium für die Angemessenheit und Güte der verwendeten Geräte und instrumentellen Techniken wird. Das Faktum, daß ein begabter Forscher die experimentelle Überprüfung einer aus der Quantenhypothese folgende Gleichung zunächst dazu benutzt, diese zu widerlegen, um sie dann später wieder als Bestätigung der Hypothese anzusehen, wirft ein erhellendes Licht auf das sehr komplexe Wechselspiel von Theorie und Experiment, vor allem jedoch auf die bereits oben aufgezeigte Problematik der Entscheidungsexperimente. Eine genaue Kenntnis dieser Zusammenhänge könnte wesentlich dazu beitra­gen, die im Zusammenhang mit dem „Dualismusproblem“ immer noch gepflegten didaktischen Scheinprobleme aufzudecken und zu beseitigen. Der Photoeffekt ist kein „experimentum crucis“ weder gegen die Wellentheorie noch für die Korpuskeltheorie des Lichtes.

Ein weiteres neuerdings wieder sehr aktuell diskutiertes Beispiel. das sich gut im Rahmen unseres TEM-Diagramms behandeln läßt, ist das berühmte EINSTEIN-ROSEN-PODOLSKY-Paradoxon (23). Grundsätzlich han­delt es sich dabei um die paradoxe Situation; daß bei zwei getrennten quantenmechanischen Systemen, zwischen denen keine physikalische Wechselwirkung besteht, die Ergebnisse von Messungen korreliert sind.

Der Formalismus der Quantenmechanik sagt diese Korrelation zwar exakt voraus, er enthält jedoch keinerlei Hinweise darauf, wie sie zustande kommt, d.h. wie sie physikalisch zu verstehen ist. Bei der Diskussion um diese Problematik, die allgemein die Frage der „Vollständigkeit“ der Quantenmechanik betrifft, vertraten EINSTEIN und BOHR zwei grundsätz­lich verschiedene metaphysische Hintergrundsüberzeugungen hinsichtlich der Verfassung der physikalischen Wirklichkeit (26). Nach EINSTEIN ist Wirklichkeit primär durch Substanzen, die bestimmte Eigenschaften (z.B. Ort und Impuls) haben, konstituiert. Eine Messung deckt einen Zustand an sich auf. Nach BOHR wird Wirklichkeit durch die Relationen zwischen Substanzen existent, dadurch tritt sie erst im Meßprozeß in Erscheinung (11). Kann man unter Einbeziehung der T-Achse unseres Diagramms diese „ontologische“ Kontroverse zwischen EINSTEIN und BOHR durch ein „experimentum crucis“ entscheiden? Oder ist auch hier die Lage analog wie bei der Diskussion zwischen LORENTZ und EINSTEIN?

Die Experimente sind sehr viel diffiziler und aufwendiger. In diesem Zusammenhang hat J. S. BELL 1964 nachgewiesen, daß keine determi­nistische Theorie der „verborgenen Parameter“ alle statistischen Vorhersagen der Quantenmechanik darstellen kann. Dabei ist die „Lokalitätsbedingung“ wesentliche Voraussetzung. Sie besagt, daß der Ausgang einer Messung am Meßgerät 1 nur vom Zustand des Mikroobjek­tes an diesem Ort abhängen darf und nicht von dem Meßausgang am Gerät II beeinflußt werden darf. CLAUSER, HORNE, HOLT und SHIMONY (24) haben gezeigt, daß auch stochastische Theorien mit verborgenen Parametern mit dem Formalismus der Quantenmechanik in Widerspruch geraten, wenn sie die Lokalitätsbedingung erfüllen (25).

Offensichtlich kommen lokale Theorien zu anderen Vorhersagen als die Quantenmecha­nik. Wieder stellt sich die Frage: kann durch ein „experimentum crucis“ eine Entscheidung zwischen diesen beiden theoretischen Konzep­ten herbeigeführt werden? Durch den Ansatz von BELL und seine Verallgemeinerungen ist es jedenfalls möglich, eine Reihe von Theorien mit verborgenen Parametern zu selektieren. Dabei zeigt sich, daß alle Erfahrungen durch die Quantenmechanik exakt wiedergegeben werden.

Noch ist nicht ganz klar, welche Opfer an gewohnten Vorstellungen gebracht werden müssen, um auch hier dem Prinzip der explanativen Kohärenz der Interpretation physikalischer Wirklichkeit zum Durchbruch zu verhelfen. Die Experimente entscheiden dabei direkt nicht, sondern die Art und Weise, wie wir diese unter Einbeziehung der T-Achse interpretieren. Wenn jedoch in dem Aufsatz d'ESPAGNAT „Die Quanten­theorie und die Realität“ (Scientific American, 1979) behauptet wird, daß die Position des Realismus, nach der die Natur auf Objekten aufgebaut ist, die unabhängig von menschlichem Bewußtsein existieren, nicht mit der Quantenmechanik und experimentellen Fakten zu vereinba­ren wäre, und andere Physiker kritiklos dies nacherzählen, dann verrät dies mangelnde wissenschaftstheoretische Einsicht und illustriert sehr gut die Situation, auf die die eingangs zitierte Metapher von LAKATOS zielt.



3.6 Der Realitätsbezug physikalischer Theorien und Modelle

P. DUHEM hat in seiner Untersuchung über „Ziel und Struktur physi­kalischer Theorien“ (5) klar herausgestellt, daß Theorien die Wirklich­keit nicht wörtlich oder vollständig, sondern immer nur unvollständig symbolisch abbilden. Sie enthalten begriffliche Elemente, die wesentlich über die Beobachtung hinausgehen. Theorien arbeiten dabei mit Modellvorstellungen, die auf die Erfassung der Realität zielen. Solche Modelle sind ein entscheidendes Hilfsmittel bei der Erfindung, Anwendung und Weiterentwicklung physikalischer Theorien. Sie sind vereinfachte Kandidaten (Repräsentanten) der Realität. Da Modelle als ein konstituierendes Element von Theorien gleichsam die begriffliche Skizze des Objektbereichs sind, dessen Existenz die Theorie behauptet, ist eine Modelldiskussion nicht zu lösen von grundsätzlichen Einsichten hinsichtlich des Zieles und der Struktur physikalischer Theorien.

Dies sei besonders betont, weil der in der didaktischen Literatur fast inflatorisch verwendete Modellbegriff Gefahr läuft, eine Alibi-Funktion für nicht verstandene Theorien zu erhalten. Eine derartige „Elementarisierung“ ist abzulehnen. Allgemein ist ein Modell eine bildhafte oder schematische begriffliche Repräsentation eines realen physikalischen Objektes oder Vorgangs. Man bezeichnet es nach M. BUNGE (26) besser als „Modellobjekt“.

Wenden wir uns nun der entscheidenden Frage zu:
Wie und in welchem Sinne bildet eine physikalische Theorie bzw. ein Modell einen Ausschnitt aus der Wirklichkeit ab?

Diese Frage ist zu verschiedenen Zeiten und von verschiedenen philosophischen Hintergrundsüberzeugungen ganz unterschiedlich beant­wortet worden.

Die phänomenologische Auffassung deutet Theorien als Instrument zur denkökonomischen Beschreibung der Sinneswahrnehmungen. Dies ist die Auffassung des Positivismus MACHscher Prägung.

Die Kopenhagener Interpretation der Quantenphysik neigt mehr zu einer operationalistischen Theorie-Deutung.

In der klassischen Physik konnte man davon ausgehen, daß die Wechselwirkung der Meßvorrichtung mit dem Beobachtungsobjekt vernach­lässigbar ist. Wegen der Unbestimmtheitsrelation ist dies in der Quantenphysik prinzipiell nicht möglich. Nach ihr sind z.B. Orts- und Impulsmessungen einander ausschließende Meßverfahren.

Nach der Kopenhagener Interpretation besteht eine unaufhebbare Verknüpfung zwischen der Meßapparatur und dem Mikrosystem. Beide zusammen stellen das Quantenphänomen dar. Die Y-Funktion beschreibt nicht mehr die Wirklichkeit an sich, sondern die durch den Experimentator im Meßprozeß aktualisierte Wechselwirkung des Mikro-systems mit der Meßvorrichtung. In diesem Sinne konstituiert die Kenntnisnahme des Beobachters die „faktische Realität“ des Mikroobjektes.

Nach dieser Interpretation vermittelt Physik nicht mehr ein Bild der Natur, sondern ein Bild unserer Kenntnis über die Natur.

Ort und Impuls eines Mikroobjektes existieren nicht unabhängig von der Beobachtung, sondern erst im Meßprozeß werden sie existent.

Daher ist es nicht mehr ohne weiteres möglich, dem Mikroobjekt selbst eine physikalische Eigenschaft zuzuschreiben. Im Gegensatz zu den Objekten der klassischen Physik, kann man Mikroobjekte nicht als autonome Elemente der Wirklichkeit ansehen. „Sein“ ist nach dieser Interpretation „gemessen werden“.

Diese Position wird von den realistischen Kritikern der Kopenhagener Interpretation nicht akzeptiert. In den letzten Jahren wurde im Zusammenhang mit der Aufnahme der alten Diskussion um „verborgene Parameter“ verstärkt Kritik vorgetragen. Eine Entscheidung zwischen beiden Positionen der quantenmechanischen Wirklichkeitsinterpretation, - etwa durch ein „experimentum crucis“ - ist nicht möglich, da sie von unterschiedlichen metaphysischen Hintergrundsüberzeugungen ausgehen.

Bei einer instrumentalistischen Deutung kommt einer Theorie nur eine syntaktische Funktion zu. Theoretische Terme werden durch Reduktions­verfahren auf Beobachtungsbegriffe zurückgeführt. Dabei wird der Realitätsbezug bewußt ausgeklammert. Vertreter des logischen Empiris­mus haben sich diese erkenntnistheoretische Position weitgehend zu eigen gemacht.

Der hypothetische Realismus dagegen geht davon aus, daß die Theorie essentiell über die Erfahrung hinausgeht. Dabei bildet die Theorie die Wirklichkeit nicht porträtmäßig oder ikonisch ab, sondern sie versucht, die „Subjektivität zu transzendieren“ (26), um so reale Kontakte zur Wirklichkeit herzustellen.

Naturwissenschaftliche Theorien sind hinsichtlich ihres erkenntnis-theoretischen Status immer hypothetisch. Sie sind kein ikonisches Abbild der Wirklichkeit. Sie gehen davon aus, daß eine reale Welt mit bestimmten Strukturen existiert, die man approximativ erkennen kann. Eine Theorie ist der Wirklichkeit um so adäquater, je länger und besser sie permanenten Versuchen, sie zu falsifizieren, widersteht.

Anzumerken ist, daß der objektive Charakter der naturwissenschaft­lichen Erkenntnis neuerlich durch die evolutionäre Erkenntnistheorie (LORENZ, VOLLMER) eine starke Stütze erhält. Aufgrund des Selektionsdrucks ist es nach dieser Theorie nicht möglich, daß unser Erkenntnisapparat - ein Ergebnis der Evolution - uns keine richtigen Informationen über die Wirklichkeitsstrukturen liefert.

Die physikalische Methode hat immer das Ziel, Wirklichkeit zu erkennen und darzustellen. Sie tut dies in einer hypothetischen Weise; denn jede Theorie muß, wie bereits DUHEM klar herausstellte, sowohl symbolisch als auch unvollständig sein. Dabei ist die physikalische Methode jedoch kein unverbindliches intellektuelles Spiel mit mathematischen Formalis­men. Diese sind lediglich Hilfsmittel und nur in dem Maße essentiell, wie sie sich zur Erfassung der Realität als tauglich erweisen. Damit soll nicht einem naiven Realismus das Wort geredet werden. Die vorstehenden Betrachtungen zur Methode der Physik stehen vor dem Hintergrund eines kritischen oder „hypothetischen“ Realismus. Hinsicht­lich der Modell-Diskussion sollen ~e mit dazu beitragen, den ideologischen Schleier der „Nur- Modellhaftigkeit“ unserer Naturerkennt­nis zu lüften.

Ideologieverdacht ist auch noch in anderer Richtung angezeigt. Gewisse Wissenschaftssoziologen propagieren eine „New History and Sociology of Science“ (27). Dort wird behauptet, das erklärte Ziel der physikali­schen Methode, Wahrheiten über die Natur zu entdecken, sei eine Ideologie. Naturwissenschaftliche Fakten sind danach nicht durch die Natur gegeben, sondern Ergebnisse „sozialer Konsensbildungen“, die in der Wissenschaft ausgehandelt würden. Daher sage eine physikalische Theorie nichts über die Struktur der Wirklichkeit aus, sondern nur etwas darüber auf welche Eigenschaften der Naturvorgänge man sich geeinigt habe.

Wir haben wiederholt darauf hingewiesen, welche Rolle historisch bedingte metaphysische Hintergrundsüberzeugungen in der Theorien-dynamik spielen. Die historische Analyse der physikalischen Methode sollte dies ja such verdeutlichen und allgemein zeigen, in welcher Weise der „context of discovery“ für den „context of justification“ relevant ist (15). Aber Theorien müssen sich an den realen Strukturen der Natur bewähren. Angesichts der pragmatischen Erfolge der physikalischen Methode kann man sich nicht vorstellen, daß diese lediglich auf einem sozialen Konsens beruhen sollen, dem in der Natur nichts Reales entspricht. Durch sozialen Konsens ließen sich ja auch unsinnige Theorien am Leben erhalten. Beispiele dafür gibt es ja in anderen Bereichen. Wenn von jenen Wissenschafts­soziologien behauptet wird, die Natur sei gleichsam nur ein Produkt der Gesell­schaft, dann scheint uns diese These pervertiert.

Es ist zu befürchten, daß gewisse Didaktiker hier Morgenluft wittern könnten, bildungspolitische Utopien mit dem wissenschaftlichen Firmenschild der „New History and Sociology of Science“ (NHS) als neue Ziele des Physikunterrichts zu propagieren. Anfällige gegen solche modischen Ideologien, sollten den hervorragenden Wissenschaftstheoretiker J. LAKATOS studieren, der nachdrücklich davor gewarnt hat, daß eine derartige Relativierung des Wahrheitsbegriffs in pseudowissenschaftlicher Maskierung zu dem gefährlichen Schluß führen könnte, „Wahrheit läge in der Macht (politisch) wechselnder Mehrhei­ten“. Deshalb geht er mit jenen Wissenschaftssoziologen, die in dieser Art den Wahrheitsbegriff zur Disposition stellen, mit harten Worten ins Gericht. Er wirft ihnen vor, „das grundlegende politische Credo religiöser Irren von heute zu legitimieren“ (14).



4. Didaktische Perspektiven

Im Rahmen der vorausgehenden wissenschaftstheoretischen Überlegungen wurden bereits explizit und implizit didaktische Konsequenzen deutlich herausgestellt.

Die Methode der Physik, d.h. das sehr subtile Wechselspiel von Theorie und Experiment, stand im Mittelpunkt der Betrachtungen. Dabei wurde exemplarisch immer wieder auf didaktische Perspektiven einer Einbezie­hung der historischen Dimension in die wissenschaftstheoretische Analyse eröffnet. Nach P. DUHEM bedeutet nämlich „die Darlegung der Geschichte eines physikalischen Prinzips gleichzeitig die logische Analyse desselben“ (5). Wir meinen, daß eine derartige Analyse auch die didaktische Reflexion, Präsentation und Reproduktion des physika­lischen Erkenntnisprozesses wesentlich bestimmt.

Dieses wissenschaftstheoretische Konzept der Physikdidaktik („Gießener Modell“) findet weithin internationale Anerkennung. Im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Projektes laufen in unserem Institut eine Reihe von Entwicklungen, die in besonderer Weise dazu beitragen werden, der didaktischen Forschung wichtige Impulse zu geben und ihr neue Wege zu zeigen.

Wenn man von der Arbeitshypothese ausgeht, daß der Schüler bzw. Student im individuellen Lernprozeß den Weg der historischen Evolution physikalischer Erkenntnis im Zeitraffertempo nachvollziehen muß, gewinnen vor dem Hintergrund dieses theoretischen Konzeptes empirische forschungs- und lernpsychologische Untersuchungen sowohl für die Didaktik als auch für die Wissenschaftstheorie eine besondere Bedeu­tung. Die sehr nützlichen Ansätze von PIAGET sollten weiterentwickelt und dabei auf ein wissenschaftstheoretisches Reflexionsniveau gehoben werden (28).

Eingangs wurde bereits nachdrücklich auf die grundsätzliche Bedeutung wissenschaftstheoretischer Analyse für die Inhalts- und Stoffproblematik in Unterricht und Lehre hingewiesen. Diese kann wesentlich dazu beitragen, vor neopositivistischer Stoffhuberei und der Verbreitung entsprechender Zerrbilder der physikalischen Methode zu bewahren.

Die in der vorliegenden Abhandlung aufgezeigten Perspektiven verweisen darauf, daß der geistige Standort für eine Didaktik ex mente physicis nicht im Fachbereich Pädagogik oder „interdisziplinär“ sein kann. Sie gehört als integraler Bestandteil zur Disziplin. Dort kann sie wesentlich dazu beitragen, die Kommunikation zwischen den speziellen Arbeitsgruppen aufrecht zu erhalten und der Disziplin helfen, ihre innere Kohärenz zu bewahren.

Physik-Didaktik, die sich genuin als Physik und ebenso als Wissenschaftstheorie sui generis im Sinne der vorgetragenen Überlegungen versteht, wird - unbeschadet von einer ebenso naiven wie auch aus leicht durchschaubaren Gründen gezielter Identifikation von Physikdidaktik mit reiner Lehrerausbildung, zu der leider auch Didaktiker Anlaß geben - wesentlich dazu beitragen, die Lehre auf dem höchstmöglichen Stand der Forschung sowie der wissenschaftstheoretischen Reflexion zu halten und damit der didakti­schen Dimension der Fachdisziplin ein besonderes Profil verleihen.



Literatur

(1) GALILEI, G.: Le Opere, VI, 545, Edizione Nationale, Firenze 1890-1909

(2) KANT, J.: Kritik der reinen Vernunft, Leipzig 1924

(3) GALILEI, G.: Le Opere, VI

(4) GALILEI, G.: Le Opere, VI

(5) DUHEM, P.: Ziel und Struktur physikalischer Theorie, Leipzig 1908

(6) KUHN, W., STRNAD, J.: 60 Jahre de Brogliesche Materiewellen -eine wissenschaftstheoretische Nachlese, Köln 1984

(7) TONNELAT, M. A.: Louis de Broglie et la mécanique ondulatoire, Paris, 1966

(8) BORN, M.: Physik im Wandel meiner Zeit, Braunschweig 1958

(9) STÖCKLER, M. : Philosophische Probleme der relativistischen Quanten­mechanik, Berlin 1984

(10) KANITSCHEIDER, B.: Wissenschaftstheorie der Naturwissenschaft, Berlin 1961

(11) HÜBNER, K.: Kritik der wissenschaftlichen Vernunft, München 1979

(12) POPPER, K.: Logik der Forschung, Tübingen, 1976

(13) KUHN, Th.: Die Struktur wissenschaftlicher Revolutionen, Frank­furt 1967

(14) LAKATOS, J.: Die Methodologie der wissenschaftlichen Forschungs­programme, Braunschweig 1984

(15) KUHN, W. : Die Rolle der Physikgeschichte in der Physiklehrer-ausbildung und im Physikunterricht, Phys. BI. 38 (1982) Nr. 7

(16) HOLTON, G.: Thematische Analyse der Wissenschaft, Frankfurt 1981 SALTZER, W. G.: Wissenschaftsgeschichte und Wissenschafts­philosophie - ein komplementärer Ansatz in Physik - Theorie - Experiment - Geschichte - Didaktik, Köln 1984

(17) SCHILPP, P. : Albert Einstein, Stuttgart 1951, 281

(18) NEWTON, J.: Mathematische Prinzipien der Naturlehre, Erklä­rungen, Anmerkung IV

(19) MACH, E.: Die Mechanik, historisch-kritisch dargestellt, Darm­stadt 1963, 222 ff

(20) SCHILPP, P. : Albert Einstein, 281

(21) a.a.O. 115

(22) MILLIKAN, R. A.: Das Elektron, Braunschweig 1922

(23) EINSTEIN / PODOLSKY / ROSEN: Can Quantum-Mechanical Description of Physical Reality be considered complete, Phys. Rev. 47 (1935) 777 ff

(24) CLAUSER / SHIMONY: Bells Theorem Experimental Tests and Implications, Reports on Progress in Physics, 41 (1978)

(25) STÖCKLER, M.: Philosophen in der Mikrowelt - ratlos? Zeitschrift für Allgemeine Wissenschaftstheorie 2/1985

(26) BUNGE, M.: Physik und Wirklichkeit, im Erkenntnisproblem der Naturwissen­schaften (Herausgeber: L. KRÜGER) Köln 1970

(27) COLLINS, H. M., SHAPIN, ST.. Edit. Sociology of Scientific Knowledge: A Source Book, Bath UP, 1982

(28) KUBLI, F.: Piaget und Naturwissenschaftsdidaktik, Köln 1981



Homepage