Das andere wichtige Modell wissenschaftlicher "Covering-law"-Erklärungen ist das IS-Modell, induktiv-statistische Erklärung.

Diese nimmt ebenfalls als "covering-law"-Erklärung essentiell auf allgemeine Gesetze Bezug. Im Unterschied zum DN-Modell sind diese Gesetze aber nicht deterministisch, sondern probabilistisch. (Dass Hempel und Oppenheim diese Trennung vollziehen, kann man aber bestimmt auch kritisieren.) Anstelle für jeden einzelnen Fall (jedes Vorkommen der jeweiligen
Rahmenbedingungen) eindeutig die Wahrheit oder Falschheit des Explanandums zu bestimmen, gibt eine statistische Gesetzmäßigkeit nur Auskunft darüber, wie hoch bei
einer großen (theoretischen) Anzahl Vorkommnisse die Anzahl der Fälle ist, bei denen das Explanandum eintritt. (Hier ist der Verweis angebracht, dass zumindest bei Hempel (zu Hempels Zeiten allgemein?) die gängige Interpretation von Wahrscheinlichkeit der frequentistische bzw. objektive Wahrscheinlichkeitsbegriff ist.)

Obwohl diese Gesetzmäßigkeiten auch allgemeiner Natur sind, d.h. keinen nur auf bestimmte partikuläre Fälle eingeschränkten Geltungsbereich haben (die genaue Definition hiervon führt Hempel allerdings auch schon beim DN-Modell auf Schwierigkeiten, siehe Gesetze), gibt es hier nicht die universelle, logisch zwingende formale Beziehung zwischen nomologischen
Prämissen und partikulären Vorkommnissen des Explanandums, die für einen deduktiven Schluss notwendig ist.

Wir können hier noch differenzieren: Wie auch beim DN-Modell ist es möglich, von allgemeineren Gesetzen auf "untergeordnete" bzw. weniger allgemeine Gesetze zu schließen. Diese Anwednung (die quasi auf der Ebene probabilistischer Gesetzmäßigkeiten bleibt, anstelle zu individuellen Ereignissen hinabzusteigen) läuft noch relativ problemlos; hier können wir tatsächlich noch deduktiv arbeiten (dies ist dann strenggnommen deshalb nicht IS, induktiv-statistisch, sondern DS, deduktiv-statistisch). Schwierig wird es dann, wenn wir versuchen, mittels probabilistischer Gesetze bestimmte partikuläre Ereignisse zu erklären. Hier zeigten sich in der Logik der Erklärung einige Unterschiede bzw. Schwierigkeiten im Vergleich zum DN-Modell. Die induktiv-probabilistischen Erklärungen meint Hempel deshalb letztendlich nicht, wie ursprünglich gehofft, auf deduktiv-nomologische Erklärungen reduzieren (oder irgendwie nah bis analog zu ihnen erklären) zu können.

Die Logik von IS-Erklärungen läuft zwar vom Schema her ähnlich wie die DN-Erklärungen, allerdings kommt es statt zu einem deduktiven Schluss auf das Explanandum nur zu einer induktiven Unterstützung für das Explanandum. (Und zwar, wenn wir wirklich von einer adäquaten Erklärung für ein Ereignis sprechen wollen, eine hohe induktive Unterstützung). Wir haben also in der Grundform der IS-Erklärungen ein allgemeines Gesetz, dass eine bestimmte Wahrscheinlichkeit r für einen F-Gegenstand ausweist, G zu sein. Dazu kommt dann zb die Antezedenzbedingung, dass i ein F-Gegenstand ist (Fi), und dann folgt daraus mit der induktiven Unterstützung r (d.h. diese entspricht der vom Gesetz angegebenen Wahrscheinlichkeit) die Konklusion Gi. Das heißt, wir können keine Aussage machen über die "allgemeine" (statistische) Wahrscheinlichkeit von Gi, sondern nur über die Wahrscheinlichkeit von Gi relativ zum Explanans (induktive Wahrscheinlichkeit).

Ein Unterschied von DN und IS-Erklärungen st die Anfälligkeit induktiver Erklärungen für Ambiguität: Es gibt Fälle, in denen wir zwei induktive Argumente (mit wahren Prämissen) geben können, deren Explananda sich widersprechen, nämlich wenn der betreffende Gegenstand zu mehreren unterschiedlichen Referenzklassen gezählt werden kann, die das Ereignis Gi unterschiedlich bewerten

Zum Beispiel (etwas ungenau formuliert, hoffe es wird trotzdem klar):

Die Wahrscheinlichkeit, dass ein Stuhl beim Draufsetzen nicht zusammenbricht, ist hoch.
Das Ding, auf das ich mich setze ist ein Stuhl.
→  (Wir haben hohe induktive Unterstützung dafür, dass gilt:) Das Ding, auf das ich mich setze, wird beim Draufsetzen nicht zusammenbrechen.

Dieses Argument kann – angenommen, die Prämissen sind wahr – anscheinend als induktive Erklärung genommen werden. Aber folgendes Argument kann auch wahre Prämissen haben, und somit auch als induktive Erklärung gelten, obwohl sein Explanandum entegegengesetzt ist:

Die Wahrscheinlichkeit, dass ein Stuhl aus morschem Holz beim Draufsetzen zusammenbricht, ist hoch.
Das Ding, auf das ich mich setze ist ein Stuhl aus morschem Holz.
→  (Wir haben hohe induktive Unterstützung dafür, dass gilt:) Das Ding, auf das ich mich setze, wird beim Draufsetzen zusammenbrechen.

Diese beiden Argumente können gleichzeitig wahre Prämissen haben (das Ding, auf das ich mich setze, ist in der Tat ein Stuhl, und ein Stuhl aus morschem Holz), d.h. der Gegenstand aus dem Explanandum wird unterschiedlichen Referenzklassen zugeordnet (einmal allen Stühlen, einmal allen morschen Stühlen), relativ zu derer seine Wahrscheinlichkeit bestimmt wird. Da die Konklusion jeweils nicht für wahr behauptet wird, sondern nur ihre jeweilige hohe induktive Wahrscheinlichkeit relativ zu zwei unterschiedlichen Prämissenmengen, haben wir hier zwar keinen logischen Widerspruch. Aber es scheint trotzdem problematisch für eine Logik induktiver Erklärung; ganz einfach, weil wir nicht wissen, welcher potentieller Erklärung wir glauben sollen. Das Problem ist also jetzt, eine Anleitung dafür zu entwerfen, wie wir die richtige Referenzklasse auswählen. Hempels Ansatz dafür ist das "requirement of maximal specificity", über das erreicht werden soll, dass wir diejenige Klasse auswählen, die am "spezifischten" das jeweilige Objekt beschreibt. In unserem Fall wären das also die "Stühle aus morschem Holz", da dies eine Teilmenge von "alle Stühle" ist. Die genaue Ausbuchstabierung dieses Requirement führt aber wieder zu neuen Problemen.



  • Keine Stichwörter
Kommentar schreiben