Stochastische Simulation von Zufallsexperimenten mit Fathom – eine theoretische Werkzeuganalyse und explorative Fallstudie

Die druckbare Version wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisieren Sie Ihre Browser-Lesezeichen und verwenden Sie stattdessen die Standard-Druckfunktion des Browsers.



Carmen Maxara (2009): Stochastische Simulation von Zufallsexperimenten mit Fathom – eine theoretische Werkzeuganalyse und explorative Fallstudie. Dissertation, Universität Kassel.
Begutachtet durch Rolf Biehler und Joachim Engel.
Erhältlich unter https://kobra.bibliothek.uni-kassel.de/bitstream/urn:nbn:de:hebis:34-2006110215452/3/Kadisto7.pdf
Tag der mündlichen Prüfung: 11.03.2009.

Zusammenfassung

Ausgangspunkt dieser Dissertation ist zum einen die in der Mathematikdidaktik weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen, zum anderen bestand in der Vorlesung „Elementare Stochastik“ an der Universität Kassel die Möglichkeit, Simulationen mit der Software Fathom zu integrieren. Da Fathom in den USA in der Statistikausbildung eingesetzt wird, es aber keine didaktisch aufbereitete Literatur speziell zur Simulation gab und auch keine empirischen Untersuchungen zum eigenständigen Erstellen von Simulationsumgebungen mit Fathom vorlagen, ergaben sich folgende Zielsetzungen: Erstens eine Werkzeuganalyse des Simulationspotentials von Fathom und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten.

Nach einer Aufarbeitung mathematischer Grundlagen und mathematikdidaktischer Ideen zum Einsatz von Simulation im Stochastikunterricht, wird der in der AG Biehler entwickelte Simulationsplan als Analyseinstrument für die Software uminterpretiert. So lassen sich durch die Gliederung der Simulation in verschiedene Phasen, verschiedene Interfaces unterscheiden, hinsichtlich derer man die Grenzen und Möglichkeiten eines Softwarewerkzeugs differenziert und simulationsspezifisch herausarbeiten kann. In der Arbeit wird zunächst die „Angebotsseite“ analysiert: Was bietet die Software an Simulationspotential? Es wird eine Unterscheidung nach verschiedenen Simulationsarten und verschiedenen Optionen zur Erzeugung von Zufall entwickelt. Dies ist eine wichtige Konzeptualisierung, die eine Vorbedingung für eine genaue weitere Analyse ist. Eine vergleichbar klare Differenzierung findet man auch nicht in internationaler Literatur. Die Konzeptionalisierung ist selber gleichsam Resultat eines Prozesses der instrumentellen Genese auf der Ebene der didaktischen Forschung. So können Konzepte wie das der unterschiedlichen Simulationsarten Lernenden helfen, ihren eigenen Prozess der instrumentellen Genese gezielter und effektiver zu gestalten. In einem weiteren Schritt wird die „Nachfrageseite“ analysiert. Ausgehend von bestimmten Modellen und ausgewählten Fragestellungen, die im Stochastikunterricht und in der didaktischen Literatur für den Stochastikunterricht vorgeschlagen werden, wird kritisch untersucht, wie gut und leicht sich diese Situationen in Fathom realisieren lassen. Eine Teilfragestellung ist dabei, welcher der Simulationsarten bei welchen Modellen welche Vor- und Nachteile bietet. Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte.

Im zweiten Teil dieser Arbeit werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgelegt, nachdem sie die Veranstaltung „Elementare Stochastik“ besucht hatten. Dem seinerzeitigen Stand der Wissenschaft war angemessen, eine qualitativ orientierte explorative Fallstudie durchzuführen, bei der die Interaktions- und Kommunikationsprozesse von Paaren von Studierenden beim Problemlösen videographiert, transkribiert und dann analysiert werden. Es war seinerzeit die erste Studie dieser Art im Umgang mit der Software Fathom bei der Simulation. Dabei werden Vorgehensweisen der interpretativen Interaktionsanalyse und der qualitativen Inhaltsanalyse nach Mayring miteinander kombiniert und ein mehrschrittiges, aufeinander aufbauendes Methodensystems entwickelt. Für einen Anschauungs- und Interpretationshintergrund werden zunächst die Lösungsprozesse interpretativ und relativ eng am Material rekonstruiert. In einer zweiten Auswertungsstufe werden „Simulationsprozessdiagramme“ entwickelt, mit denen die Strukturen und der Ablauf des Lösungsprozesses auf der Basis der Komponenten des Simulationsplans visualisiert werden. Dieses abstrakte Modell des Lösungsprozesses erlaubt instruktive Vergleiche zwischen den Studentenpaaren und eine Beurteilung, wie weit die Komponenten des Simulationsplans handlungsleitend gewirkt haben könnten. In einem dritten Schritt wird stringent nach den Methoden der Qualitativen Inhaltsanalyse eine Kodierung und Auswertung der Transkripte vorgenommen. Dazu werden zwei Kategoriensysteme mit unterschiedlichen Dimensionen entwickelt, die sich auf die fathom-spezifischen Simulationskompetenzen und die stochastischen Kompetenzen beziehen. Nach einer Analyse der Kompetenzen werden diese im Kontext inhaltlich interpretiert. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von acht Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.



Kontext