Institute of Education

Kategoriensystem zur überfachlichen Aufgabenanalyse

Beteiligte Personen/Institutionen: Prof. Dr. Thorsten Bohl (Tübingen), Prof Dr. Marc Kleiknecht (Lüneburg), Prof. Dr. Uwe Maier (Schwäbisch Gmünd), ; Dr. Kerstin Metz (Ludwigsburg), Henriette Hoppe (Schwäbisch Gmünd), Prof. Dr. Christina Drüke-Noe (Weingarten)

Laufzeit: seit 2008

Zusammenfassung: Weltweit ist Unterricht täglich und in jeder Unterrichtstunde von Aufgaben geprägt. Über die Auswahl geeigneter Aufgaben versuchen Lehrerinnen und Lehrer Ihre Ziele zu erreichen. Aufgaben konkretisieren die Lehr- und Lernziele, sie definieren die kognitiven Anforderungen, Art und Umfang des Unterrichtsangebots, sie ermöglichen und begrenzen den Lernerfolg der Schülerinnen und Schüler. Lehrerinnen und Lehrer wählen im Laufe ihrer Berufsleben hunderte oder tausende von Aufgaben aus. Dies muss rasch, zielgerichtet und auf die jeweilige Lerngruppe bezogen geschehen. Größtenteils werden dafür verfügbare Aufgaben aus Schulbüchern oder Lernmaterialien ausgewählt. Zunehmende Bedeutung erlangt die reflektierte Auswahl von Aufgaben in individualisierten Unterrichtskonzepten oder im Rahmen schülerorientierter, selbstständige Lernphasen.
Wie kann die alltägliche Auswahl systematisch und begründet geschehen? Wie können Aufgaben in ihrem Lernpotential durchdrungen werden? Um diese und weitere Fragen zu klären arbeitet unsere Forschungsgruppe seit einigen Jahren an der Entwicklung eines überfachlichen Kategoriensystems zur Analyse von Aufgaben. Wir untersuchen dieses Kategoriensystem wissenschaftlich und setzen es zunehmend in der Lehrerbildung und in der Lehrerfortbildung ein. Auf diesen Seiten erfahren Sie mehr.

Weitere Angaben:

Aufgabenanalyse

Weltweit ist Unterricht täglich und in jeder Unterrichtstunde von Aufgaben geprägt. Über die Auswahl geeigneter Aufgaben versuchen Lehrerinnen und Lehrer Ihre Ziele zu erreichen. Aufgaben konkretisieren die Lehr- und Lernziele, sie definieren die kognitiven Anforderungen, Art und Umfang des Unterrichtsangebots, sie ermöglichen und begrenzen den Lernerfolg der Schülerinnen und Schüler.

Lehrerinnen und Lehrer wählen im Laufe ihrer Berufsleben hunderte oder tausende von Aufgaben aus. Dies muss rasch, zielgerichtet und auf die jeweilige Lerngruppe bezogen geschehen. Größtenteils werden dafür verfügbare Aufgaben aus Schulbüchern oder Lernmaterialien ausgewählt. Zunehmende Bedeutung erlangt die reflektierte Auswahl von Aufgaben in individualisierten Unterrichtskonzepten oder im Rahmen schülerorientierter, selbstständige Lernphasen.

Wie kann die alltägliche Auswahl systematisch und begründet geschehen? Wie können Aufgaben in ihrem Lernpotential durchdrungen werden? Um diese und weitere Fragen zu klären arbeitet unsere Forschungsgruppe seit einigen Jahren an der Entwicklung eines überfachlichen Kategoriensystems zur Analyse von Aufgaben. Wir untersuchen dieses Kategoriensystem wissenschaftlich und setzen es zunehmend in der Lehrerbildung und in der Lehrerfortbildung ein. Auf diesen Seiten erfahren Sie mehr.

Projektpartner

Prof. Dr. Uwe Maier
(Projektpartner von Beginn an)
Pädagogische Hochschule Schwäbisch Gmünd
Institut für Erziehungswissenschaft / Arbeitsbereich Empirische Schulforschung
Amt für Schulpraktische Studien
Oberbettringerstraße 200
73525 Schwäbisch Gmünd;
Tel. 0049 (0)7171-98.272
eMail: uwe.maierspam prevention@ph-gmuend.de
Website: http://www.ph-gmuend.de/deutsch/lehrende-a-z/m/maier-uwe.php

Dr. Marc Kleinknecht
(Projektpartner von Beginn an)
TUM School of Education
Schulpädagogik
Schellingstr. 33
80799 München
Tel. 0049 (0)89-289.25174
eMail: marc.kleinknechtspam prevention@tum.de
Website: http://www.schulpaed.edu.tum.de/team/marc-kleinknecht/

Dr. Kerstin Metz
(Projektpartnerin von Beginn an)
Pädagogische Hochschule Ludwigsburg
Institut für Sprache und Literatur
Abteilung Deutsch mit Sprecherziehung
Reuteallee 47
71634 Ludwigsburg
Tel. 0049 (0)7141-140.855
eMail: metzspam prevention@ph-ludwigsburg.de
Website: http://www.ph-ludwigsburg.de/11597.html

Prof. Dr. Thorsten Bohl
(Projektpartner von Beginn an)
Samuel Merk
(Projektpartner seit 2011)
Eberhard-Karls-Universität Tübingen
Studiendekan der Wirtschafts- und Sozialwissenschaftlichen Fakultät
Institut für Erziehungswissenschaft
Abteilung Schulpädagogik
Münzgasse 22-30 / R 210a
D - 72070 Tübingen
Tel. 0049 - (0)7071-29.78324
eMail: thorsten.bohlspam prevention@uni-tuebingen.de
Website: http://www.uni-tuebingen.de/fakultaeten/wirtschafts-und-sozialwissenschaftliche-fakultaet/faecher/erziehungswissenschaft/abteilungen/schulpaedagogik/personal/prof-dr-thorsten-bohl.html

Dr. Henriette Hoppe
(Projektpartnerin seit 2010)
Pädagogische Hochschule Schwäbisch Gmünd
Institut für Sprache und Lehre/Deutsch mit Sprecherziehung
Oberbettringerstraße 200
73525 Schwäbisch Gmünd;
Tel. 0049 (0)7171 983.440
eMail: henriette.hoppespam prevention@ph-gmuend.de
Website: http://www.ph-gmuend.de/deutsch/lehrende-a-z/h/hoppe-henriette.php?navanchor=1010024

Christina Drüke-Noe
(Projektpartnerin seit 2011)
Universität Kassel
FB10 Mathematik/Informatik
Heinrich-Plett-Str. 40
34132 Kassel
Tel. 0049 (0)56-804.4528
eMail: drueke-noespam prevention@mathematik.uni-kassel.de
Website: http://www.mathematik.uni-kassel.de/didaktik/HomePersonal/drueke-noe/home/

Beschreibung des Kategoriensystems

Inhaltsverzeichnis


Sowohl in der Allgemeinen Didaktik, in Fachdidaktiken als auch in der Unterrichtsforschung und in der Lehr-Lern-Forschung gelten Aufgaben als zentrales Instrument des Unterrichts. Über Aufgaben wird der Unterricht geplant, realisiert, gesteuert, evaluiert und reflektiert. Aufgaben prägen damit in herausragender Weise das institutionalisierte Lernen in unserer Gesellschaft.

Seit etwa zehn Jahren wird in der Didaktik und der Unterrichtsforschung verstärkt die Bedeutung von Aufgaben für die Unterrichtsqualität hervorgehoben. Als Ausgangspunkt für die Diskussion um Aufgaben und Aufgabenkultur können die Befunde der Third International Science Studie (TIMSS) und hierbei vor allem die TIMS-Videostudie im Jahr 1997 angesehen werden. Im Rahmen der TIMS-Videostudie wurde Unterricht in Japan, den USA und Deutschland untersucht (Klieme, Schümer & Knoll, 2001). Für den deutschen Unterricht wies die TIMS-Videostudie ein vorherrschendes Muster des fragend-entwickelnden Unterrichts nach – deutsche Lehrkräfte scheinen in besonders kleinschrittiger Weise Sachverhalte zu erörtern, sie ‚zerlegen‘ Aufgaben und betonen dabei insbesondere das wiederholende bzw. nachvollziehende Üben. Seit dieser Erkenntnis werden Aufgaben insbesondere in Fachdidaktiken weiterentwickelt und untersucht, Lehrkräfte werden zu Aufgaben und einer ‚neuen‘ Aufgabenkultur fortgebildet. Eine besondere Rolle nehmen Aufgaben beispielsweise im Rahmen der Fortbildungsprogramme SINUS oder SINUS-Transfer ein, vorrangig in offenen, problemorientierten und alltagsnahen Formaten (Ostermeier, Prenzel & Duit, 2010).

Theoretische und empirische Studien zu Aufgaben werden derzeit in zahlreichen Fachdidaktiken, insbesondere in der Mathematik (z.B. Büchter & Leuders, 2005), in der Naturwissenschaft (z.B. Neumann et al., 2007), im Fremdsprachlichen Bereich (z.B. Timm, 1998, 221ff., 366ff; Weskamp, 2003, 109ff.) und im Bereich der Lesekompetenz (Bremerich-Voss, 2008; Köster, 2002, 2004) durchgeführt. Auch eine allgemeindidaktische Perspektive ist zunehmend erkennbar (Kiper, Meints, Peters, Schlump & Schmit, 2010; Kleinknecht, 2010; Maier, Kleinknecht, Metz & Bohl, 2010; Thonhauser, 2008).

Die besondere Rolle der Allgemeinen Didaktik bei der Entwicklung, Untersuchung und Analyse von Aufgaben liegt in den folgenden Bereichen:

Damit können fachdidaktische Analysen und Perspektiven auf Aufgaben in wertvoller Weise ergänzt und unterstützt werden.

Innerhalb der Allgemeinen Didaktik sind Aufgaben ein vergleichsweise kleines und junges Forschungsfeld. Nur sehr wenige theoretische oder empirische Studien wurden dazu in den vergangenen Jahrzehnten vorgelegt. In jüngster Zeit legten Blömeke et al (2006) einen allgemeindidaktischen Beitrag zur Klassifikation und Analyse von Aufgaben vor. Sie entwickelten auf der Grundlagen lernpsychologischer, motivationspsychologischer und allgemeindidaktischer Konzepte insgesamt neun übergreifende Kriterien für eine hohe Aufgabenqualität: Exemplarität; Ansprache von Schülerbedürfnissen; kognitive Prozesse und Wissensformen (nach Anderson et al. 2001); Neuigkeitswert; Chance auf Bewältigung; Potenzial zur Differenzierung; Authentizität der Aufgabensituation; Förderung der Problemlösefähigkeit; Möglichkeit sozialer Interaktion. Der Ansatz ist breit angelegt und gut begründet, allerdings noch wenig auflösend und zum Teil nur gering operationalisiert. Der Ansatz wurde in einer qualitativen Fallstudie (Gymnasium Kl. 11, Mathematik) erprobt.

Kategoriensysteme der Fachdidaktiken, insbesondere der Mathematikdidaktik sind elaborierter (z.B. Neubrand 2002; Jordan et al. 2006). Allerdings sind eher sehr forschungsorientiert und für den Alltag des Unterrichtens und für den Einsatz in der Lehrerbildung nur begrenzt geeignet. Lehrkräfte und Studierende aus unterschiedlichen Fächern können damit begrifflich und fachspezifisch nicht arbeiten.

Diese kurze Darstellung des Diskussionsstandes verdeutlicht ein Defizit: bisher ist kein überfachliches Kategoriensystem zur Analyse von Aufgaben erkennbar, mit dem Lehrkräfte und Studierende arbeiten und den Einsatz von Aufgaben reflektieren können.

Allgemeindidaktische und fachdidaktische Lernziel- und Klassifikationsschema (vgl. Tab. 1) wurden bereits vielfältig entwickelt.

Allgemeindidaktische Klassifikationsschema

 

Gagné (1969)

Taxonomie aufeinander aufbauender Lernarten

nach Signallernen, Reiz-Reaktions-Lernen, Kettenbildung, sprachliche Assoziation, multiple Diskriminiation, Begriffslernen, Regellernen, Problemlösen

Gagné, Briggs und Wager 1988

Klassifikation von Bereichen

Intellectual skills, cognitive strategies, verbal knowledge, motor skills, attitudes

Bloom et al. 1956

TEO

Kenntnisse, Verständnis, Anwendung, Analyse, Synthese, Bewertung

Deutscher Bildungsrat 1970

Vereinfachung der TEO

Reproduktion, Reorganisation, Transfer, Problemlösendes Denken

Anderson & Krathwohl 2001

Revidierte Bloom‘sche Taxonomie

Knowledge dimension (factual, conceptual, procedural, metacognitive) & Cognitive process dimension (remembering, understanding, applying, analyzing, evaluating, creating)

Biggs & Collis 1982

SOLO-Taxonomie

Prestructural, unistructural, multistructural, relational, extended abstract

KMK

Bildungsstandards

Reproduzieren, Zusammenhänge herstellen, Verallgemeinern und Reflektieren

Blömeke et al. 2006

Kognitive, motivationale, bildungstheor. Aspekte

Exemplarität; Schülerbedürfnisse; kognitive Prozesse und Wissensformen; Neuigkeitswert; Chance auf Bewältigung; Differenzierung; Authentizität; Förderung Problemlösefähigkeit; Möglichkeit sozialer Interaktion

 
 

Fachdidaktische Klassifikationsschema

 

Neubrand (2002)

TIMSS-Klassifikation Matheaufgaben

Aufgabenkern: Wissensart, Anzahl Wissenseinheiten, Aktivierung Wissenseinheiten, inner- oder außermathematischer Kontext, Stoffgebiet

Jordan et al. (2006)

COACTIV Klassifikation von Matheaufgaben

u.a. Modellierungskreislauf, Anzahl Lösungswege, math. Argumentieren, sprachlogische Komplexität

Jatzwauk (2007)

Aufgaben im Biologieunterricht

Sensomotorische Aufgaben, rezipierende Aufgaben, Exzerpieren und Darstellen ohne und mit Transformation, Reproduzieren, konvergentes Denken, divergentes Denken bzw. Bewerten

Schabram (2007)

Physikaufgaben

Wissensaufgaben, Verstehensaufgaben, Anwendungsaufgaben

Neumann et al. (2007)

Komplexitätsstufen im Modell für physikalische Kompetenz

Ein Fakt, mehrere Fakten, Zusammenhang, unverbundene Zusammenhänge, verbundene Zusammenhänge, übergeordnetes Konzept

Schlüter (2009)

Klassifikation von Informatikaufgaben

Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Wissensarten (Anderson & Krathwohl)

Tabelle 1: Allgemeindidaktische Lernziel- und Aufgabentaxonomien


Trotz zahlreicher Vorarbeiten sind mehrere Desiderata erkennbar: Notwendig ist ein recht sparsames, fächerübergreifendes Klassifikationssystem, d.h. eine überschaubare, auch im Schulalltag handhabbare Anzahl von Dimensionen und Ausprägungen. Der Fokus sollte dabei auf dem kognitiven Anforderungsniveau liegen in allgemeindidaktischer Hinsicht liegen, so dass das Kategoriensystem auch überfachlich genutzt werden kann. Gleichwohl sollte selbstredend ein unmittelbarer Bezug zu fachdidaktischen Kategoriensystemen vorhanden sein. Weitergehend ist wünschenswert, dass die analysierten Aufgaben in die sequentielle Struktur von Lehr-Lernprozessen einordenbar sind.

Vor dem Hintergrund dieser Überlegungen entstand unser Kategoriensystem. In diesem Abschnitt beschreiben wir die von uns entwickelten und optimierten Kategorien und Subkategorien zur Analyse von Aufgabenstellungen in unterschiedlichen Unterrichtsfächern und unterschiedlichen didaktischen Zusammenhängen. Mit sieben Dimensionen und jeweils drei bis vier Subkategorien soll das kognitive Potenzial von Lern- bzw. Diagnoseaufgaben analysiert werden. Tabelle 2 stellt die Dimensionen mit den jeweiligen Merkmalsausprägungen in der Übersicht dar. aus Maier ua. S. 17.
 

Dimension Ausprägungen
 
1. Wissensart Fakten Prozeduren Konzepte Metakognition
2. Kognitiver Prozess Reproduktion Naher Transfer Weiter Transfer Problemlösen
3. Wissenseinheiten Eine WE Bis zu 4 WE Mehr als 4 WE
4. Offenheit Definiert/konvergent Definiert/divergent Ungenau/divergent
5. Lebensweltbezug Kein Konstruiert Authentisch Real
6. Sprachlogische Kompl. Niedrig Mittel Hoch
7. Repräsentationsformen Eine Integration Transformation

Tabelle 2: Dimensionen und Ausprägungen der fächerübergreifenden Aufgabenanalyse



Die insgesamt sieben Dimensionen können wie folgt konkretisiert werden (die folgende Beschreibung der sieben Dimensionen ist wörtlich entnommen aus: Maier u.a. 2010, S. 28ff).
 

1. Wissensart

In weitgehender Übereinstimmung mit Anderson und Krathwohl (2001) halten wir die Art des durch eine Aufgabenstellung tangierten Wissens sowie die erforderlichen kognitiven Prozesse für die beiden wichtigsten Kategorien zur Analyse des kognitiven Potenzials. Hinzu kommt allerdings die Anzahl der aktivierten Wissenseinheiten (Neubrand 2002), weil diese zur Komplexitätssteigerung ebenfalls beiträgt und – im Gegensatz zur Bloomschen Taxonomie – eine Aufgabenstellung nicht mehrere, sondern auch unterschiedliche Wissenseinheiten (Faktenwissen und konzeptuelles Wissen) erforderlich machen kann.

Bei der Beschreibung verschiedener Wissensarten orientieren wir uns an der von Anderson und Krathwohl (2001) eingeführten Unterteilung in Faktenwissen, prozedurales Wissen, konzeptuelles Wissen und metakognitives Wissen. Diese Wissensklassen gehen auf lern- und kognitionspsychologische Befunde zum Aufbau und zur Speicherung von Wissen zurück und finden sich in ähnlicher Form auch bei Gagné et al. (1992) sowie in mathematikdidaktischen Aufgabenklassifikationen. Neubrand (2002) unterscheidet beispielsweise folgende Wissensarten: überwiegend prozedural/algorithmisches Wissen erforderlich, Faktenwissen erforderlich, überwiegend konzeptuelles/begriffliches Wissen erforderlich oder mehrere Wissensarten treten kombiniert auf.

Die vier Subkategorien sind nicht hierarchisch gestuft. Dies bedeutet, dass prinzipiell die Kategorisierung mehrerer Wissensklassen pro Aufgabe möglich ist (nicht disjunkt). Diese Problematik wird dann in der Dimension "Anzahl der Wissenseinheiten" analytisch bearbeitet.
 

2. Kognitive Prozesse

Wir sehen die hierarchische Stufung kognitiver Prozesse bei Anderson und Krathwohl (2001) in Anlehnung an die Bloomsche Lernzieltaxonomie weiterhin kritisch. Vor allem Trennschärfe und hierarchische Stufung nach kognitiver Komplexität sind fragwürdig. Problematisch sind nicht nur die oberen drei Stufen, sondern auch die Differenzierung zwischen "Verstehen" und "Anwendung". Verstehen ist das Einordnen neuer Informationen in vorhandene, begriffliche Strukturen; Operatoren für diesen kognitiven Prozess sind in der Regel: interpretieren, exemplifizieren, klassifizieren, zusammenfassen, folgern, vergleichen und erklären. Diese Kategorie ist wenig trennscharf und kann sehr unterschiedliche kognitive Prozesse umfassen; je nachdem wie komplex oder neuartig die zu verstehende Information ist, laufen ganz unterschiedliche kognitive Prozesse ab.

Ein ähnliches Problem ergibt sich bei der Kategorie Anwenden, beispielsweise beim Gebrauch von Prozeduren zur Übung oder zur Problemlösung. Entscheidend ist, ob die Schülerin bzw. der Schüler eine Prozedur sofort zur Verfügung hat, die er in diesem speziellen Fall anwenden kann oder nicht. Ist keine Prozedur für das Problem geeignet, muss eine bekannte Prozedur modifiziert werden, was einer kreativen Problemlösung, d.h. der höchsten Stufe gleichkommt (creating). Bei der Einordnung von Anwendungsaufgaben (Ausführen oder Implementieren) ist somit erstens Kontextinformation notwendig: Wurden bereits ähnliche Aufgaben behandelt oder handelt es sich um eine neuartige Anwendungsaufgabe? Und zweitens muss auch auf der Stufe der Anwendung die Weite des zu leistenden Transfers abgeschätzt werden.

Um diesen Schwierigkeiten zu entgehen, differenzieren wir zunächst zwischen Reproduktion und Transfer, um die Komplexität kognitiver Prozesse zu definieren (so beginnen auch Anderson et al. 2001, um die Stufung kognitiver Prozesse zu begründen). Transfer soll dabei auf alle Wissensarten bezogen werden. Nicht nur Prozeduren wie im TIMSS framework, auch Faktenwissen und konzeptuelles Wissen können zur Interpretation (Verstehen) von Informationen transferiert werden. Transfer lässt sich weiter untergliedern, je nachdem wie neuartig eine Situation ist, in der bereits verstandenes Wissen zum Einsatz kommen soll (naher Transfer, weiter Transfer, kreatives Problemlösen).
 

Die Subkategorien "weiter Transfer" und "kreatives Problemlösen" entsprechen der impliziten Aktivierung der Wissenseinheiten bei Neubrand (2002): Wissenseinheiten sind nicht direkt erwähnt, sondern müssen aus dem Aufgabenkontext erschlossen werden. Der Aufgabenlöser muss selbständig entscheiden, mit welchen Wissenseinheiten er arbeitet.
 

3. Anzahl der Wissenseinheiten

Die Dimension "Anzahl der Wissenseinheiten" ist nach Neubrand (2002, 95) ein Teilaspekt der Komplexität von Aufgaben. Um die für eine Aufgabe zu aktivierenden Wissenseinheiten bestimmen zu können, muss die Perspektive eines "Experten" eingenommen werden, der über das erforderliche fachspezifische Wissen verfügt. Dabei geht es nicht darum, wie ein Experte im Einzelfall die Aufgabe lösen würde, sondern welches Wissen unbedingt zur Lösung erforderlich ist. Eine Wissenseinheit repräsentiert dabei immer die hierarchisch oberste Ebene. Subprozeduren oder deklaratives Wissen auf unteren Ebenen werden der oberen Hierarchieebene zugeordnet und bilden eine Wissenseinheit. Eine Wissenseinheit ist damit verdichtetes Expertenwissen und kann als Objekt des Denkens bezeichnet werden.

Wissenseinheiten können unter Umständen mit Lösungsschritten gleichgesetzt werden. Bei einer Sachaufgabe müssen beispielsweise mehrere Modellierungsschritte nacheinander vorgenommen werden. Jedem Modellierungsschritt wird dann eine Rechenoperation zugeordnet (Multiplikation, Umwandeln von Maßeinheiten, etc.). Lösungsschritte und zu aktivierende Wissenseinheiten sind in diesem Fall identisch. Ein Gegenbeispiel wäre eine schriftliche Rechenaufgabe, die mehrere Schritte hin zur Lösung umfasst. Es wird jedoch nur ein Rechenalgorithmus auf der hierarchisch obersten Stufe aktiviert und somit liegt nur eine Wissenseinheit vor. Aus diesem Grund ist die Kategorie Wissenseinheit mit der im COACTIV-Projekt (Jordan et al. 2006) verwendeten Dimension "Umfang der Bearbeitung" bzw. "Anzahl der notwendigen Lösungsschritte" nur teilweise kompatibel. Allerdings orientieren wir uns aus pragmatischen Gründen an die hierarchische Abstufung dieser Kategorie:
 

4. Offenheit der Aufgabenstellung

In der Testpsychologie wird zwischen geschlossenen, halboffenen und offenen Items unterschieden (z.B. Rütter 1973). Geschlossene (multiple choice oder single choice) und halboffene Aufgabenformate haben genau eine richtige Lösung. Bei halboffenen Aufgabenformaten ist die Lösung jedoch nicht sichtbar und muss vom Schüler selbst produziert werden. Offene Aufgabenformate haben einen bestimmten Lösungsraum mit mehreren richtigen Lösungen. Auch die Unterscheidung zwischen konvergenten und divergenten Aufgaben beschreibt die Offenheit bzw. Geschlossenheit des Lösungsraums. Allerdings wird durch diese Aufgabendimensionen nicht die Offenheit der Aufgabenstellung selbst thematisiert, sondern nur die Offenheit des Lösungsraums. Um diesem Problem zu begegnen, bietet sich eine Analyse der Offenheit bzw. Geschlossenheit einer Aufgabe vor dem Hintergrund der aus der Problemlösepsychologie bekannten Beschreibung eines Problems durch Anfangszustand, Transformation und Zielzustand, an (z.B. Neubrand 2002; Greefrath 2004). Aufgaben lassen sich dahingehend einordnen, ob Anfangs- und Zielzustand sowie die dazwischen liegende Transformation jeweils eindeutig oder offen sind. D.h. nicht nur der Ziel- sondern auch der Anfangszustand kann mehr oder weniger offen bzw. geschlossen sein. Gibt es in der Aufgabe einen eindeutigen Arbeitsauftrag oder muss die Schülerin bzw. der Schüler selbst eine Fragestellung formulieren? Neubrand (2002) kombiniert damit acht verschiedene Aufgabenarten, je nachdem ob Ausgangszustand, Bearbeitung bzw. Zielzustand entweder vorgegeben oder gesucht sind. Grundaufgaben sind der einfachste Fall und der Normalfall im Unterricht: Ausgangszustand und Bearbeitung sind vorgegeben, der Zielzustand wird gesucht. Typische Sachaufgaben sind Bestimmungsaufgaben: Ausgangszustand ist gegeben, jedoch muss der Weg bereits gesucht werden. Bei Beweisaufgaben sind Ziel und Ausgangspunkt gegeben und der Weg muss gesucht bzw. begründet werden. Bei Umkehraufgaben ist der Ausgangszustand gesucht und Ziel bzw. Ziel und Weg sind vorgegeben. Wenn nichts vorgegeben ist, handelt es sich um Problemsituationen. Keine einzige Aufgabe der TIMSS-Videostudie konnte jedoch als Problemsituation klassifiziert werden. Diese sehr differenzierte Klassifikation scheint uns für die allgemeindidaktische Analyse zu wenig robust. Aus diesem Grund wurde sie auf drei Stufen der Offenheit reduziert. Dabei wird lediglich unterschieden, ob der Anfangszustand des zu lösenden Problems klar definiert ist oder nicht. Nimmt man die Unterscheidung zwischen konvergenten Aufgaben (eine Lösung) und divergenten Aufgaben (mehrere Lösungen) hinzu, ergeben sich durch logische Kombination drei Stufen der Offenheit:
 

5. Lebensweltbezug

Die Forderung nach einer stärkeren Verzahnung von schulischen Inhalten und Lebenswelt gibt es praktisch seit sich die Schule als Institution des Lernens außerhalb der Lebenswelt (Arbeits- und Familienwelt) durchgesetzt hat. Als Höhepunkt einer Kritik an der Lebensferne schulischen Lernens kann die Zeit der Reformpädagogik gelten. Seither wurde die Forderung nach mehr Lebensnähe und Authentizität schulischen Lernens in unterschiedlichen Traditions- und Theoriezusammenhängen immer wieder formuliert (z.B. situiertes Lernen). Der Lebensweltbezug ist damit auch eine ureigene Kategorie allgemeindidaktischen Denken, wie z.B. die Gegenwarts- und Zukunftsbedeutung bei Klafki (1958) oder als Qualitätskriterium für Aufgaben bei Blömeke et al. (2006). Auch im Rahmen der aktuellen Diskussion über Bildungsstandards und kompetenzorientierter Leistungsmessung spielt der Lebensweltbezug von Aufgaben eine wichtige Rolle. Beispielsweise ist Lebensweltbezug ein zentrales Gestaltungsprinzip bei PISA-Aufgaben. Man argumentiert, dass Kompetenzen nur in realitätsnahen Anwendungskontexten prüfbar sind. Im Gegenzug wird angenommen, dass Aufgaben mit realem oder zumindest konstruiertem Anwendungsbezug den Erwerb von Kompetenzen fördern können.

Neubrand (2002) schätzt mit der Analyse des Aufgabenkontextes den Grad der erforderlichen Vernetzung einer Mathematikaufgabe ein und unterscheidet zwischen allgemeinem und situativem Kontext. Der allgemeine Kontext kann außer- oder innermathematische Vernetzungen erforderlich machen, während Der situative Kontext vorgibt, welche Art von Zusammenhang in der Aufgabe mit dem Kontext herzustellen ist. Von Interesse für die Entwicklung einer allgemeindidaktischen Aufgabenanalyse ist der situative Kontext. Neubrand unterscheidet zwischen "real world", "scheinbar real world" und "measurement". Wir beziehen uns auf diese Unterscheidung und definieren Lebensweltbezug ebenfalls als Relation zwischen domänenspezifischem Fachwissen und Erfahrungs- und Lebenswelt des Schülers. Damit kommen wir zu vier unterschiedlichen Ausprägungen dieser Relation:
 

6. Sprachliche Komplexität

Die Dimension sprachlogische Komplexität trägt dazu bei, den komplexitätssteigernden Effekt der sprachlichen Formulierung einer Aufgabe zumindest ansatzweise zu berücksichtigen (Cohors-Fresenborg, Sjuts & Sommer 2004; Jordan et al. 2006). Die Fragestellung einer Aufgabe und auch die in der Aufgabe zur Verfügung gestellten Informationen bestehen in der Regel aus einem oder verschiedenen Texten. Von Bedeutung ist nun, inwiefern der sprachlogische Aufbau dieser Texte mit dem Inhalt der Aufgabe strukturgleich ist. Im COACTIV-Projekt wurde vor allem der strukturelle Zusammenhang zwischen mathematischer Modellierung und sprachlicher Darstellung der Situation untersucht. Die sprachlogische Komplexität einer Aufgabenstellung wird zum Beispiel erhöht, wenn die für eine mathematische Modellierung relevanten Teilaspekte nicht in der für eine Modellierung günstigen Reihenfolge im Text präsentiert werden. Ebenfalls führen zusätzliche Informationen, komplexe Satzgefüge oder Formulierungen, die durch die Authentizität einer Situation bedingt sind, zu einer Steigerung der sprachlogischen Komplexität einer Aufgabenstellung.

Wir denken, dass diese Dimension hilfreich ist, um auch in anderen Wissensdomänen den Zusammenhang zwischen Sprache und Logik der Aufgabenstellung zu analysieren. Für eine robuste Analyse reduzieren wir allerdings die Kategorienstufen auf drei Stufen statt vier wie bei Jordan et al. (2006):
 

7. Repräsentationsformen des Wissens

Die Art und Weise wie Wissen mental repräsentiert wird, ist ein zentrales Forschungsfeld der kognitiven Psychologie und geht auf die grundlegende Unterscheidung zwischen enaktiven, ikonischen und symbolischen Wissensrepräsentationen von Jerome Bruner zurück. Die kognitionspsychologische Literatur (z.B. Anderson 1989) unterscheidet mittlerweile zwischen verbaler/propositionaler und bildhafter/konkret-anschaulicher Kodierung. Edelmann (2000) differenziert noch etwas genauer zwischen aussagenartiger, analoger, handlungsmäßiger und multipler Repräsentation.

Diese unterschiedlichen Kodierungen bzw. Repräsentationen von Wissen können auf unterschiedliche Weise zur Lösung von Problemen bzw. Aufgaben beitragen. Vor allem die Transformation von Wissen von einer Repräsentationsform in eine andere (Bruner's intermodaler Transfer) gilt als wichtige Voraussetzung für die Bearbeitung komplexer Problemstellungen und generell als Anreiz für die kognitive Entwicklung. Die Folge dieser Transferleistungen sind multiple Wissensrepräsentationen, die zu einer größeren Behaltensleistung und einer flexibleren Anwendung von Wissen führen. Andererseits wird die Komplexität von Aufgaben enorm gesteigert, wenn Wissen in einer nicht üblichen Form dargestellt wird oder vom Schüler verlangt wird, Wissen in unterschiedlichen Repräsentationsformen entweder zu integrieren oder zu transformieren.

Analog argumentiert Neubrand (2002) bei der Begründung der Analysevariablen "Aufgabenpräsentation". Diese Dimension korrespondiert mit dem in der Mathematikdidaktik diskutierten Prinzip der Variation der Darstellung und dem kognitionspsychologischen Befunden über verschiedene mentale Repräsentationsformen. Wechsel der Repräsentationsformen trägt zu mentaler Beweglichkeit bei. Die Analysekategorien: Kommen Text und/oder Symbole vor? Enthält die Aufgabe Visualisierungen in Form von Bildern, Konstruktionen, etc.? Werden reale Gegenstände mit einbezogen? Evtl. Computerdarstellungen.

Um komplexitätssteigernde Wirkung der Repräsentationsformen des Wissens in einer Aufgabe genauer analysieren zu können, stellen wir zwei Fragen: Zunächst muss analysiert werden, in welcher Form das für die Aufgabenbearbeitung benötigte Wissen in der Aufgabe dem Schüler präsentiert wird? Möglich sind Texte (verschiedene Textsorten sollte man auch als unterschiedliche Repräsentationsformen bezeichnen: lineare, nicht-lineare Texte, Gesetzestexte, Lyrik, Fahrpläne, etc.), symbolische Darstellungen (Zeichen, Zahlen, Abkürzungen, etc.), auditive Informationen (gesprochene Sprache, Musik, Geräusche) und ikonische Darstellungen (Bilder, Grafiken, Zeichnungen, etc.). Darauf hin ist zu fragen in welcher Repräsentationsform das Wissen bearbeitet bzw. die Lösung erstellt werden muss? Die Beantwortung der beiden Fragen führt zu folgenden Kombinationsmöglichkeiten:
 

Das Kategoriensystem wurde und wird empirisch überprüft. Genauere Hinweise dazu finden Sie unter Projekte und in den bisherigen Veröffentlichungen.

Das Kategoriensystem ist öffentlich zugänglich und kann jederzeit angewandt werden. Wir sehen besondere Möglichkeiten des Einsatzes in folgenden Bereichen:
 

Wir sehen in diesem Kategoriensystem insbesondere die Möglichkeit einer fundierten, differenzierten und systematischen Auseinandersetzung mit schulischen Aufgaben, insofern verstehen wir als ein heuristisches Instrument für Lehrkräfte. Das Kategoriensystem gibt keine unmittelbare Antwort auf die Frage, ob damit die Qualität von Aufgaben untersucht werden kann.

Weitere Darstellungen finden Sie unter Publikationen.
 

Literatur (Auswahl)

Anderson, J. R. (1989). Kognitive Psychologie: eine Einführung (2. Aufl.). Heidelberg: Spektrum.

Anderson, L. W. & Krathwohl, D. R. (Hrsg.) (2001). A Taxonomy for Learning, Teaching and Assessing: A Revision of Bloom's Taxonomy of Educational Objectives. New York: Longman.

Arnold, K.-H. (2008). Bildung durch das Lösen von Aufgaben? Generalisierungsstrukturen der kategorialen Bildung aus der Perspektive der Lehr-Lernforschung. Vortrag auf dem 21. Kongress der DGfE, Kulturen der Bildung in Dresden, AG 18: Weiterentwicklung der Allgemeinen Didaktik (18.03.2008).

Baumert, J. & Lehmann, R. (1997). TIMSS - Mathematisch-naturwissenschaftlicher Unterricht im internationalen Vergleich. Deskriptive Ergebnisse. Opladen: Leske + Buderich.

Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung. (1997). Gutachten zur Vorbereitung des Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Bonn: Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung.

Blömeke, S., Risse, J., Müller, C., Eichler, D. & Schulz, W. (2006): Analyse der Qualität von Aufgaben aus didaktischer und fachlicher Sicht. Ein allgemeines Modell und seine exemplarische Umsetzung im Unterrichtsfach Mathematik. Unterrichtswissenschaft, 34, 330-357.

Blömeke, S. & Müller, C. (2009). Zum Zusammenhang von Allgemeiner Didaktik und Lehr-Lernforschung im Unterrichtsgeschehen. Zeitschrift für Erziehungswissenschaft, 9 (Sonderheft „Perspektiven der Didaktik“ 239-258).

Bloom, B. S., Engelhart, M. D., Furst, E. J., Hill, W.H. & Kratwohl, D. R. (1956). Taxonomy of educational objectives, Handbook 1: Cognitive domain. New York: McKay.

Blum, W. et al. (1999). TIMSS und der BLK-Modellversuch „SINUS“ in Hessen. Wiesbaden: Hessisches Landesinstitut für Pädagogik.

Bohl, T. (2004). Empirische Unterrichtsforschung und Allgemeine Didaktik. Ein prekäres Spannungsverhältnis und Folgerungen aus der PISA-Studie. Die Deutsche Schule, 96(4), 414-425.

Bohl, T. (2009). Offenen Unterricht weiterentwickeln. Mikroprozesse des Lernens berücksichtigen und Gesamtkonzeption optimieren. Pädagogik. 62(4), 6-10.

Bohl, T. & Kucharz, D. (2010). Offener Unterricht heute. Konzeptionelle und didaktische Weiterentwicklung. Weinheim und Basel: Beltz.

Bortz, J. & Döring, N. (2002). Forschungsmethoden und Evaluation. (3. Aufl.). Berlin: Springer.

Bremerich-Vos, Albert (2008). Benjamin S. Bloom (und andere) revisited. In A. Bremerich-Vos, D. Granzer & O. Köller, (Hrsg.), Lernstandsbestimmung im Fach Deutsch. Gute Aufgaben für den Unterricht (S. 29-49). Weinheim: Beltz.

Bromme, R., Seeger, F. & Steinbring, H. (1990). Aufgaben als Anforderungen an Lehrer und Schüler. Köln: Aulis Verlag Deubner & Co.

Brophy, J. & Good, T. L. (1986). Teacher behavior and student achievement. In M.C. Wittrock (Hrsg.), Handbook of research on teaching. (3.Aufl., S.328-375). New York: Macmillan Publishing Company.

Bruder, R. (2003). Konstruieren – Auswählen – Begleiten. Über den Umgang mit Aufgaben. Friedrich Jahresheft, XXI, 12-15.

Büchter, A. & Leuders, T. (2005). Mathematikaufgaben selbst entwickeln. Lernen fördern – Leistung überprüfen. Berlin: Cornelsen.

Clausen, M., Reusser, K. & Klieme, E. (2003). Unterrichtsqualität auf der Basis hoch-inferenter Unterrichtsbeurteilungen. Ein Vergleich zwischen Deutschland und der deutschsprachigen Schweiz. Unterrichtswissenschaft, 31(2), 122-141.

Cohors-Fresenborg, E., Sjuts, J. & Sommer, N. (2004). Komplexität von Denkvorgängen und Formalisierung von Wissen. In M. Neubrand (Hrsg.), Mathematische Kompetenzen von Schülerinnen und Schülern in Deutschland. Vertiefende Analysen im Rahmen von PISA 2000 (S. 109-144). Wiesbaden: VS Verlag für Sozialwissenschaften.

Deutscher Bildungsrat (Hrsg.) (1970). Strukturplan für das Bildungswesen. Stuttgart: Klett Verlag.

Doyle, W. (1992). Curriculum and Pedagogy. In P.W. Jackson (Hrsg.), Handbook of Research on Curriculum (S.486-516). New York: Macmillan Publishing Company.

Dubs, R. (1978). Aspekte des Lehrerverhaltens. Aarau: Sauerländer.

Edelmann, W. (2000). Lernpsychologie. Weinheim: Psychologie-Verlags Union.

Eikenbusch, G. (2005). Eine neue Aufgabenkultur im Deutschunterricht? Deutsch Extra. Das Magazin für den Deutschunterricht. Berlin: Cornelsen Verlag.

Fingerhut, K. (2004). Integrierte Unterrichtseinheiten als Kompetenzmodelle. In M. Kämper- van den Boogaart (Hrsg.), Deutschunterricht nach der PISA-Studie. Frankfurt am Main: Peter Lang.

Gagne, R. (1985). The Conditions of Learning (4Aufl.). New York: Holt, Rinehart & Winston.

Gagne, R., Briggs, L. & Wager, W. (1992). Principles of Instructional Design (4Aufl.). Fort Worth, TX: HBJ College Publishers.

Greefrath, G. (2004). Offene Aufgaben mit Realitätsbezug. Eine Übersicht mit Beispielen und erste Ergebnisse aus Fallstudien. mathematica didactica, 28(2), 16–38.

Harlen, W. & Winter, J. (2004). The development of assessment for learning: Learning from the case of science and mathematics. Language Testing, 21(3), 390-408.

Häußler, P. & Lind G. (1998). Weiterentwicklung der Aufgabenkultur im mathematisch-naturwissenschaftlichen Unterricht. Erläuterungen zu Modul 1 des BLK-Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Institut für die Pädagogik der Naturwissenschaften an der Universität Kiel (IPN)

Jatzwauk, P. (2007). Aufgaben im Biologieunterricht - eine Analyse der Merkmale und des didaktisch-methodischen Einsatzes von Aufgaben im Biologieunterricht. Berlin: Logos.

Jordan, A., Krauss, S., Löwen, K., Blum, W., Neubrand, M., Brunner, M. et al. (2008). Aufgaben im COACTIV-Projekt: Zeugnisse des kognitiven Aktivierungspotentials im deutschen Mathematikunterrichts. Journal für Mathematikdidaktik, 29(2), 83-107.

Jordan, A., Ross, N., Krauss, S., Baumert, J., Blum, W., Neubrand, M., Löwen, K., Brunner, M. & Kunter, M. (2006). Klassifikationsschema für Mathematikaufgaben: Dokumentation der Aufgabenkategorisierung im COACTIV-Projekt. Max-Planck-Institut für Bildungsforschung: Berlin.

Klafki, Wolfgang (1958). Didaktische Analyse als Kern der Unterrichtsvorbereitung. Die Deutsche Schule, 50, 450-471.

Kleinknecht, M. (2010). Aufgabenkultur. Baltmannsweiler: Schneider Verlag Hohengehren.

Klieme, E., & Bos, W. (2000). Mathematikleistung und mathematischer Unterricht in Deutschland und Japan: Triangulation qualitativer und quantitativer Analysen am Beispiel der TIMS-Studie. Zeitschrift für Erziehungswissenschaft, 3, 359-379.

Klieme, E., Schümer, G. & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I: „Aufgabenkultur“ und Unterrichtsgestaltung im internationalen Vergleich. In E. Klieme & J. Baumert, (Hrsg.), TIMSS – Impulse für Schule und Unterricht. Forschungsbefunde, Reforminitiativen, Praxisberichte und Video-Dokumente (43–57). Bonn: BMBF.

KMK (2003). Vereinbarung über Bildungsstandards für den Mittleren Schulabschluss (Jahrgangsstufe 10), Beschluss der Kultusministerkonferenz vom 04.12.2003

Knapp, Werner (Hrsg.) (2004): Deutschprofi A 2. Lese- und Sprachbuch für das 6. Schuljahr. München: Oldenbourg

Köster, J. (2004). Aufgabenkultur und Lesekompetenz. Deutschdidaktische Positionen. Frankfurt a.M.: Peter Lang.

Koskenniemi, M. & Komulainen, E. (1983). Lehrmaterial und Unterrichtsprozeß. Unterrichtswissenschaft 10, S. 4-26.

Kron, F. W. (2004). Grundwissen Didaktik (4. Aufl.). München: Ernst Reinhardt Verlag.

Krumm, V. (1985). Anmerkungen zur Rolle der Aufgaben in Didaktik, Unterricht und Unterrichtsforschung. Unterrichtswissenschaft, 13(2), 102-115

Kunter, M., Brunner, M., Baumert, J., Klusmann, U., Krauss, S., Blum, W., Jordan, A. & Neubrand, M. (2005). Der Mathematikunterricht der PISA -Schülerinnen und -Schüler. Schulformunterschiede in der Unterrichtsqualität. Zeitschrift für Erziehungswissenschaft, 8(4), 502-520.

Leuders, T. (2006). Kompetenzorientierte Aufgaben im Unterricht. In W. Blum, C. Drüke-Noe, R. Hartung, & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 81–95). Berlin: Cornelsen.

Lipowsky, F. (2002). Zur Qualität offener Lernsituationen im Spiegel empirischer Forschung - Auf die Mikroebene kommt es an. In U. Drews & W. Wallrabenstein (Hrsg.), Freiarbeit in der Grundschule, Offener Unterricht in Theorie, Forschung und Praxis (S. 126-159). Frankfurt am Main: Grundschulverband.

Lipowsky, F. (2006). Auf den Lehrer kommt es an. Empirische Evidenzen für Zusammenhänge zwischen Lehrerkompetenzen, Lehrerhandeln und dem Lernen der Schüler. Zeitschrift für Pädagogik, 51, 47-70, Beiheft.

Lowyck, J. (1976). Die Analyse des Fragenstellens als Instrument für ein abgestuftes Fertigkeitstraining. Unterrichtswissenschaft 1, 53-73.

Metz, K., Maier, U. & Kleinknecht, M. (2009). Kognitiver Anspruch von Aufgaben im Deutschunterricht. informationen zur deutschdidaktik (ide), 33(3), 74-87.

Mummendey, H. D. (1995). Die Fragebogenmethode. Göttingen: Hogrefe.

Neubrand, J. (2002). Eine Klassifikation mathematischer Aufgaben zur Analyse von Unterrichtssituationen: Selbsttätiges Arbeiten in Schülerarbeitsphasen in den Stunden der TIMSS-Video-Studie. Hildesheim: Verlag Franzbecker.

Rakoczy, K., Klieme, E., Bürgermeister, A. & Harks, B. (2008). The Interplay Between Student Evaluation and Instruction - Grading and Feedback in Mathematics Classrooms. Zeitschrift für Psychologie / Journal of Psychology 216(2), 111–124.

Reusser, K. (2009). Empirisch fundierte Didaktik – didaktisch fundierte Unterrichtsforschung. Eine Perspektive zur Neuorientierung der Allgemeinen Didaktik. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 219-237.

Rütter, T. (1973). Formen der Testaufgabe: Eine Einführung für didaktische Zwecke. München: Beck.

Schabram, K. (2007). Lernaufgaben im Unterricht: Instruktionspsychologische Analysen am Beispiel Physik. Dissertation am Fachbereich Bildungswissenschaften der Universität Duisburg-Essen.

Schnotz, W., Ballstaedt, S.-P. & Mandl, H. (1981). Kognitive Prozesse beim Zusammenfassen von Lehrtexten. In H. Mandl (Hrsg.), Zur Psychologie der Textverarbeitung. Ansätze, Befunde, Probleme (S. 108-167). München: Urban und Schwarzenberg.

Shavelson, R. J. & Webb, N. M. (1991). Generalizability theory: A primer. Newbury Park, CA: Sage.

Sjuts, J. (2006). Unterrichtliche Gestaltung und Nutzung kompetenzorientierter Aufgaben in diagnostischer Hinsicht. In W. Blum, C. Drüke-Noe, R. Hartung & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 96-112). Berlin: Cornelsen.

Sjuts, J. (2007). Kompetenzdiagnostik im Lernprozess - auf theoriegeleitete Aufgabenstellung und -auswertung kommt es an. mathematica didacta, 30(2), 33-52.

Stein, M. K., Grover, B. W. & Henningsen, M. (1996). Building student capacity for mathematical thinking and reasoning: An analysis of mathematical tasks used in reform classes. American Educational Research Journal, 33, 455-488.

Stigler, J. W. & Hiebert, J. (1997). Understanding and improving classroom mathematics instruction. An overview of the TIMSS video study. Phi-Delta-Kappan, 79, 14-21.

Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science 12, 257-285.

Terhart, E. (2002). Fremde Schwestern. Zum Verhaltnis von Allgemeiner Didaktik und empirischer Lehr-Lern-Forschung. Zeitschrift fur Padagogische Psychologie, 16, 77-86.

Terhart, E. (2009). Allgemeine Didaktik: Traditionen, Neuanfänge, Herausforderungen. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 13-34.

Tulodziecki, G., Herzig, B. & Blömeke, S. (2004). Gestaltung von Unterricht - Eine Einführung in die Didaktik. Bad Heilbrunn: Klinkhardt.

van Merrienboer, Jeroen J G., Clark, Richard E. & de Croock, Marcel B. M. (2002). Blueprints for complex learning: The 4C/ID-model. Educational Technology, Research and Development, 50(2), 39-64.

Wilson, J.W. (1971). Evaluation of Learning in Secondary School Mathematics. In B.S. Bloom, J.T. Hastings & G.F. Madaus (Hrsg.), Handbook on Formative and Summative Evaluation of Student Learning (S. 643-696). New York: McGraw-Hill, Inc.

Maier, U., Kleinknecht, M., & Metz, K. (2010). Ein fächerübergreifendes Kategoriensystem zur Analyse und Konstruktion von Aufgaben. In H. Kiper, W. Meints, S. Peters, S. Schlump, & S. Schmit (Hrsg.), Schulpädagogik: Lernaufgaben und Lernmaterialien im kompetenzorientierten Unterricht (S. 28–43). Stuttgart: Kohlhammer.

Das Kategoriensystem

Das Kategoriensystem kann als PDF und als Word-DOCX heruntergeladen werden.

LAGOS

LAGOS (Lernprozesse mit Aufgaben gestalten, optimieren und steuern)
Kooperationen: Dr. Marc Kleinknecht (TU München), Dr. Dirk Richter (IQB Berlin), Dr. Gisela Beste, Anett Pilz, Dr. Illona Siehr, Susanne Wolter (LISUM Berlin-Brandenburg)
Finanzierung: IQB Berlin, LISUM Berlin-Brandenburg
Laufzeit: 2012-2014
Weitere Informationen finden Sie hier.

Entwicklung und Erprobung eines Kategoriensystems für die fächerübergreifende Aufgabenanalyse.
Kooperationen: Prof. Dr. Uwe Maier (Nürnberg-Erlangen), Dr. Marc Kleinknecht (TU München), Prof. Dr. Kerstin Metz (Pädagogische Hochschule Ludwigsburg), Martin Schymala (Nürnberg-Erlangen), Prof. Dr. Thorsten Bohl (Eberhard Karls Universität Tübingen)
Finanzierung: DFG
Laufzeit: 2008-2011
Weitere Informationen finden Sie hier.

Aufgabenkultur in verschiedenen Schularten. Eine vergleichende Analyse von Aufgaben und Lehrerhandeln im Hauptschul-, Realschul- und Gymnasialunterricht
Kooperationen: Prof. Dr. Thorsten Bohl / Dr. Marc Kleinknecht (Eberhard Karls Universität Tübingen)
Finanzierung: DFG; Projekt BO 3312/2-1
Laufzeit: 2009 – 2011
Weitere Informationen finden Sie hier.

Aufgabenkultur in der Hauptschule
Kooperationen: Prof. Dr. Thorsten Bohl, Dipl. Päd. Marc Kleinknecht (Eberhard Karls Universität Tübingen)
Finanzierung: Forschungsverbund Hauptschule Baden-Württemberg
Laufzeit: 2005 – 2009
Weitere Informationen finden Sie hier.

Vorträge

Marc Kleinknecht
Forschungsansätze zur Aufgabenkultur – allgemein- und fachdidaktische Aufgabenanalysen.
Vortrag im Rahmen des Symposiums „Unterrichtsforschung zur Aufgabenkultur im Sportunterricht“, Münster, Mai 2013

Marc Kleinknecht
Allgemeindidaktische Analysekriterien für Aufgaben.
Vortrag im Rahmen des Workshops „Erstellung von Aufgaben für Biologie/Chemie (Oberstufe)“ an der Akademie für Lehrerfortbildung und Personalführung Dillingen, Januar 2013

Marc Kleinknecht
Aufgaben im Unterricht - Von der Aufgabenanalyse zur Unterrichtsentwicklung.
Vortrag im Rahmen des Berufungsverfahrens W2 Pädagogik (Schwerpunkt Grundschulpädagogik) an der Universität Regensburg (Probevorlesung), Dezember 2012

Marc Kleinknecht
Aufgaben und Unterricht verbessern. Chancen und Grenzen einer allgemeindidaktischen Analyse von Lern- und Leistungsaufgaben.
Vortrag am Institut zur Qualitätsentwicklung im Bildungswesen (IQB), Berlin, November 2012

Marc Kleinknecht
Allgemeindidaktische Aufgaben-Analysekriterien.
Impulsvortrag am Landesinstitut für Schule und Medien Berlin-Brandenburg im Rahmen des Projekts „Lernprozesse mit Aufgaben gestalten, optimieren und steuern (LAGOS)“ (in Kooperation mit Dr. Dirk Richter, IQB Berlin), September 2012

Kerstin Metz
Analyse des kognitiven Anspruchs von Aufgaben aus Lehrwerken für den Deutschunterricht Workshop auf dem Symposion Deutschdidaktik (SDD) in Augsburg vom 16.9.-20.9.2012, 19.9.2012

Kerstin Metz
Neue Aufgabenkultur: Analyse des kognitiven Potentials von Aufgaben im Deutschunterricht.
Leitung einer Lehrerfortbildung an der Pädagogischen Hochschule Klagenfurt (Kärnten) zum Einsatz des Kategoriensystems, 6.-8.10.2011

Marc Kleinknecht & Kerstin Metz
Empirische Überprüfung und Einsatz einer überfachlichen Aufgabenanalyse in der Lehrer(fort)bildung
Vortrag auf der Tagung der DGfE-Kommission Schulforschung Didaktik an der Pädagogischen Hochschule Freiburg, 27.09.2011

Uwe Maier & Thorsten Bohl
Weiterentwicklung der Allgemeinen Didaktik am Beispiel eines Kategoriensystems zur überfachlichen Aufgabenanalyse
Vortrag auf der Tagung der DGfE-Kommission Schulforschung Didaktik an der Pädagogischen Hochschule Freiburg, 27.09.2011

Kerstin Metz
Zum Einsatz eines allgemeindidaktischen Kategoriensystems zur Analyse von Aufgaben aus Deutschlehrwerken
Vortrag im Rahmen der Schulbuchtagung „Organisation von Lehr- und Lernprozessen durch das Schulbuch“ an der Justus-Liebig Universität in Gießen vom 23.- 24. Juni 2011

Kerstin Metz
Vorstellung eines allgemeinpädagogischen Kategoriensystem zur Beschreibung von Aufgaben und Konkretisierung an Beispielen aus verschiedenen Fachdisziplinen
Vortrag im Rahmen einer Fortbildungsveranstaltung des staatlichen Seminars für Didaktik und Lehrerbildung Meckenbeuren zum Thema „Mit Aufgaben steuern wir das Lernen (und prägen damit den Unterricht)“; in Reichenau (Bodensee) am 21.9.2010

Marc Kleinknecht
Aufgabenkultur in verschiedenen Schularten
Vortrag im Rahmen der 74. Tagung der Arbeitsgruppe „Empirische Pädagogische Forschung“ (AEPF) an der Univeristät Jena, September 2010.

Kerstin Metz
Kognitiver Anspruch von Aufgaben im Deutschunterricht
Vortrag im Rahmen des Symposion Deutschdidaktik innerhalb der Sektion 8 „ Lernmedien und Lernaufgaben“ an der Universität Bremen vom 5.9.-9.9.2010

Uwe Maier
Lernaufgaben analysieren und konstruieren.
Vortrag auf der Fachtagung Lernaufgaben aus fachdidaktischen Perspektiven – Wie können sie Denken und Lernen unterstützen? an der Universität Oldenburg. 12./13. November 2009.

Marc Kleinknecht
Aufgabenkultur im Unterricht: Eine Video- und Interviewstudie an Hauptschulen.
Vortrag im Rahmen der Tagung „Videobasierte Methoden der Bildungsforschung. Interdiziplinäre Tagung an der Stiftung Universität Hildesheim, Juni 2009

Marc Kleinknecht
Aufgabenkultur im Unterricht: Eine empirisch-didaktische Analyse des Hauptschulunterrichts.
Vortrag im Rahmen der Theorietagung der Kommissionen Schulforschung und Didaktik und Professionsforschung („Bildungsstandards und Kompetenzmodelle“) der Pädagogischen Hochschule Heidelberg, März 2009.

Marc Kleinknecht
Aufgabenkultur im Unterricht: Eine empirisch-didaktische Analyse des Hauptschulunterrichts
Vortrag im Rahmen des Symposiums „Unterrichtsvorbereitung und Aufgabengestaltung als Gegenstand empirischer Forschung“. 5. DGfE-Sektionstagung „Empirische Bildungsforschung“/AEPF-BBB an der Universität Koblenz-Landau, März 2009.

Kerstin Metz
Aufgabenkultur im Deutschunterricht der Hauptschule
Vortrag im Rahmen des Symposion Deutschdidaktik innerhalb der Sektion 5 „Aufgaben und Aufgabenentwicklung“ an der Universität Köln vom 16.9.-19.9.2008.

Marc Kleinknecht
Aufgabenkultur in der Hauptschule.
Vortrag im Rahmen des Symposium „Psychologische, allgemeindidaktische und fachdidaktische Aspekte der Unterrichtsqualität“. 71. Tagung der Arbeitsgruppe „Empirische Pädagogische Forschung“ (AEPF) am IPN in Kiel, August 2008.

Marc Kleinknecht & Thorsten Bohl
Weiterentwicklung der Allgemeinen Didaktik – Impulse aus einer Aufgabenkulturanalyse?
Vortrag im Rahmen des DGFE-Kongresses 2008 ‚Kulturen der Bildung’ an der TU Dresden, 18.03.2008

Marc Kleinknecht & Thorsten Bohl
Aufgabenkultur in der Hauptschule – Ein Beitrag zu einer empirischen Didaktik
Vortrag an der Universität Duisburg-Essen, Campus Essen, im Rahmen der Vortragsreihe ‚Naturwissenschaftlicher Unterricht‘ an der Universität Duisburg-Essen (Prof. Fischer), 24.03.2007

Thorsten Bohl & Marc Kleinknecht
Aufgabenkultur in der Hauptschule – Ein Beitrag zu einer empirischen Didaktik
Vortrag im Rahmen der Tagung ‚Allgemeine Didaktik trifft Lehr-Lernforschung’, Theorietagung der Kommission Schulforschung/Didaktik der Sektion Schulpädagogik der DGfE von 08. – 09.03.2007 an der Universität Hildesheim. Fr. 9.3. Band 4 ‚Professionalisierung von Lehrpersonen’, 09.03.2007

Publikationen

Bohl, T./Kleinknecht, M. (2009): Weiterentwicklung der Allgemeinen Didaktik – Theoretische und empirische Impulse aus einer Aufgabenkulturanalyse. In: Arnold, K.-H./Blömeke, S./Messner, R./Schlömerkemper, J. (Hrsg.): Allgemeine Didaktik und Lehr-Lernforschung. Kontroversen und Entwicklungsperspektiven einer Wissenschaft vom Unterricht. Bad Heilbrunn: Klinkhardt, S. 145-157
 

Bohl, T./Kleinknecht, M. (2010): Lernumgebung und Aufgabenkultur im Unterricht. In: Bohl, T./Helsper, W./Holtappels, H. G./Schelle, C. (Hrsg.) (2010): Handbuch Schulentwicklung. Bad Heilbrunn: Klinkhardt/UTB, S. 363-366
 

Bohl, T./Kleinknecht, M./Batzel, A./Richey, P. (2012): Aufgabenkultur in der Schule. Eine vergleichende Analyse von Aufgaben und Lehrerhandeln im Hauptschul-, Realschul- und Gymnasialunterricht. Baltmannsweiler: Schneider
 

Bohl. T./Kleinknecht, M. (2009): Aufgabenkultur. In: Blömeke, S./Bohl, T./Haag, L./Lang-Wojtasik, G./Sacher, W. (Hrsg.): Handbuch Schule. Bad Heilbrunn: Klinkhardt/UTB, S. 331-334
 

Kleinknecht, M./Bohl, T. (2010): Aufgabenkultur im Unterricht. Eine empirisch-didaktische Video- und Unterrichtsstudie an Hauptschulen. In: Gehrmann, A./Hericks, U./Lüders, M. (Hrsg.): Bildungsstandards und Kompetenzmodelle. Beiträge zu einer aktuellen Diskussion über Schule, Lehrerbildung und Unterricht. Bad Heilbrunn: Klinkhardt, S. 249-259
 

Kleinknecht, M./Bohl, T./Maier, U./Metz, K. (2011): Aufgaben und Unterrichtsplanung. In: Arnold, K.-H./Bohl, T./Zierer, K. (Zusammenstellung und Betreuung des Thementeils): Entwicklung und Weiterentwicklung allgemeindidaktischer Modelle der Unterrichtsplanung. Jahrbuch für Allgemeine Didaktik 2011. Baltmannsweiler: Schneider, S. 59-75
 

Kleinknecht, M./Maier, U./Metz, K./Bohl, T. (2011): Analyse des kognitiven Aufgabenpotentials: Entwicklung und Erprobung eines allgemeindidaktischen Auswertungsmanuals. In: Unterrichtswissenschaft. 39. Jg./Heft 4, S. 328-344
 

Kleinknecht, M. (2011). Was ist eine gute Aufgabe? Analyse und Weiterentwicklung der unterrichtlichen Aufgabenkultur. In A. Brinkmann & K. Schlegel-Matthies (Hrsg.), Umgang mit Heterogenität in Schule und Unterricht. Paderborn: Schriftenreihe PLAZ-Forum, S. 23-32
 

Maier, U./Kleinknecht, M./Metz, K./Schymala, M./Bohl, T. (2010): Entwicklung und Erprobung eines Kategoriensystems für die fächerübergreifende Aufgabenanalyse. Schulpädagogische Untersuchungen Nürnberg. Forschungsbericht Nr. 38. Mai 2010. hrsg. von Uwe Maier, Friedrich-Alexander-Universität Erlangen-Nürnberg
 

Maier, U./ Kleinknecht, M./Metz, K. (2010): Ein fächerübergreifendes Kategoriensystem zur Analyse und Konstruktion von Aufgaben. In: Kiper, H./Meints, W./Peters, S./Schlump, S./Schmit, S. (Hrsg.): Lernaufgaben und Lernmaterialien im kompetenzorientierten Unterricht, Stuttgart: Kohlhammer, S. 28-43
 

Maier, U./Kleinknecht, M./Metz, K./Bohl, T. (2010): Ein allgemeindidaktisches Kategoriensystem zur Analyse des kognitiven Potenzials von Aufgaben. In: Beiträge zur Lehrerbildung. 28. Jg./Heft 1, S. 84-96
 

Metz, K./ Maier, U./Kleinknecht, M. (2009): Kognitiver Anspruch von Aufgaben im Deutschunterricht, In: ide. informationen zur deutschdidaktik, Heft 3/2009, S. 74-87
 

Metz, K./Maier, U./Kleinknecht, M./Bohl, T./Hoppe, H. (2012): Einsatz eines fächerübergreifenden Kategoriensystems zur Analyse von Aufgaben im Fach Deutsch. In: Ballis, A./Peyer, A. (Hrsg.): Lernmedien und Lernaufgaben im Deutschunterricht. Konzeptionen und Analysen. Bad Heilbrunn: Klinkhardt, S. 25-48