Kategoriensystem zur überfachlichen Aufgabenanalyse
Beteiligte Personen/Institutionen: Prof. Dr. Thorsten Bohl (Tübingen), Prof Dr. Marc Kleiknecht (Lüneburg), Prof. Dr. Uwe Maier (Schwäbisch Gmünd), ; Dr. Kerstin Metz (Ludwigsburg), Henriette Hoppe (Schwäbisch Gmünd), Prof. Dr. Christina Drüke-Noe (Weingarten)
Laufzeit: seit 2008
Zusammenfassung: Weltweit ist Unterricht täglich und in jeder Unterrichtstunde von Aufgaben geprägt. Über die Auswahl geeigneter Aufgaben versuchen Lehrerinnen und Lehrer Ihre Ziele zu erreichen. Aufgaben konkretisieren die Lehr- und Lernziele, sie definieren die kognitiven Anforderungen, Art und Umfang des Unterrichtsangebots, sie ermöglichen und begrenzen den Lernerfolg der Schülerinnen und Schüler. Lehrerinnen und Lehrer wählen im Laufe ihrer Berufsleben hunderte oder tausende von Aufgaben aus. Dies muss rasch, zielgerichtet und auf die jeweilige Lerngruppe bezogen geschehen. Größtenteils werden dafür verfügbare Aufgaben aus Schulbüchern oder Lernmaterialien ausgewählt. Zunehmende Bedeutung erlangt die reflektierte Auswahl von Aufgaben in individualisierten Unterrichtskonzepten oder im Rahmen schülerorientierter, selbstständige Lernphasen.
Wie kann die alltägliche Auswahl systematisch und begründet geschehen? Wie können Aufgaben in ihrem Lernpotential durchdrungen werden? Um diese und weitere Fragen zu klären arbeitet unsere Forschungsgruppe seit einigen Jahren an der Entwicklung eines überfachlichen Kategoriensystems zur Analyse von Aufgaben. Wir untersuchen dieses Kategoriensystem wissenschaftlich und setzen es zunehmend in der Lehrerbildung und in der Lehrerfortbildung ein. Auf diesen Seiten erfahren Sie mehr.
Weitere Angaben:
Aufgabenanalyse
Weltweit ist Unterricht täglich und in jeder Unterrichtstunde von Aufgaben geprägt. Über die Auswahl geeigneter Aufgaben versuchen Lehrerinnen und Lehrer Ihre Ziele zu erreichen. Aufgaben konkretisieren die Lehr- und Lernziele, sie definieren die kognitiven Anforderungen, Art und Umfang des Unterrichtsangebots, sie ermöglichen und begrenzen den Lernerfolg der Schülerinnen und Schüler.
Lehrerinnen und Lehrer wählen im Laufe ihrer Berufsleben hunderte oder tausende von Aufgaben aus. Dies muss rasch, zielgerichtet und auf die jeweilige Lerngruppe bezogen geschehen. Größtenteils werden dafür verfügbare Aufgaben aus Schulbüchern oder Lernmaterialien ausgewählt. Zunehmende Bedeutung erlangt die reflektierte Auswahl von Aufgaben in individualisierten Unterrichtskonzepten oder im Rahmen schülerorientierter, selbstständige Lernphasen.
Wie kann die alltägliche Auswahl systematisch und begründet geschehen? Wie können Aufgaben in ihrem Lernpotential durchdrungen werden? Um diese und weitere Fragen zu klären arbeitet unsere Forschungsgruppe seit einigen Jahren an der Entwicklung eines überfachlichen Kategoriensystems zur Analyse von Aufgaben. Wir untersuchen dieses Kategoriensystem wissenschaftlich und setzen es zunehmend in der Lehrerbildung und in der Lehrerfortbildung ein. Auf diesen Seiten erfahren Sie mehr.
Projektpartner
Prof. Dr. Uwe Maier
(Projektpartner von Beginn an)
Pädagogische Hochschule Schwäbisch Gmünd
Institut für Erziehungswissenschaft / Arbeitsbereich Empirische Schulforschung
Amt für Schulpraktische Studien
Oberbettringerstraße 200
73525 Schwäbisch Gmünd;
Tel. 0049 (0)7171-98.272
eMail: uwe.maierspam prevention@ph-gmuend.de
Website: http://www.ph-gmuend.de/deutsch/lehrende-a-z/m/maier-uwe.php
Dr. Marc Kleinknecht
(Projektpartner von Beginn an)
TUM School of Education
Schulpädagogik
Schellingstr. 33
80799 München
Tel. 0049 (0)89-289.25174
eMail: marc.kleinknechtspam prevention@tum.de
Website: http://www.schulpaed.edu.tum.de/team/marc-kleinknecht/
Dr. Kerstin Metz
(Projektpartnerin von Beginn an)
Pädagogische Hochschule Ludwigsburg
Institut für Sprache und Literatur
Abteilung Deutsch mit Sprecherziehung
Reuteallee 47
71634 Ludwigsburg
Tel. 0049 (0)7141-140.855
eMail: metzspam prevention@ph-ludwigsburg.de
Website: http://www.ph-ludwigsburg.de/11597.html
Prof. Dr. Thorsten Bohl
(Projektpartner von Beginn an)
Samuel Merk
(Projektpartner seit 2011)
Eberhard-Karls-Universität Tübingen
Studiendekan der Wirtschafts- und Sozialwissenschaftlichen Fakultät
Institut für Erziehungswissenschaft
Abteilung Schulpädagogik
Münzgasse 22-30 / R 210a
D - 72070 Tübingen
Tel. 0049 - (0)7071-29.78324
eMail: thorsten.bohlspam prevention@uni-tuebingen.de
Website: http://www.uni-tuebingen.de/fakultaeten/wirtschafts-und-sozialwissenschaftliche-fakultaet/faecher/erziehungswissenschaft/abteilungen/schulpaedagogik/personal/prof-dr-thorsten-bohl.html
Dr. Henriette Hoppe
(Projektpartnerin seit 2010)
Pädagogische Hochschule Schwäbisch Gmünd
Institut für Sprache und Lehre/Deutsch mit Sprecherziehung
Oberbettringerstraße 200
73525 Schwäbisch Gmünd;
Tel. 0049 (0)7171 983.440
eMail: henriette.hoppespam prevention@ph-gmuend.de
Website: http://www.ph-gmuend.de/deutsch/lehrende-a-z/h/hoppe-henriette.php?navanchor=1010024
Christina Drüke-Noe
(Projektpartnerin seit 2011)
Universität Kassel
FB10 Mathematik/Informatik
Heinrich-Plett-Str. 40
34132 Kassel
Tel. 0049 (0)56-804.4528
eMail: drueke-noespam prevention@mathematik.uni-kassel.de
Website: http://www.mathematik.uni-kassel.de/didaktik/HomePersonal/drueke-noe/home/
Beschreibung des Kategoriensystems
Inhaltsverzeichnis
- Übersicht
- 1. Wissensart
- 2. Kognitive Prozesse
- 3. Anzahl der Wissenseinheiten
- 4. Offenheit der Aufgabenstellung
- 5. Lebensweltbezug
- 6. Sprachliche Komplexität
- 7. Repräsentationsformen des Wissens
Sowohl in der Allgemeinen Didaktik, in Fachdidaktiken als auch in der Unterrichtsforschung und in der Lehr-Lern-Forschung gelten Aufgaben als zentrales Instrument des Unterrichts. Über Aufgaben wird der Unterricht geplant, realisiert, gesteuert, evaluiert und reflektiert. Aufgaben prägen damit in herausragender Weise das institutionalisierte Lernen in unserer Gesellschaft.
Seit etwa zehn Jahren wird in der Didaktik und der Unterrichtsforschung verstärkt die Bedeutung von Aufgaben für die Unterrichtsqualität hervorgehoben. Als Ausgangspunkt für die Diskussion um Aufgaben und Aufgabenkultur können die Befunde der Third International Science Studie (TIMSS) und hierbei vor allem die TIMS-Videostudie im Jahr 1997 angesehen werden. Im Rahmen der TIMS-Videostudie wurde Unterricht in Japan, den USA und Deutschland untersucht (Klieme, Schümer & Knoll, 2001). Für den deutschen Unterricht wies die TIMS-Videostudie ein vorherrschendes Muster des fragend-entwickelnden Unterrichts nach – deutsche Lehrkräfte scheinen in besonders kleinschrittiger Weise Sachverhalte zu erörtern, sie ‚zerlegen‘ Aufgaben und betonen dabei insbesondere das wiederholende bzw. nachvollziehende Üben. Seit dieser Erkenntnis werden Aufgaben insbesondere in Fachdidaktiken weiterentwickelt und untersucht, Lehrkräfte werden zu Aufgaben und einer ‚neuen‘ Aufgabenkultur fortgebildet. Eine besondere Rolle nehmen Aufgaben beispielsweise im Rahmen der Fortbildungsprogramme SINUS oder SINUS-Transfer ein, vorrangig in offenen, problemorientierten und alltagsnahen Formaten (Ostermeier, Prenzel & Duit, 2010).
Theoretische und empirische Studien zu Aufgaben werden derzeit in zahlreichen Fachdidaktiken, insbesondere in der Mathematik (z.B. Büchter & Leuders, 2005), in der Naturwissenschaft (z.B. Neumann et al., 2007), im Fremdsprachlichen Bereich (z.B. Timm, 1998, 221ff., 366ff; Weskamp, 2003, 109ff.) und im Bereich der Lesekompetenz (Bremerich-Voss, 2008; Köster, 2002, 2004) durchgeführt. Auch eine allgemeindidaktische Perspektive ist zunehmend erkennbar (Kiper, Meints, Peters, Schlump & Schmit, 2010; Kleinknecht, 2010; Maier, Kleinknecht, Metz & Bohl, 2010; Thonhauser, 2008).
Die besondere Rolle der Allgemeinen Didaktik bei der Entwicklung, Untersuchung und Analyse von Aufgaben liegt in den folgenden Bereichen:
- Allgemeine Didaktik reflektiert den bildungstheoretischen Gehalt von Aufgaben.
- Allgemeine Didaktik kann Aufgaben in bildungswissenschaftlichen Bereichen des Professionalisierungsprozesses von Lehrkräften einbinden und damit eine grundlegende Qualifizierung und Reflexion einer ‚Aufgabenkultur‘ anbahnen.
- Über bereits vorhandene Planungskonzepte kann ein Anschluss an die Unterrichtsplanung hergestellt werden (z.B. über Einbindung in das Perspektivenschema von Klafki 1996).
- Eine Allgemeindidaktische Perspektive bietet eine wertvolle Verständnisplattform für Unterrichts- und Schulentwicklungsprozesse, in denen (Fach-)Lehrkräfte Standards für anspruchsvolle Lernumgebungen entwickeln, beispielsweise in Konzepten zum Umgang mit Heterogenität oder im individualisierten Unterricht.
Damit können fachdidaktische Analysen und Perspektiven auf Aufgaben in wertvoller Weise ergänzt und unterstützt werden.
Innerhalb der Allgemeinen Didaktik sind Aufgaben ein vergleichsweise kleines und junges Forschungsfeld. Nur sehr wenige theoretische oder empirische Studien wurden dazu in den vergangenen Jahrzehnten vorgelegt. In jüngster Zeit legten Blömeke et al (2006) einen allgemeindidaktischen Beitrag zur Klassifikation und Analyse von Aufgaben vor. Sie entwickelten auf der Grundlagen lernpsychologischer, motivationspsychologischer und allgemeindidaktischer Konzepte insgesamt neun übergreifende Kriterien für eine hohe Aufgabenqualität: Exemplarität; Ansprache von Schülerbedürfnissen; kognitive Prozesse und Wissensformen (nach Anderson et al. 2001); Neuigkeitswert; Chance auf Bewältigung; Potenzial zur Differenzierung; Authentizität der Aufgabensituation; Förderung der Problemlösefähigkeit; Möglichkeit sozialer Interaktion. Der Ansatz ist breit angelegt und gut begründet, allerdings noch wenig auflösend und zum Teil nur gering operationalisiert. Der Ansatz wurde in einer qualitativen Fallstudie (Gymnasium Kl. 11, Mathematik) erprobt.
Kategoriensysteme der Fachdidaktiken, insbesondere der Mathematikdidaktik sind elaborierter (z.B. Neubrand 2002; Jordan et al. 2006). Allerdings sind eher sehr forschungsorientiert und für den Alltag des Unterrichtens und für den Einsatz in der Lehrerbildung nur begrenzt geeignet. Lehrkräfte und Studierende aus unterschiedlichen Fächern können damit begrifflich und fachspezifisch nicht arbeiten.
Diese kurze Darstellung des Diskussionsstandes verdeutlicht ein Defizit: bisher ist kein überfachliches Kategoriensystem zur Analyse von Aufgaben erkennbar, mit dem Lehrkräfte und Studierende arbeiten und den Einsatz von Aufgaben reflektieren können.
Allgemeindidaktische und fachdidaktische Lernziel- und Klassifikationsschema (vgl. Tab. 1) wurden bereits vielfältig entwickelt.
Allgemeindidaktische Klassifikationsschema | ||
---|---|---|
Gagné (1969) | Taxonomie aufeinander aufbauender Lernarten | nach Signallernen, Reiz-Reaktions-Lernen, Kettenbildung, sprachliche Assoziation, multiple Diskriminiation, Begriffslernen, Regellernen, Problemlösen |
Gagné, Briggs und Wager 1988 | Klassifikation von Bereichen | Intellectual skills, cognitive strategies, verbal knowledge, motor skills, attitudes |
Bloom et al. 1956 | TEO | Kenntnisse, Verständnis, Anwendung, Analyse, Synthese, Bewertung |
Deutscher Bildungsrat 1970 | Vereinfachung der TEO | Reproduktion, Reorganisation, Transfer, Problemlösendes Denken |
Anderson & Krathwohl 2001 | Revidierte Bloom‘sche Taxonomie | Knowledge dimension (factual, conceptual, procedural, metacognitive) & Cognitive process dimension (remembering, understanding, applying, analyzing, evaluating, creating) |
Biggs & Collis 1982 | SOLO-Taxonomie | Prestructural, unistructural, multistructural, relational, extended abstract |
KMK | Bildungsstandards | Reproduzieren, Zusammenhänge herstellen, Verallgemeinern und Reflektieren |
Blömeke et al. 2006 | Kognitive, motivationale, bildungstheor. Aspekte | Exemplarität; Schülerbedürfnisse; kognitive Prozesse und Wissensformen; Neuigkeitswert; Chance auf Bewältigung; Differenzierung; Authentizität; Förderung Problemlösefähigkeit; Möglichkeit sozialer Interaktion |
Fachdidaktische Klassifikationsschema | ||
Neubrand (2002) | TIMSS-Klassifikation Matheaufgaben | Aufgabenkern: Wissensart, Anzahl Wissenseinheiten, Aktivierung Wissenseinheiten, inner- oder außermathematischer Kontext, Stoffgebiet |
Jordan et al. (2006) | COACTIV Klassifikation von Matheaufgaben | u.a. Modellierungskreislauf, Anzahl Lösungswege, math. Argumentieren, sprachlogische Komplexität |
Jatzwauk (2007) | Aufgaben im Biologieunterricht | Sensomotorische Aufgaben, rezipierende Aufgaben, Exzerpieren und Darstellen ohne und mit Transformation, Reproduzieren, konvergentes Denken, divergentes Denken bzw. Bewerten |
Schabram (2007) | Physikaufgaben | Wissensaufgaben, Verstehensaufgaben, Anwendungsaufgaben |
Neumann et al. (2007) | Komplexitätsstufen im Modell für physikalische Kompetenz | Ein Fakt, mehrere Fakten, Zusammenhang, unverbundene Zusammenhänge, verbundene Zusammenhänge, übergeordnetes Konzept |
Schlüter (2009) | Klassifikation von Informatikaufgaben | Erfahrungsweltnähe, Abstraktionsgrad, Komplexität, Formalisierungsgrad, Redundanz, Anforderungsbereich, Wissensarten (Anderson & Krathwohl) |
Tabelle 1: Allgemeindidaktische Lernziel- und Aufgabentaxonomien
Trotz zahlreicher Vorarbeiten sind mehrere Desiderata erkennbar: Notwendig ist ein recht sparsames, fächerübergreifendes Klassifikationssystem, d.h. eine überschaubare, auch im Schulalltag handhabbare Anzahl von Dimensionen und Ausprägungen. Der Fokus sollte dabei auf dem kognitiven Anforderungsniveau liegen in allgemeindidaktischer Hinsicht liegen, so dass das Kategoriensystem auch überfachlich genutzt werden kann. Gleichwohl sollte selbstredend ein unmittelbarer Bezug zu fachdidaktischen Kategoriensystemen vorhanden sein. Weitergehend ist wünschenswert, dass die analysierten Aufgaben in die sequentielle Struktur von Lehr-Lernprozessen einordenbar sind.
Vor dem Hintergrund dieser Überlegungen entstand unser Kategoriensystem. In diesem Abschnitt beschreiben wir die von uns entwickelten und optimierten Kategorien und Subkategorien zur Analyse von Aufgabenstellungen in unterschiedlichen Unterrichtsfächern und unterschiedlichen didaktischen Zusammenhängen. Mit sieben Dimensionen und jeweils drei bis vier Subkategorien soll das kognitive Potenzial von Lern- bzw. Diagnoseaufgaben analysiert werden. Tabelle 2 stellt die Dimensionen mit den jeweiligen Merkmalsausprägungen in der Übersicht dar. aus Maier ua. S. 17.
Dimension | Ausprägungen | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1. | Wissensart | Fakten | Prozeduren | Konzepte | Metakognition | ||||||||
2. | Kognitiver Prozess | Reproduktion | Naher Transfer | Weiter Transfer | Problemlösen | ||||||||
3. | Wissenseinheiten | Eine WE | Bis zu 4 WE | Mehr als 4 WE | |||||||||
4. | Offenheit | Definiert/konvergent | Definiert/divergent | Ungenau/divergent | |||||||||
5. | Lebensweltbezug | Kein | Konstruiert | Authentisch | Real | ||||||||
6. | Sprachlogische Kompl. | Niedrig | Mittel | Hoch | |||||||||
7. | Repräsentationsformen | Eine | Integration | Transformation |
Tabelle 2: Dimensionen und Ausprägungen der fächerübergreifenden Aufgabenanalyse
Die insgesamt sieben Dimensionen können wie folgt konkretisiert werden (die folgende Beschreibung der sieben Dimensionen ist wörtlich entnommen aus: Maier u.a. 2010, S. 28ff).
1. Wissensart
In weitgehender Übereinstimmung mit Anderson und Krathwohl (2001) halten wir die Art des durch eine Aufgabenstellung tangierten Wissens sowie die erforderlichen kognitiven Prozesse für die beiden wichtigsten Kategorien zur Analyse des kognitiven Potenzials. Hinzu kommt allerdings die Anzahl der aktivierten Wissenseinheiten (Neubrand 2002), weil diese zur Komplexitätssteigerung ebenfalls beiträgt und – im Gegensatz zur Bloomschen Taxonomie – eine Aufgabenstellung nicht mehrere, sondern auch unterschiedliche Wissenseinheiten (Faktenwissen und konzeptuelles Wissen) erforderlich machen kann.
Bei der Beschreibung verschiedener Wissensarten orientieren wir uns an der von Anderson und Krathwohl (2001) eingeführten Unterteilung in Faktenwissen, prozedurales Wissen, konzeptuelles Wissen und metakognitives Wissen. Diese Wissensklassen gehen auf lern- und kognitionspsychologische Befunde zum Aufbau und zur Speicherung von Wissen zurück und finden sich in ähnlicher Form auch bei Gagné et al. (1992) sowie in mathematikdidaktischen Aufgabenklassifikationen. Neubrand (2002) unterscheidet beispielsweise folgende Wissensarten: überwiegend prozedural/algorithmisches Wissen erforderlich, Faktenwissen erforderlich, überwiegend konzeptuelles/begriffliches Wissen erforderlich oder mehrere Wissensarten treten kombiniert auf.
Die vier Subkategorien sind nicht hierarchisch gestuft. Dies bedeutet, dass prinzipiell die Kategorisierung mehrerer Wissensklassen pro Aufgabe möglich ist (nicht disjunkt). Diese Problematik wird dann in der Dimension "Anzahl der Wissenseinheiten" analytisch bearbeitet.
- Faktenwissen wird von Anderson und Krathwohl (2001) und auch Jordan et al. (2006) als verbalisierbares und für eine bestimmte Fachdomäne relevantes Wissen bezeichnet. Es handelt sich um ein "Wissen dass ..." im Vergleich zu "Wissen wie ..." (prozedurales Wissen). Gagné et al. (1992) sprechen explizit von "verbal knowledge" und weisen damit auf die Repräsentation dieses Wissens in propositionalen, d.h. aussagehaltigen kognitiven Netzwerken hin. Ebenfalls zeigt die Klassifizierung von Gagné et al. (1992), dass es Faktenwissen mit unterschiedlicher Komplexität gibt: Vom terminologischen Wissen (Bezeichnungen, Termini, labels) über die Kenntnis isolierter Fakten bis hin zu komplex vernetztem Faktenwissen (organized verbal knowledge). Wir verstehen unter Faktenwissen allerdings nur terminologisches Wissen und isolierte Fakten, weil letztendlich unklar ist, wie Gagné et al (1992) den Unterschied zwischen "organized verbal knowledge" und "conceptual knowledge" definieren. Sobald Fakten nicht mehr isoliert gespeichert sind, wird man es in Wissensdomänen automatisch mit Begriffsmustern bzw. Konzepten zu tun haben. Gagné würde beispielsweise Wissen über das Mittelalter als "organized verbal knowledge" bezeichnen. Sobald dieses Wissen unter dem Oberbegriff "Mittelalter" subsummiert werden kann, liegt allerdings ein fachspezifisches Konzept vor, das durch bestimmte Definitionen, Klassifikationen, etc. gekennzeichnet ist und vielfältige Querbeziehungen zu anderen Konzepten bzw. Faktenwissen aufweist. Begriffe basieren somit auf der Kenntnis von organisiertem Faktenwissen (vor allem terminologischem Wissen): z.B. Um das Konzept Bruchrechnung zu verstehen, muss eine Schüler bzw. ein Schüler wissen was Zähler und Nenner ist, was ein Bruch und eine Dezimalzahl ist, etc.
- Prozedurales Wissen: Für Anderson und Krathwohl (2001) ist prozedurales Wissen implizites, d.h. nicht verbalisierbares Handlungswissen und geht von basalen Verhaltensweisen (Aussprache) bis zu komplexen Routinen und Handlungsmustern. Prozedurales Wissen lässt sich allerdings in deklaratives bzw. verbalisierbares Wissen dekomponieren (z.B. Aufschreiben wie Autofahren geht). Prozedurales Wissen bezieht sich auf bereichsspezifisch einschlägige Prozeduren (Algorithmen, Abläufe, Routinen, Fertigkeiten, Handlungen, Skripts) und ist damit von metakognitivem Wissen mit prozedurales Charakter (z.B. Lernstrategien) abgrenzbar. Prozeduren sind hierarchisch aufgebaut: komplexe Prozeduren mit zahlreichen Unterprozeduren sind möglich. Beispielsweise sind Fertigkeiten bei technischen Aufgaben, wie z.B. schriftliches Rechnen (Jordan et al. 2006) Grundlage für komplexere mathematische Prozeduren, wie z.B. Umwandeln von Maßeinheiten. Oder Wissen darüber, wie man einen bestimmten Typ von Text zu schreiben hat, lässt sich in einzelne Teilprozeduren bis hin zur korrekten Rechtschreibung zerlegen (Bremerich-Vos 2008). Bei der Analyse prozeduralen Wissens ist ebenfalls zu fragen, auf welche Objekten sie fokussieren, bzw. was manipuliert wird: Symbole, reale Gegenstände oder mentale Vorstellungen.
- Konzeptuelles Wissen ist vielfach vernetztes Begriffswissen und kann sowohl verbalisiert als auch implizit vorliegen (Anderson et al. 2001; Gagné et al. 1992). Konzeptuelles Wissen ist domänenspezifisch und wird in Form von Klassifikationen, Prinzipien, Kategorien, Modellen oder Schemata sichtbar. Klassische Beispiele sind die Übersetzung einer Sachsituation in ein mathematisches Modell (inner- und außermathematisches Modellieren: Jordan et al. 2006) oder das Lösen von Aufgaben, die keinen Standardalgorithmen folgen. Im sprachlichen Bereich handelt es sich um Textsortenwissen oder die Klassifikation von Wortarten (Bremerich-Vos 2008). Konzeptuelles Wissen ist die Grundlage für bedeutungsvolles und vertieftes Verständnis von fachspezifischen Inhalten (im Vergleich zum reinen Auswendiglernen von Fakten oder Anwenden einfacher Algorithmen). Konzeptuelles Wissen ermöglicht ebenfalls den kumulativen Wissensaufbau innerhalb einer Fachdomäne. Lernende können Beziehungen zwischen bereits vorhandenen Wissenseinheiten oder zwischen vorhandenen Wissenseinheiten und neuen Informationen herstellen.
- Metakognitives Wissen ist Wissen über die eigenen Kognitionen (eigene Lernziele, Lerngewohnheiten, usw.) und die Fähigkeit, den eigenen Lernprozess zu steuern (Monitoringstrategien) sowie Informationsverarbeitungsstrategien und Problemlösestrategien gezielt anwenden zu können (Anderson et al. 2001). Bremerich-Vos (2008) weist als Beispiel auf strategisches Wissen für den Leseprozess hin: Schülerinnen und Schüler sollten wissen, warum sie einen Text lesen oder was man tun kann, wenn man eine Textpassage nicht verstanden hat. Metakognitives Wissen wird gefördert, wenn Lernende aufgefordert oder angeregt werden, das Ergebnis einer Aufgabe selbst zu kontrollieren.
2. Kognitive Prozesse
Wir sehen die hierarchische Stufung kognitiver Prozesse bei Anderson und Krathwohl (2001) in Anlehnung an die Bloomsche Lernzieltaxonomie weiterhin kritisch. Vor allem Trennschärfe und hierarchische Stufung nach kognitiver Komplexität sind fragwürdig. Problematisch sind nicht nur die oberen drei Stufen, sondern auch die Differenzierung zwischen "Verstehen" und "Anwendung". Verstehen ist das Einordnen neuer Informationen in vorhandene, begriffliche Strukturen; Operatoren für diesen kognitiven Prozess sind in der Regel: interpretieren, exemplifizieren, klassifizieren, zusammenfassen, folgern, vergleichen und erklären. Diese Kategorie ist wenig trennscharf und kann sehr unterschiedliche kognitive Prozesse umfassen; je nachdem wie komplex oder neuartig die zu verstehende Information ist, laufen ganz unterschiedliche kognitive Prozesse ab.
Ein ähnliches Problem ergibt sich bei der Kategorie Anwenden, beispielsweise beim Gebrauch von Prozeduren zur Übung oder zur Problemlösung. Entscheidend ist, ob die Schülerin bzw. der Schüler eine Prozedur sofort zur Verfügung hat, die er in diesem speziellen Fall anwenden kann oder nicht. Ist keine Prozedur für das Problem geeignet, muss eine bekannte Prozedur modifiziert werden, was einer kreativen Problemlösung, d.h. der höchsten Stufe gleichkommt (creating). Bei der Einordnung von Anwendungsaufgaben (Ausführen oder Implementieren) ist somit erstens Kontextinformation notwendig: Wurden bereits ähnliche Aufgaben behandelt oder handelt es sich um eine neuartige Anwendungsaufgabe? Und zweitens muss auch auf der Stufe der Anwendung die Weite des zu leistenden Transfers abgeschätzt werden.
Um diesen Schwierigkeiten zu entgehen, differenzieren wir zunächst zwischen Reproduktion und Transfer, um die Komplexität kognitiver Prozesse zu definieren (so beginnen auch Anderson et al. 2001, um die Stufung kognitiver Prozesse zu begründen). Transfer soll dabei auf alle Wissensarten bezogen werden. Nicht nur Prozeduren wie im TIMSS framework, auch Faktenwissen und konzeptuelles Wissen können zur Interpretation (Verstehen) von Informationen transferiert werden. Transfer lässt sich weiter untergliedern, je nachdem wie neuartig eine Situation ist, in der bereits verstandenes Wissen zum Einsatz kommen soll (naher Transfer, weiter Transfer, kreatives Problemlösen).
- Reproduktionsaufgaben machen eine Erinnerungsleistung erforderlich. Für Anderson und Krathwohl (2001) bedeutet Reproduktion den Abruf von Wissen aus dem Langzeitgedächtnis in einer Form, in der es auch eingespeichert wurde. Diese Reproduktionsleistung kann sich auf alle vier Wissensarten beziehen, nicht nur auf das Erinnern von Faktenwissen (Bremerich-Vos 2008, S. 35). Bei der Reproduktion von Prozeduren ist die Aufgabe so angelegt, dass Lernende eine Handlung nachahmen sollen. Konzeptuelles Wissen wird reproduziert, wenn Schülerinnen und Schüler eine Begriffsdefinition wiedergeben können. Metakognitives Wissen wird reproduziert, wenn beispielsweise eine Lernstrategie in einem bekannten Zusammenhang noch einmal nachvollzogen wird.
- Naher Transfer liegt dann vor, wenn sich die Aufgabensituation nur geringfügig von bereits bekannten oder geübten Aufgaben bzw. von der Lernsituation unterscheiden. Für die Abschätzung der Differenz zwischen Aufgaben- und Lernsituation sind verschiedene Hinweise denkbar. Beispielsweise kann die Aufgabe so gestellt sein (mit entsprechenden Hinweisen), dass dem Schüler klar ist, welches Wissen (ob Prozeduren, Faktenwissen oder Konzepte) für die Aufgabenlösung zur Anwendung kommen sollte. Die Aufgabe gibt den Schülerinnen und Schülern beispielsweise genaue Handlungsvorgaben. Sie sollen ein Prinzip anwenden, unter Rückgriff auf Vorwissen, das in der Aufgabe explizit genannt wird. Ein weiteres Erkennungsmerkmal ist das kleinschrittige Ausführen von Verfahren und Algorithmen (z.B. schrittweises Vorgehen bei Dreisatzaufgaben).
- Aufgaben mit weitem Transfer erfordern die Anwendung von Wissen in einer neuen, unbekannten Situation. Zudem ist für die Lernenden nicht unbedingt sofort einsichtig, welches Wissen zur Anwendung kommen sollte. Das vorhandene Wissen muss nach Prinzipien, Regeln, Lernstrategien etc. durchsucht werden, die sich auf die Aufgabe anwenden lassen. Im Vergleich zur nächsten Stufe (kreatives Problemlösen) ist das Wissen allerdings in der Form vorhanden bzw. leicht abrufbar, in der es zur Anwendung kommen sollte. Beispielsweise, wenn bei einer unbekannten Sachaufgabe das Problem verstanden wurde, können bekannte Konzepte oder Algorithmen zur Lösung herangezogen werden.
- Die Subkategorie "kreatives Problemlösen" lässt sich von den Transferaufgaben abgrenzen. Während bei Reproduktion sowie nahem und weitem Transfer das Wissen bereits in der Form vorhanden ist, wie es in der Aufgabe zur Anwendung kommen soll, sind Aufgaben denkbar, bei denen zunächst einmal neues Wissen geschaffen werden muss, um eine Aufgabe lösen zu können. Die Kognitionspsychologie konnte zeigen, dass bei solchen Problemlöseaufgaben das vorhandene Wissen sogar ein Hindernis darstellen kann (z.B. funktionale Fixierung, vgl. Anderson 1989). Allenfalls können bestimmte Problemlöseheuristiken genutzt werden. Die Subkategorie kreative Problemlöseaufgaben deckt im Wesentlichen die oberste Stufe der Dimension kognitive Prozesse bei Anderson et al. (2001) ab: Erschaffen (create). Es handelt sich um Aufgaben, die vom Schüler eine kreative Leistung, d.h. das Zusammenfügen vorhandener Elemente verlangen, sodass neues Wissen entsteht, das für die Lösung der Aufgabe erforderlich ist.
Die Subkategorien "weiter Transfer" und "kreatives Problemlösen" entsprechen der impliziten Aktivierung der Wissenseinheiten bei Neubrand (2002): Wissenseinheiten sind nicht direkt erwähnt, sondern müssen aus dem Aufgabenkontext erschlossen werden. Der Aufgabenlöser muss selbständig entscheiden, mit welchen Wissenseinheiten er arbeitet.
3. Anzahl der Wissenseinheiten
Die Dimension "Anzahl der Wissenseinheiten" ist nach Neubrand (2002, 95) ein Teilaspekt der Komplexität von Aufgaben. Um die für eine Aufgabe zu aktivierenden Wissenseinheiten bestimmen zu können, muss die Perspektive eines "Experten" eingenommen werden, der über das erforderliche fachspezifische Wissen verfügt. Dabei geht es nicht darum, wie ein Experte im Einzelfall die Aufgabe lösen würde, sondern welches Wissen unbedingt zur Lösung erforderlich ist. Eine Wissenseinheit repräsentiert dabei immer die hierarchisch oberste Ebene. Subprozeduren oder deklaratives Wissen auf unteren Ebenen werden der oberen Hierarchieebene zugeordnet und bilden eine Wissenseinheit. Eine Wissenseinheit ist damit verdichtetes Expertenwissen und kann als Objekt des Denkens bezeichnet werden.
Wissenseinheiten können unter Umständen mit Lösungsschritten gleichgesetzt werden. Bei einer Sachaufgabe müssen beispielsweise mehrere Modellierungsschritte nacheinander vorgenommen werden. Jedem Modellierungsschritt wird dann eine Rechenoperation zugeordnet (Multiplikation, Umwandeln von Maßeinheiten, etc.). Lösungsschritte und zu aktivierende Wissenseinheiten sind in diesem Fall identisch. Ein Gegenbeispiel wäre eine schriftliche Rechenaufgabe, die mehrere Schritte hin zur Lösung umfasst. Es wird jedoch nur ein Rechenalgorithmus auf der hierarchisch obersten Stufe aktiviert und somit liegt nur eine Wissenseinheit vor. Aus diesem Grund ist die Kategorie Wissenseinheit mit der im COACTIV-Projekt (Jordan et al. 2006) verwendeten Dimension "Umfang der Bearbeitung" bzw. "Anzahl der notwendigen Lösungsschritte" nur teilweise kompatibel. Allerdings orientieren wir uns aus pragmatischen Gründen an die hierarchische Abstufung dieser Kategorie:
- Aufgaben mit einer Wissenseinheit: Es wird beispielsweise nach einer einzigen Bezeichnung (Teriminus), einem Fakt oder Datum gefragt. Oder auf konzeptueller Ebene soll ein Fachbegriff erklärt werden (z.B. Was versteht man unter Langzeitgedächtnis?). Es kommt eine bestimmte Prozedur zur Anwendung.
- Aufgaben mit bis zu vier Wissenseinheiten: Im Bereich Arithmetik gibt es viele Rechenaufgaben, die mit mehr als einer Rechenprozedur zu lösen sind (z.B. 10,5 * 14 + 17,3). Auch Aufgaben, die eine Kombination von konzeptuellem Wissen und Faktenwissen erforderlich machen, sind hier denkbar.
- Aufgaben mit mehr als vier Wissenseinheiten sind wenig anspruchsvoll, wenn sie sich z.B. auf der Ebene des Faktenwissens oder des prozeduralen Wissens bewegen. Beispielsweise wenn sehr viele Jahreszahlen für bestimmte historische Ereignisse in einer Epoche abgefragt werden, sind sehr schnell mehr als vier voneinander isolierte Wissenseinheiten zu aktivieren. Dabei handelt es sich jedoch vorwiegend um eine Gedächtnisleistung. Komplexer wird es dann, wenn verschiedene Prozeduren und Konzepte zu kombinieren sind. Dies ist beispielsweise bei Aufgaben zur Textproduktion der Fall. Hier gilt es Textsortenwissen mit Faktenwissen und grammatikalischem bzw. Rechtschreibwissen zu kombinieren.
4. Offenheit der Aufgabenstellung
In der Testpsychologie wird zwischen geschlossenen, halboffenen und offenen Items unterschieden (z.B. Rütter 1973). Geschlossene (multiple choice oder single choice) und halboffene Aufgabenformate haben genau eine richtige Lösung. Bei halboffenen Aufgabenformaten ist die Lösung jedoch nicht sichtbar und muss vom Schüler selbst produziert werden. Offene Aufgabenformate haben einen bestimmten Lösungsraum mit mehreren richtigen Lösungen. Auch die Unterscheidung zwischen konvergenten und divergenten Aufgaben beschreibt die Offenheit bzw. Geschlossenheit des Lösungsraums. Allerdings wird durch diese Aufgabendimensionen nicht die Offenheit der Aufgabenstellung selbst thematisiert, sondern nur die Offenheit des Lösungsraums. Um diesem Problem zu begegnen, bietet sich eine Analyse der Offenheit bzw. Geschlossenheit einer Aufgabe vor dem Hintergrund der aus der Problemlösepsychologie bekannten Beschreibung eines Problems durch Anfangszustand, Transformation und Zielzustand, an (z.B. Neubrand 2002; Greefrath 2004). Aufgaben lassen sich dahingehend einordnen, ob Anfangs- und Zielzustand sowie die dazwischen liegende Transformation jeweils eindeutig oder offen sind. D.h. nicht nur der Ziel- sondern auch der Anfangszustand kann mehr oder weniger offen bzw. geschlossen sein. Gibt es in der Aufgabe einen eindeutigen Arbeitsauftrag oder muss die Schülerin bzw. der Schüler selbst eine Fragestellung formulieren? Neubrand (2002) kombiniert damit acht verschiedene Aufgabenarten, je nachdem ob Ausgangszustand, Bearbeitung bzw. Zielzustand entweder vorgegeben oder gesucht sind. Grundaufgaben sind der einfachste Fall und der Normalfall im Unterricht: Ausgangszustand und Bearbeitung sind vorgegeben, der Zielzustand wird gesucht. Typische Sachaufgaben sind Bestimmungsaufgaben: Ausgangszustand ist gegeben, jedoch muss der Weg bereits gesucht werden. Bei Beweisaufgaben sind Ziel und Ausgangspunkt gegeben und der Weg muss gesucht bzw. begründet werden. Bei Umkehraufgaben ist der Ausgangszustand gesucht und Ziel bzw. Ziel und Weg sind vorgegeben. Wenn nichts vorgegeben ist, handelt es sich um Problemsituationen. Keine einzige Aufgabe der TIMSS-Videostudie konnte jedoch als Problemsituation klassifiziert werden. Diese sehr differenzierte Klassifikation scheint uns für die allgemeindidaktische Analyse zu wenig robust. Aus diesem Grund wurde sie auf drei Stufen der Offenheit reduziert. Dabei wird lediglich unterschieden, ob der Anfangszustand des zu lösenden Problems klar definiert ist oder nicht. Nimmt man die Unterscheidung zwischen konvergenten Aufgaben (eine Lösung) und divergenten Aufgaben (mehrere Lösungen) hinzu, ergeben sich durch logische Kombination drei Stufen der Offenheit:
- Definierte und konvergente Aufgaben haben einen eindeutigen Arbeitsauftrag bzw. eine klar identifizierbare Fragestellung. Eine Lösung ist gesucht bzw. richtig. Wobei die richtige Lösung nicht unbedingt sichtbar sein muss (nur bei Aufgaben mit Mehrfachwahlantworten).
- Definierte und divergente Aufgaben haben einen eindeutigen Arbeitsauftrag bzw. eine klar identifizierbare Fragestellung. Allerdings sind mehrere Lösungen (bzw. Lösungswege) denkbar bzw. gesucht. In der Regel werden die Lernenden auf diesen Umstand hingewiesen (als Teil des eindeutigen Arbeitsauftrags).
- Schlecht definierte und divergente Aufgaben geben dem Schüler Informationen über ein Problem bzw. eine Situation. Allerdings wird keine klare Frage gestellt oder kein Arbeitsauftrag gegeben. Die Situation impliziert unterschiedliche Fragestellungen. Die Problemsituation an sich ist die "Handlungsaufforderung". Damit sind auch automatisch mehrere Lösungen (bzw. Lösungswege) denkbar bzw. richtig.
5. Lebensweltbezug
Die Forderung nach einer stärkeren Verzahnung von schulischen Inhalten und Lebenswelt gibt es praktisch seit sich die Schule als Institution des Lernens außerhalb der Lebenswelt (Arbeits- und Familienwelt) durchgesetzt hat. Als Höhepunkt einer Kritik an der Lebensferne schulischen Lernens kann die Zeit der Reformpädagogik gelten. Seither wurde die Forderung nach mehr Lebensnähe und Authentizität schulischen Lernens in unterschiedlichen Traditions- und Theoriezusammenhängen immer wieder formuliert (z.B. situiertes Lernen). Der Lebensweltbezug ist damit auch eine ureigene Kategorie allgemeindidaktischen Denken, wie z.B. die Gegenwarts- und Zukunftsbedeutung bei Klafki (1958) oder als Qualitätskriterium für Aufgaben bei Blömeke et al. (2006). Auch im Rahmen der aktuellen Diskussion über Bildungsstandards und kompetenzorientierter Leistungsmessung spielt der Lebensweltbezug von Aufgaben eine wichtige Rolle. Beispielsweise ist Lebensweltbezug ein zentrales Gestaltungsprinzip bei PISA-Aufgaben. Man argumentiert, dass Kompetenzen nur in realitätsnahen Anwendungskontexten prüfbar sind. Im Gegenzug wird angenommen, dass Aufgaben mit realem oder zumindest konstruiertem Anwendungsbezug den Erwerb von Kompetenzen fördern können.
Neubrand (2002) schätzt mit der Analyse des Aufgabenkontextes den Grad der erforderlichen Vernetzung einer Mathematikaufgabe ein und unterscheidet zwischen allgemeinem und situativem Kontext. Der allgemeine Kontext kann außer- oder innermathematische Vernetzungen erforderlich machen, während Der situative Kontext vorgibt, welche Art von Zusammenhang in der Aufgabe mit dem Kontext herzustellen ist. Von Interesse für die Entwicklung einer allgemeindidaktischen Aufgabenanalyse ist der situative Kontext. Neubrand unterscheidet zwischen "real world", "scheinbar real world" und "measurement". Wir beziehen uns auf diese Unterscheidung und definieren Lebensweltbezug ebenfalls als Relation zwischen domänenspezifischem Fachwissen und Erfahrungs- und Lebenswelt des Schülers. Damit kommen wir zu vier unterschiedlichen Ausprägungen dieser Relation:
- Aufgaben ohne Lebensweltbezug: In der Aufgabenstellung wird keine Verknüpfung zwischen Fachwissen und Erfahrungswelt der Schülerinnen und Schüler vorgegeben oder gefordert.
- Aufgaben mit konstruiertem Lebensweltbezug: In der Aufgabenstellung wird eine Verknüpfung zwischen Fachwissen und einer stark konstruierten Lebenswelt (entspricht eher nicht den Erfahrungen des Schülers; Analogien zur eigenen Erfahrung kaum erkennbar) vorgegeben oder gefordert. Der Lebensweltbezug wirkt "aufgesetzt", "an den Haaren herbeigezogen" oder hat nur die Aufgabe, den Umgang mit Fachwissen einzukleiden oder zu rechtfertigen. Ein klassisches Beispiel hierfür sind eingekleidete Sachaufgaben in Mathematik.
- Aufgaben mit konstruiertem, aber authentisch wirkendem Lebensweltbezug: Der Lebensweltbezug ist zwar konstruiert, macht im Zusammenhang der Aufgabe aber Sinn und wirkt damit zumindest authentisch. Die Aufgabenstellung reflektiert den Erfahrungshorizont eines typischen Schülers. Beispielsweise werden sinnvolle Anwendungen von Fachwissen im Alltag oder im Berufsleben in die Aufgabe eingebunden.
- Bei Aufgaben mit realem Lebensweltbezug geht die Differenz zwischen Aufgabe und Lebenswelt bzw. Schule und eigener Erfahrungswelt gegen Null. Die Schülerinnen und Schüler beschäftigen sich mit einer Problemstellung, die tatsächlich auch gelöst werden muss (nicht nur fiktive Übung, Hausaufgabe oder Testaufgabe). Typische Beispiele wären die Vorbereitung einer Klassenfahrt, das Führen eines Klassenkontos oder die Vorbereitung von Bewerbungsschreiben.
6. Sprachliche Komplexität
Die Dimension sprachlogische Komplexität trägt dazu bei, den komplexitätssteigernden Effekt der sprachlichen Formulierung einer Aufgabe zumindest ansatzweise zu berücksichtigen (Cohors-Fresenborg, Sjuts & Sommer 2004; Jordan et al. 2006). Die Fragestellung einer Aufgabe und auch die in der Aufgabe zur Verfügung gestellten Informationen bestehen in der Regel aus einem oder verschiedenen Texten. Von Bedeutung ist nun, inwiefern der sprachlogische Aufbau dieser Texte mit dem Inhalt der Aufgabe strukturgleich ist. Im COACTIV-Projekt wurde vor allem der strukturelle Zusammenhang zwischen mathematischer Modellierung und sprachlicher Darstellung der Situation untersucht. Die sprachlogische Komplexität einer Aufgabenstellung wird zum Beispiel erhöht, wenn die für eine mathematische Modellierung relevanten Teilaspekte nicht in der für eine Modellierung günstigen Reihenfolge im Text präsentiert werden. Ebenfalls führen zusätzliche Informationen, komplexe Satzgefüge oder Formulierungen, die durch die Authentizität einer Situation bedingt sind, zu einer Steigerung der sprachlogischen Komplexität einer Aufgabenstellung.
Wir denken, dass diese Dimension hilfreich ist, um auch in anderen Wissensdomänen den Zusammenhang zwischen Sprache und Logik der Aufgabenstellung zu analysieren. Für eine robuste Analyse reduzieren wir allerdings die Kategorienstufen auf drei Stufen statt vier wie bei Jordan et al. (2006):
- Aufgaben mit einfacher sprachlogischer Komplexität: Kein oder kaum Text vorhanden; die Reihenfolge der Sätze entspricht der Aufgabenbearbeitung; es werden einfache Haupt- und Nebensätze verwendet
- Aufgaben mit mittlerer sprachlogischer Komplexität: Die Reihenfolge der Sätze entspricht nicht immer der Aufgabenbearbeitung; es gibt Textpassagen mit irrelevanter Information und komplexeren Satzgefügen
- Aufgaben mit hoher sprachlogischer Komplexität: Die Reihenfolge der Sätze entspricht nicht der Aufgabenbearbeitung; die sprachliche Form der Aufgabe verdeckt zum Teil die inneren, logischen Bezüge der Aufgabe; im Aufgabentext kommen irritierende Formulierungen und komplexe Satzgefüge zur Anwendung, z.B. logische Funktionen, doppelte Verneinungen, wenn-dann Verknüpfungen, Allaussagen.
7. Repräsentationsformen des Wissens
Die Art und Weise wie Wissen mental repräsentiert wird, ist ein zentrales Forschungsfeld der kognitiven Psychologie und geht auf die grundlegende Unterscheidung zwischen enaktiven, ikonischen und symbolischen Wissensrepräsentationen von Jerome Bruner zurück. Die kognitionspsychologische Literatur (z.B. Anderson 1989) unterscheidet mittlerweile zwischen verbaler/propositionaler und bildhafter/konkret-anschaulicher Kodierung. Edelmann (2000) differenziert noch etwas genauer zwischen aussagenartiger, analoger, handlungsmäßiger und multipler Repräsentation.
Diese unterschiedlichen Kodierungen bzw. Repräsentationen von Wissen können auf unterschiedliche Weise zur Lösung von Problemen bzw. Aufgaben beitragen. Vor allem die Transformation von Wissen von einer Repräsentationsform in eine andere (Bruner's intermodaler Transfer) gilt als wichtige Voraussetzung für die Bearbeitung komplexer Problemstellungen und generell als Anreiz für die kognitive Entwicklung. Die Folge dieser Transferleistungen sind multiple Wissensrepräsentationen, die zu einer größeren Behaltensleistung und einer flexibleren Anwendung von Wissen führen. Andererseits wird die Komplexität von Aufgaben enorm gesteigert, wenn Wissen in einer nicht üblichen Form dargestellt wird oder vom Schüler verlangt wird, Wissen in unterschiedlichen Repräsentationsformen entweder zu integrieren oder zu transformieren.
Analog argumentiert Neubrand (2002) bei der Begründung der Analysevariablen "Aufgabenpräsentation". Diese Dimension korrespondiert mit dem in der Mathematikdidaktik diskutierten Prinzip der Variation der Darstellung und dem kognitionspsychologischen Befunden über verschiedene mentale Repräsentationsformen. Wechsel der Repräsentationsformen trägt zu mentaler Beweglichkeit bei. Die Analysekategorien: Kommen Text und/oder Symbole vor? Enthält die Aufgabe Visualisierungen in Form von Bildern, Konstruktionen, etc.? Werden reale Gegenstände mit einbezogen? Evtl. Computerdarstellungen.
Um komplexitätssteigernde Wirkung der Repräsentationsformen des Wissens in einer Aufgabe genauer analysieren zu können, stellen wir zwei Fragen: Zunächst muss analysiert werden, in welcher Form das für die Aufgabenbearbeitung benötigte Wissen in der Aufgabe dem Schüler präsentiert wird? Möglich sind Texte (verschiedene Textsorten sollte man auch als unterschiedliche Repräsentationsformen bezeichnen: lineare, nicht-lineare Texte, Gesetzestexte, Lyrik, Fahrpläne, etc.), symbolische Darstellungen (Zeichen, Zahlen, Abkürzungen, etc.), auditive Informationen (gesprochene Sprache, Musik, Geräusche) und ikonische Darstellungen (Bilder, Grafiken, Zeichnungen, etc.). Darauf hin ist zu fragen in welcher Repräsentationsform das Wissen bearbeitet bzw. die Lösung erstellt werden muss? Die Beantwortung der beiden Fragen führt zu folgenden Kombinationsmöglichkeiten:
- Aufgaben mit einer Repräsentationsform: Aufgabeninformation und die für die Aufgabenlösung erforderlichen Wissenseinheiten basieren auf einer Repräsentationsform. Es sind eventuell noch andere Repräsentationsformen vorhanden, die für die Lösung jedoch irrelevant sind (z.B. Bild zur Illustration; Berechne: 4 * 4 = ...).
- Integration verschiedener Repräsentationsformen: Aufgabe gibt Wissen in verschiedenen Repräsentationsformen (z.B. auch verschiedene Textsorten) vor, die vom Schüler für die Lösung zu integrieren sind. Oder die zu aktivierenden Wissenseinheiten liegen in einer anderen Repräsentationsform vor als die Aufgabeninformationen (z.B. physikalisches Gesetz wurde in sprachlicher oder symbolischer Darstellung enkodiert, gelernt; Aufgabensituation besteht jedoch aus einer grafischen Darstellung einer konkreten Anwendungssituation). Die Aufgabenlösung bewegt sich jedoch innerhalb der vorgegebenen Repräsentationsformen (Schüler muss die Grafik ergänzen und z.B. Kraftpfeile einzeichnen).
- Integration und Transformation des Wissens: Lernende muss für die Aufgabenlösung das vorliegende Wissen in eine Repräsentationsform transformieren, die nicht durch die Aufgabe vorgegeben wird. Beispielsweise wird der Schüler aufgefordert, eine Handlung schriftlich zu dokumentieren (z.B. ein Kochrezept niederschreiben). Oder ein algebraischer Term soll geometrisch dargestellt werden.
Das Kategoriensystem wurde und wird empirisch überprüft. Genauere Hinweise dazu finden Sie unter Projekte und in den bisherigen Veröffentlichungen.
Das Kategoriensystem ist öffentlich zugänglich und kann jederzeit angewandt werden. Wir sehen besondere Möglichkeiten des Einsatzes in folgenden Bereichen:
- mit Studierenden im Rahmen der Lehrerbildung in der ersten Phase
- mit Referendarinnen und Referendaren in der zweiten Phase
- mit Lehrkräfte, Mitgliedern von Schulleitungen und Steuergruppen, Mitgliedern aus der Schulverwaltung sowie mit Multiplikatorinnen und Multiplikatoren im Rahmen von Fortbildungen oder auch individuell und ‚autodidaktisch‘.
Wir sehen in diesem Kategoriensystem insbesondere die Möglichkeit einer fundierten, differenzierten und systematischen Auseinandersetzung mit schulischen Aufgaben, insofern verstehen wir als ein heuristisches Instrument für Lehrkräfte. Das Kategoriensystem gibt keine unmittelbare Antwort auf die Frage, ob damit die Qualität von Aufgaben untersucht werden kann.
Weitere Darstellungen finden Sie unter Publikationen.
Literatur (Auswahl)
Anderson, J. R. (1989). Kognitive Psychologie: eine Einführung (2. Aufl.). Heidelberg: Spektrum.
Anderson, L. W. & Krathwohl, D. R. (Hrsg.) (2001). A Taxonomy for Learning, Teaching and Assessing: A Revision of Bloom's Taxonomy of Educational Objectives. New York: Longman.
Arnold, K.-H. (2008). Bildung durch das Lösen von Aufgaben? Generalisierungsstrukturen der kategorialen Bildung aus der Perspektive der Lehr-Lernforschung. Vortrag auf dem 21. Kongress der DGfE, Kulturen der Bildung in Dresden, AG 18: Weiterentwicklung der Allgemeinen Didaktik (18.03.2008).
Baumert, J. & Lehmann, R. (1997). TIMSS - Mathematisch-naturwissenschaftlicher Unterricht im internationalen Vergleich. Deskriptive Ergebnisse. Opladen: Leske + Buderich.
Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung. (1997). Gutachten zur Vorbereitung des Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Bonn: Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung.
Blömeke, S., Risse, J., Müller, C., Eichler, D. & Schulz, W. (2006): Analyse der Qualität von Aufgaben aus didaktischer und fachlicher Sicht. Ein allgemeines Modell und seine exemplarische Umsetzung im Unterrichtsfach Mathematik. Unterrichtswissenschaft, 34, 330-357.
Blömeke, S. & Müller, C. (2009). Zum Zusammenhang von Allgemeiner Didaktik und Lehr-Lernforschung im Unterrichtsgeschehen. Zeitschrift für Erziehungswissenschaft, 9 (Sonderheft „Perspektiven der Didaktik“ 239-258).
Bloom, B. S., Engelhart, M. D., Furst, E. J., Hill, W.H. & Kratwohl, D. R. (1956). Taxonomy of educational objectives, Handbook 1: Cognitive domain. New York: McKay.
Blum, W. et al. (1999). TIMSS und der BLK-Modellversuch „SINUS“ in Hessen. Wiesbaden: Hessisches Landesinstitut für Pädagogik.
Bohl, T. (2004). Empirische Unterrichtsforschung und Allgemeine Didaktik. Ein prekäres Spannungsverhältnis und Folgerungen aus der PISA-Studie. Die Deutsche Schule, 96(4), 414-425.
Bohl, T. (2009). Offenen Unterricht weiterentwickeln. Mikroprozesse des Lernens berücksichtigen und Gesamtkonzeption optimieren. Pädagogik. 62(4), 6-10.
Bohl, T. & Kucharz, D. (2010). Offener Unterricht heute. Konzeptionelle und didaktische Weiterentwicklung. Weinheim und Basel: Beltz.
Bortz, J. & Döring, N. (2002). Forschungsmethoden und Evaluation. (3. Aufl.). Berlin: Springer.
Bremerich-Vos, Albert (2008). Benjamin S. Bloom (und andere) revisited. In A. Bremerich-Vos, D. Granzer & O. Köller, (Hrsg.), Lernstandsbestimmung im Fach Deutsch. Gute Aufgaben für den Unterricht (S. 29-49). Weinheim: Beltz.
Bromme, R., Seeger, F. & Steinbring, H. (1990). Aufgaben als Anforderungen an Lehrer und Schüler. Köln: Aulis Verlag Deubner & Co.
Brophy, J. & Good, T. L. (1986). Teacher behavior and student achievement. In M.C. Wittrock (Hrsg.), Handbook of research on teaching. (3.Aufl., S.328-375). New York: Macmillan Publishing Company.
Bruder, R. (2003). Konstruieren – Auswählen – Begleiten. Über den Umgang mit Aufgaben. Friedrich Jahresheft, XXI, 12-15.
Büchter, A. & Leuders, T. (2005). Mathematikaufgaben selbst entwickeln. Lernen fördern – Leistung überprüfen. Berlin: Cornelsen.
Clausen, M., Reusser, K. & Klieme, E. (2003). Unterrichtsqualität auf der Basis hoch-inferenter Unterrichtsbeurteilungen. Ein Vergleich zwischen Deutschland und der deutschsprachigen Schweiz. Unterrichtswissenschaft, 31(2), 122-141.
Cohors-Fresenborg, E., Sjuts, J. & Sommer, N. (2004). Komplexität von Denkvorgängen und Formalisierung von Wissen. In M. Neubrand (Hrsg.), Mathematische Kompetenzen von Schülerinnen und Schülern in Deutschland. Vertiefende Analysen im Rahmen von PISA 2000 (S. 109-144). Wiesbaden: VS Verlag für Sozialwissenschaften.
Deutscher Bildungsrat (Hrsg.) (1970). Strukturplan für das Bildungswesen. Stuttgart: Klett Verlag.
Doyle, W. (1992). Curriculum and Pedagogy. In P.W. Jackson (Hrsg.), Handbook of Research on Curriculum (S.486-516). New York: Macmillan Publishing Company.
Dubs, R. (1978). Aspekte des Lehrerverhaltens. Aarau: Sauerländer.
Edelmann, W. (2000). Lernpsychologie. Weinheim: Psychologie-Verlags Union.
Eikenbusch, G. (2005). Eine neue Aufgabenkultur im Deutschunterricht? Deutsch Extra. Das Magazin für den Deutschunterricht. Berlin: Cornelsen Verlag.
Fingerhut, K. (2004). Integrierte Unterrichtseinheiten als Kompetenzmodelle. In M. Kämper- van den Boogaart (Hrsg.), Deutschunterricht nach der PISA-Studie. Frankfurt am Main: Peter Lang.
Gagne, R. (1985). The Conditions of Learning (4Aufl.). New York: Holt, Rinehart & Winston.
Gagne, R., Briggs, L. & Wager, W. (1992). Principles of Instructional Design (4Aufl.). Fort Worth, TX: HBJ College Publishers.
Greefrath, G. (2004). Offene Aufgaben mit Realitätsbezug. Eine Übersicht mit Beispielen und erste Ergebnisse aus Fallstudien. mathematica didactica, 28(2), 16–38.
Harlen, W. & Winter, J. (2004). The development of assessment for learning: Learning from the case of science and mathematics. Language Testing, 21(3), 390-408.
Häußler, P. & Lind G. (1998). Weiterentwicklung der Aufgabenkultur im mathematisch-naturwissenschaftlichen Unterricht. Erläuterungen zu Modul 1 des BLK-Programms "Steigerung der Effizienz des mathematisch-naturwissenschaftlichen Unterrichts". Institut für die Pädagogik der Naturwissenschaften an der Universität Kiel (IPN)
Jatzwauk, P. (2007). Aufgaben im Biologieunterricht - eine Analyse der Merkmale und des didaktisch-methodischen Einsatzes von Aufgaben im Biologieunterricht. Berlin: Logos.
Jordan, A., Krauss, S., Löwen, K., Blum, W., Neubrand, M., Brunner, M. et al. (2008). Aufgaben im COACTIV-Projekt: Zeugnisse des kognitiven Aktivierungspotentials im deutschen Mathematikunterrichts. Journal für Mathematikdidaktik, 29(2), 83-107.
Jordan, A., Ross, N., Krauss, S., Baumert, J., Blum, W., Neubrand, M., Löwen, K., Brunner, M. & Kunter, M. (2006). Klassifikationsschema für Mathematikaufgaben: Dokumentation der Aufgabenkategorisierung im COACTIV-Projekt. Max-Planck-Institut für Bildungsforschung: Berlin.
Klafki, Wolfgang (1958). Didaktische Analyse als Kern der Unterrichtsvorbereitung. Die Deutsche Schule, 50, 450-471.
Kleinknecht, M. (2010). Aufgabenkultur. Baltmannsweiler: Schneider Verlag Hohengehren.
Klieme, E., & Bos, W. (2000). Mathematikleistung und mathematischer Unterricht in Deutschland und Japan: Triangulation qualitativer und quantitativer Analysen am Beispiel der TIMS-Studie. Zeitschrift für Erziehungswissenschaft, 3, 359-379.
Klieme, E., Schümer, G. & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I: „Aufgabenkultur“ und Unterrichtsgestaltung im internationalen Vergleich. In E. Klieme & J. Baumert, (Hrsg.), TIMSS – Impulse für Schule und Unterricht. Forschungsbefunde, Reforminitiativen, Praxisberichte und Video-Dokumente (43–57). Bonn: BMBF.
KMK (2003). Vereinbarung über Bildungsstandards für den Mittleren Schulabschluss (Jahrgangsstufe 10), Beschluss der Kultusministerkonferenz vom 04.12.2003
Knapp, Werner (Hrsg.) (2004): Deutschprofi A 2. Lese- und Sprachbuch für das 6. Schuljahr. München: Oldenbourg
Köster, J. (2004). Aufgabenkultur und Lesekompetenz. Deutschdidaktische Positionen. Frankfurt a.M.: Peter Lang.
Koskenniemi, M. & Komulainen, E. (1983). Lehrmaterial und Unterrichtsprozeß. Unterrichtswissenschaft 10, S. 4-26.
Kron, F. W. (2004). Grundwissen Didaktik (4. Aufl.). München: Ernst Reinhardt Verlag.
Krumm, V. (1985). Anmerkungen zur Rolle der Aufgaben in Didaktik, Unterricht und Unterrichtsforschung. Unterrichtswissenschaft, 13(2), 102-115
Kunter, M., Brunner, M., Baumert, J., Klusmann, U., Krauss, S., Blum, W., Jordan, A. & Neubrand, M. (2005). Der Mathematikunterricht der PISA -Schülerinnen und -Schüler. Schulformunterschiede in der Unterrichtsqualität. Zeitschrift für Erziehungswissenschaft, 8(4), 502-520.
Leuders, T. (2006). Kompetenzorientierte Aufgaben im Unterricht. In W. Blum, C. Drüke-Noe, R. Hartung, & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 81–95). Berlin: Cornelsen.
Lipowsky, F. (2002). Zur Qualität offener Lernsituationen im Spiegel empirischer Forschung - Auf die Mikroebene kommt es an. In U. Drews & W. Wallrabenstein (Hrsg.), Freiarbeit in der Grundschule, Offener Unterricht in Theorie, Forschung und Praxis (S. 126-159). Frankfurt am Main: Grundschulverband.
Lipowsky, F. (2006). Auf den Lehrer kommt es an. Empirische Evidenzen für Zusammenhänge zwischen Lehrerkompetenzen, Lehrerhandeln und dem Lernen der Schüler. Zeitschrift für Pädagogik, 51, 47-70, Beiheft.
Lowyck, J. (1976). Die Analyse des Fragenstellens als Instrument für ein abgestuftes Fertigkeitstraining. Unterrichtswissenschaft 1, 53-73.
Metz, K., Maier, U. & Kleinknecht, M. (2009). Kognitiver Anspruch von Aufgaben im Deutschunterricht. informationen zur deutschdidaktik (ide), 33(3), 74-87.
Mummendey, H. D. (1995). Die Fragebogenmethode. Göttingen: Hogrefe.
Neubrand, J. (2002). Eine Klassifikation mathematischer Aufgaben zur Analyse von Unterrichtssituationen: Selbsttätiges Arbeiten in Schülerarbeitsphasen in den Stunden der TIMSS-Video-Studie. Hildesheim: Verlag Franzbecker.
Rakoczy, K., Klieme, E., Bürgermeister, A. & Harks, B. (2008). The Interplay Between Student Evaluation and Instruction - Grading and Feedback in Mathematics Classrooms. Zeitschrift für Psychologie / Journal of Psychology 216(2), 111–124.
Reusser, K. (2009). Empirisch fundierte Didaktik – didaktisch fundierte Unterrichtsforschung. Eine Perspektive zur Neuorientierung der Allgemeinen Didaktik. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 219-237.
Rütter, T. (1973). Formen der Testaufgabe: Eine Einführung für didaktische Zwecke. München: Beck.
Schabram, K. (2007). Lernaufgaben im Unterricht: Instruktionspsychologische Analysen am Beispiel Physik. Dissertation am Fachbereich Bildungswissenschaften der Universität Duisburg-Essen.
Schnotz, W., Ballstaedt, S.-P. & Mandl, H. (1981). Kognitive Prozesse beim Zusammenfassen von Lehrtexten. In H. Mandl (Hrsg.), Zur Psychologie der Textverarbeitung. Ansätze, Befunde, Probleme (S. 108-167). München: Urban und Schwarzenberg.
Shavelson, R. J. & Webb, N. M. (1991). Generalizability theory: A primer. Newbury Park, CA: Sage.
Sjuts, J. (2006). Unterrichtliche Gestaltung und Nutzung kompetenzorientierter Aufgaben in diagnostischer Hinsicht. In W. Blum, C. Drüke-Noe, R. Hartung & O. Köller (Hrsg.), Bildungsstandards Mathematik: konkret. Sekundarstufe I: Aufgabenbeispiele, Unterrichtsanregungen, Fortbildungsideen (S. 96-112). Berlin: Cornelsen.
Sjuts, J. (2007). Kompetenzdiagnostik im Lernprozess - auf theoriegeleitete Aufgabenstellung und -auswertung kommt es an. mathematica didacta, 30(2), 33-52.
Stein, M. K., Grover, B. W. & Henningsen, M. (1996). Building student capacity for mathematical thinking and reasoning: An analysis of mathematical tasks used in reform classes. American Educational Research Journal, 33, 455-488.
Stigler, J. W. & Hiebert, J. (1997). Understanding and improving classroom mathematics instruction. An overview of the TIMSS video study. Phi-Delta-Kappan, 79, 14-21.
Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science 12, 257-285.
Terhart, E. (2002). Fremde Schwestern. Zum Verhaltnis von Allgemeiner Didaktik und empirischer Lehr-Lern-Forschung. Zeitschrift fur Padagogische Psychologie, 16, 77-86.
Terhart, E. (2009). Allgemeine Didaktik: Traditionen, Neuanfänge, Herausforderungen. Zeitschrift für Erziehungswissenschaft, 10 (Sonderheft 9/2008) S. 13-34.
Tulodziecki, G., Herzig, B. & Blömeke, S. (2004). Gestaltung von Unterricht - Eine Einführung in die Didaktik. Bad Heilbrunn: Klinkhardt.
van Merrienboer, Jeroen J G., Clark, Richard E. & de Croock, Marcel B. M. (2002). Blueprints for complex learning: The 4C/ID-model. Educational Technology, Research and Development, 50(2), 39-64.
Wilson, J.W. (1971). Evaluation of Learning in Secondary School Mathematics. In B.S. Bloom, J.T. Hastings & G.F. Madaus (Hrsg.), Handbook on Formative and Summative Evaluation of Student Learning (S. 643-696). New York: McGraw-Hill, Inc.
Maier, U., Kleinknecht, M., & Metz, K. (2010). Ein fächerübergreifendes Kategoriensystem zur Analyse und Konstruktion von Aufgaben. In H. Kiper, W. Meints, S. Peters, S. Schlump, & S. Schmit (Hrsg.), Schulpädagogik: Lernaufgaben und Lernmaterialien im kompetenzorientierten Unterricht (S. 28–43). Stuttgart: Kohlhammer.
LAGOS
LAGOS (Lernprozesse mit Aufgaben gestalten, optimieren und steuern)
Kooperationen: Dr. Marc Kleinknecht (TU München), Dr. Dirk Richter (IQB Berlin), Dr. Gisela Beste, Anett Pilz, Dr. Illona Siehr, Susanne Wolter (LISUM Berlin-Brandenburg)
Finanzierung: IQB Berlin, LISUM Berlin-Brandenburg
Laufzeit: 2012-2014
Weitere Informationen finden Sie hier.
Entwicklung und Erprobung eines Kategoriensystems für die fächerübergreifende Aufgabenanalyse.
Kooperationen: Prof. Dr. Uwe Maier (Nürnberg-Erlangen), Dr. Marc Kleinknecht (TU München), Prof. Dr. Kerstin Metz (Pädagogische Hochschule Ludwigsburg), Martin Schymala (Nürnberg-Erlangen), Prof. Dr. Thorsten Bohl (Eberhard Karls Universität Tübingen)
Finanzierung: DFG
Laufzeit: 2008-2011
Weitere Informationen finden Sie hier.
Aufgabenkultur in verschiedenen Schularten. Eine vergleichende Analyse von Aufgaben und Lehrerhandeln im Hauptschul-, Realschul- und Gymnasialunterricht
Kooperationen: Prof. Dr. Thorsten Bohl / Dr. Marc Kleinknecht (Eberhard Karls Universität Tübingen)
Finanzierung: DFG; Projekt BO 3312/2-1
Laufzeit: 2009 – 2011
Weitere Informationen finden Sie hier.
Aufgabenkultur in der Hauptschule
Kooperationen: Prof. Dr. Thorsten Bohl, Dipl. Päd. Marc Kleinknecht (Eberhard Karls Universität Tübingen)
Finanzierung: Forschungsverbund Hauptschule Baden-Württemberg
Laufzeit: 2005 – 2009
Weitere Informationen finden Sie hier.
Vorträge
Marc Kleinknecht
Forschungsansätze zur Aufgabenkultur – allgemein- und fachdidaktische Aufgabenanalysen.
Vortrag im Rahmen des Symposiums „Unterrichtsforschung zur Aufgabenkultur im Sportunterricht“, Münster, Mai 2013
Marc Kleinknecht
Allgemeindidaktische Analysekriterien für Aufgaben.
Vortrag im Rahmen des Workshops „Erstellung von Aufgaben für Biologie/Chemie (Oberstufe)“ an der Akademie für Lehrerfortbildung und Personalführung Dillingen, Januar 2013
Marc Kleinknecht
Aufgaben im Unterricht - Von der Aufgabenanalyse zur Unterrichtsentwicklung.
Vortrag im Rahmen des Berufungsverfahrens W2 Pädagogik (Schwerpunkt Grundschulpädagogik) an der Universität Regensburg (Probevorlesung), Dezember 2012
Marc Kleinknecht
Aufgaben und Unterricht verbessern. Chancen und Grenzen einer allgemeindidaktischen Analyse von Lern- und Leistungsaufgaben.
Vortrag am Institut zur Qualitätsentwicklung im Bildungswesen (IQB), Berlin, November 2012
Marc Kleinknecht
Allgemeindidaktische Aufgaben-Analysekriterien.
Impulsvortrag am Landesinstitut für Schule und Medien Berlin-Brandenburg im Rahmen des Projekts „Lernprozesse mit Aufgaben gestalten, optimieren und steuern (LAGOS)“ (in Kooperation mit Dr. Dirk Richter, IQB Berlin), September 2012
Kerstin Metz
Analyse des kognitiven Anspruchs von Aufgaben aus Lehrwerken für den Deutschunterricht Workshop auf dem Symposion Deutschdidaktik (SDD) in Augsburg vom 16.9.-20.9.2012, 19.9.2012
Kerstin Metz
Neue Aufgabenkultur: Analyse des kognitiven Potentials von Aufgaben im Deutschunterricht.
Leitung einer Lehrerfortbildung an der Pädagogischen Hochschule Klagenfurt (Kärnten) zum Einsatz des Kategoriensystems, 6.-8.10.2011
Marc Kleinknecht & Kerstin Metz
Empirische Überprüfung und Einsatz einer überfachlichen Aufgabenanalyse in der Lehrer(fort)bildung
Vortrag auf der Tagung der DGfE-Kommission Schulforschung Didaktik an der Pädagogischen Hochschule Freiburg, 27.09.2011
Uwe Maier & Thorsten Bohl
Weiterentwicklung der Allgemeinen Didaktik am Beispiel eines Kategoriensystems zur überfachlichen Aufgabenanalyse
Vortrag auf der Tagung der DGfE-Kommission Schulforschung Didaktik an der Pädagogischen Hochschule Freiburg, 27.09.2011
Kerstin Metz
Zum Einsatz eines allgemeindidaktischen Kategoriensystems zur Analyse von Aufgaben aus Deutschlehrwerken
Vortrag im Rahmen der Schulbuchtagung „Organisation von Lehr- und Lernprozessen durch das Schulbuch“ an der Justus-Liebig Universität in Gießen vom 23.- 24. Juni 2011
Kerstin Metz
Vorstellung eines allgemeinpädagogischen Kategoriensystem zur Beschreibung von Aufgaben und Konkretisierung an Beispielen aus verschiedenen Fachdisziplinen
Vortrag im Rahmen einer Fortbildungsveranstaltung des staatlichen Seminars für Didaktik und Lehrerbildung Meckenbeuren zum Thema „Mit Aufgaben steuern wir das Lernen (und prägen damit den Unterricht)“; in Reichenau (Bodensee) am 21.9.2010
Marc Kleinknecht
Aufgabenkultur in verschiedenen Schularten
Vortrag im Rahmen der 74. Tagung der Arbeitsgruppe „Empirische Pädagogische Forschung“ (AEPF) an der Univeristät Jena, September 2010.
Kerstin Metz
Kognitiver Anspruch von Aufgaben im Deutschunterricht
Vortrag im Rahmen des Symposion Deutschdidaktik innerhalb der Sektion 8 „ Lernmedien und Lernaufgaben“ an der Universität Bremen vom 5.9.-9.9.2010
Uwe Maier
Lernaufgaben analysieren und konstruieren.
Vortrag auf der Fachtagung Lernaufgaben aus fachdidaktischen Perspektiven – Wie können sie Denken und Lernen unterstützen? an der Universität Oldenburg. 12./13. November 2009.
Marc Kleinknecht
Aufgabenkultur im Unterricht: Eine Video- und Interviewstudie an Hauptschulen.
Vortrag im Rahmen der Tagung „Videobasierte Methoden der Bildungsforschung. Interdiziplinäre Tagung an der Stiftung Universität Hildesheim, Juni 2009
Marc Kleinknecht
Aufgabenkultur im Unterricht: Eine empirisch-didaktische Analyse des Hauptschulunterrichts.
Vortrag im Rahmen der Theorietagung der Kommissionen Schulforschung und Didaktik und Professionsforschung („Bildungsstandards und Kompetenzmodelle“) der Pädagogischen Hochschule Heidelberg, März 2009.
Marc Kleinknecht
Aufgabenkultur im Unterricht: Eine empirisch-didaktische Analyse des Hauptschulunterrichts
Vortrag im Rahmen des Symposiums „Unterrichtsvorbereitung und Aufgabengestaltung als Gegenstand empirischer Forschung“. 5. DGfE-Sektionstagung „Empirische Bildungsforschung“/AEPF-BBB an der Universität Koblenz-Landau, März 2009.
Kerstin Metz
Aufgabenkultur im Deutschunterricht der Hauptschule
Vortrag im Rahmen des Symposion Deutschdidaktik innerhalb der Sektion 5 „Aufgaben und Aufgabenentwicklung“ an der Universität Köln vom 16.9.-19.9.2008.
Marc Kleinknecht
Aufgabenkultur in der Hauptschule.
Vortrag im Rahmen des Symposium „Psychologische, allgemeindidaktische und fachdidaktische Aspekte der Unterrichtsqualität“. 71. Tagung der Arbeitsgruppe „Empirische Pädagogische Forschung“ (AEPF) am IPN in Kiel, August 2008.
Marc Kleinknecht & Thorsten Bohl
Weiterentwicklung der Allgemeinen Didaktik – Impulse aus einer Aufgabenkulturanalyse?
Vortrag im Rahmen des DGFE-Kongresses 2008 ‚Kulturen der Bildung’ an der TU Dresden, 18.03.2008
Marc Kleinknecht & Thorsten Bohl
Aufgabenkultur in der Hauptschule – Ein Beitrag zu einer empirischen Didaktik
Vortrag an der Universität Duisburg-Essen, Campus Essen, im Rahmen der Vortragsreihe ‚Naturwissenschaftlicher Unterricht‘ an der Universität Duisburg-Essen (Prof. Fischer), 24.03.2007
Thorsten Bohl & Marc Kleinknecht
Aufgabenkultur in der Hauptschule – Ein Beitrag zu einer empirischen Didaktik
Vortrag im Rahmen der Tagung ‚Allgemeine Didaktik trifft Lehr-Lernforschung’, Theorietagung der Kommission Schulforschung/Didaktik der Sektion Schulpädagogik der DGfE von 08. – 09.03.2007 an der Universität Hildesheim. Fr. 9.3. Band 4 ‚Professionalisierung von Lehrpersonen’, 09.03.2007
Publikationen
Bohl, T./Kleinknecht, M. (2009): Weiterentwicklung der Allgemeinen Didaktik – Theoretische und empirische Impulse aus einer Aufgabenkulturanalyse. In: Arnold, K.-H./Blömeke, S./Messner, R./Schlömerkemper, J. (Hrsg.): Allgemeine Didaktik und Lehr-Lernforschung. Kontroversen und Entwicklungsperspektiven einer Wissenschaft vom Unterricht. Bad Heilbrunn: Klinkhardt, S. 145-157
Bohl, T./Kleinknecht, M. (2010): Lernumgebung und Aufgabenkultur im Unterricht. In: Bohl, T./Helsper, W./Holtappels, H. G./Schelle, C. (Hrsg.) (2010): Handbuch Schulentwicklung. Bad Heilbrunn: Klinkhardt/UTB, S. 363-366
Bohl, T./Kleinknecht, M./Batzel, A./Richey, P. (2012): Aufgabenkultur in der Schule. Eine vergleichende Analyse von Aufgaben und Lehrerhandeln im Hauptschul-, Realschul- und Gymnasialunterricht. Baltmannsweiler: Schneider
Bohl. T./Kleinknecht, M. (2009): Aufgabenkultur. In: Blömeke, S./Bohl, T./Haag, L./Lang-Wojtasik, G./Sacher, W. (Hrsg.): Handbuch Schule. Bad Heilbrunn: Klinkhardt/UTB, S. 331-334
Kleinknecht, M./Bohl, T. (2010): Aufgabenkultur im Unterricht. Eine empirisch-didaktische Video- und Unterrichtsstudie an Hauptschulen. In: Gehrmann, A./Hericks, U./Lüders, M. (Hrsg.): Bildungsstandards und Kompetenzmodelle. Beiträge zu einer aktuellen Diskussion über Schule, Lehrerbildung und Unterricht. Bad Heilbrunn: Klinkhardt, S. 249-259
Kleinknecht, M./Bohl, T./Maier, U./Metz, K. (2011): Aufgaben und Unterrichtsplanung. In: Arnold, K.-H./Bohl, T./Zierer, K. (Zusammenstellung und Betreuung des Thementeils): Entwicklung und Weiterentwicklung allgemeindidaktischer Modelle der Unterrichtsplanung. Jahrbuch für Allgemeine Didaktik 2011. Baltmannsweiler: Schneider, S. 59-75
Kleinknecht, M./Maier, U./Metz, K./Bohl, T. (2011): Analyse des kognitiven Aufgabenpotentials: Entwicklung und Erprobung eines allgemeindidaktischen Auswertungsmanuals. In: Unterrichtswissenschaft. 39. Jg./Heft 4, S. 328-344
Kleinknecht, M. (2011). Was ist eine gute Aufgabe? Analyse und Weiterentwicklung der unterrichtlichen Aufgabenkultur. In A. Brinkmann & K. Schlegel-Matthies (Hrsg.), Umgang mit Heterogenität in Schule und Unterricht. Paderborn: Schriftenreihe PLAZ-Forum, S. 23-32
Maier, U./Kleinknecht, M./Metz, K./Schymala, M./Bohl, T. (2010): Entwicklung und Erprobung eines Kategoriensystems für die fächerübergreifende Aufgabenanalyse. Schulpädagogische Untersuchungen Nürnberg. Forschungsbericht Nr. 38. Mai 2010. hrsg. von Uwe Maier, Friedrich-Alexander-Universität Erlangen-Nürnberg
Maier, U./ Kleinknecht, M./Metz, K. (2010): Ein fächerübergreifendes Kategoriensystem zur Analyse und Konstruktion von Aufgaben. In: Kiper, H./Meints, W./Peters, S./Schlump, S./Schmit, S. (Hrsg.): Lernaufgaben und Lernmaterialien im kompetenzorientierten Unterricht, Stuttgart: Kohlhammer, S. 28-43
Maier, U./Kleinknecht, M./Metz, K./Bohl, T. (2010): Ein allgemeindidaktisches Kategoriensystem zur Analyse des kognitiven Potenzials von Aufgaben. In: Beiträge zur Lehrerbildung. 28. Jg./Heft 1, S. 84-96
Metz, K./ Maier, U./Kleinknecht, M. (2009): Kognitiver Anspruch von Aufgaben im Deutschunterricht, In: ide. informationen zur deutschdidaktik, Heft 3/2009, S. 74-87
Metz, K./Maier, U./Kleinknecht, M./Bohl, T./Hoppe, H. (2012): Einsatz eines fächerübergreifenden Kategoriensystems zur Analyse von Aufgaben im Fach Deutsch. In: Ballis, A./Peyer, A. (Hrsg.): Lernmedien und Lernaufgaben im Deutschunterricht. Konzeptionen und Analysen. Bad Heilbrunn: Klinkhardt, S. 25-48
Beispiele Aufgabenanalyse
Auf dieser Seite können Sie Aufgabenanalysen zu mehreren Themenbereichen als PDF downloaden.
Mathematik:
- Bruchbegriff
- Prozentrechnung
- Sachaufgabe 1
- Sachaufgabe 2
- Verknüpfte Rechnungen
- Flächeninhalt von Dreiecken
- Nachbarzahlen
- Kombinatorik
- Winkelarten
Deutsch:
- Grammatische Termini
- Satzreihen bilden
- Konjunktionen
- Textproduktion
- Zusammenfassung
- Zeitformen
- Bildergeschichte
- Bewerbungsschreiben