Hector Research Institute of Education Sciences and Psychology

Qualität digitaler Tools

Entwicklung von Bewertungssystemen für pädagogische Qualität und Effektivität von digitalen Tools in der Schule

Unser Ziel

Aktuell entstehen immer mehr digitale Tools und KI-Anwendungen für die Schule, die Lehrkräfte und Schüler:innen nutzen können. Wir entwickeln ein Bewertungssystem für diese Tools, damit es einfacher wird, zu entscheiden, ob sie wissenschaftlich fundiert und qualitativ hochwertig sind und ihr Einsatz im schulischen Bereich sinnvoll ist. 

Die Herausforderung

Seit dem Aufkommen von generativer KI kommen immer mehr Tools auf den Markt, die diese Technologie für Schule und Lernen anbieten. Zugleich existieren zahlreiche weitere Bildungstechnologien, die ebenfalls versprechen, Lernen mit modernsten Mitteln zu fördern. Lehrkräfte, Eltern und Schüler:innen verlieren deshalb leicht den Überblick und haben Schwierigkeiten, die Qualität und Sicherheit dieser Tools einzuschätzen.
 

Unsere Lösung / unser Ansatz

Wir möchten einen wissenschaftlichen Beitrag zur qualitätsgesicherten Auswahl und Nutzung solcher Tools leisten. Das könnte beispielsweise eine „Whitelist“ durch die Akademie für Innovative Bildung und Management (aim) sein, die ein Ampelsystem zur Orientierung für Schulen und Lehrkräfte implementieren möchte.


Hintergrund

Das Projekt gliedert sich in zwei zentrale Bereiche: pädagogische Qualität und Effektivität.

Bereich 1: Pädagogische Qualität

Hier geht es um die Entwicklung eines Systems, mit dem die pädagogisch-psychologische Qualität digitaler Tools (auch KI-Tools) eingeschätzt werden kann. Ziel ist es ein wissenschaftlich fundiertes und didaktisch sinnvolles Bewertungsverfahren zu erarbeiten. Wichtig sind dabei die theoretischen Grundlagen der jeweiligen Tools – also, ob sie auf bewährten Lehr-Lern-Prinzipien beruhen (z. B. kognitive Aktivierung, gutes Feedback, Anpassung an Lernende, Förderung digitaler Souveränität). Auch fachliche Qualität und Übereinstimmung mit dem Curriculum werden berücksichtigt. Das System soll für Lehrkräfte verständlich, praktisch nutzbar und zugleich wissenschaftlich fundiert sein. Deshalb werden Lehrkräfte von Anfang an einbezogen, um die Kategorien in Feedbackschleifen zu testen und weiterzuentwickeln.

Bereich 2: Effektivität

Um die Wirksamkeit von digitalen Tools einzuschätzen, wird auf bestehende Evidenzsysteme (z. B. What Works Clearinghouse, Education Endowment Foundation) zurückgegriffen und diese für den Schulkontext digitaler und KI-Tools angepasst. Dabei gibt es besondere Herausforderungen: Oft gibt es nur wenige Studien, die Tools verändern sich schnell und große Nutzungsdaten fehlen. Deshalb soll das System flexibel sein, z. B. auch kleinere Studien oder Nutzungsdaten von Plattformen berücksichtigen, und die Stärke der Evidenz entsprechend gewichten.

Zeitlicher Ablauf

Oktober '25 – März '26
Entwicklungsphase

Konzeption und Ausarbeitung der Bewertungskategorien;
Test erster digitaler Tools anhand der Kategorien in Kooperation mit Lehrkräften.

April '26 – September '26
Anpassungsphase

Weiterentwicklung und Überarbeitung der Bewertungssysteme durch Userfeedback;
Evaluation weiterer Tools;
Leitfäden zur langfristigen Implementierung der Klassifikationssysteme.


Projektbeteiligte

Ein Projekt des Hector-Instituts für Empirische Bildungsforschung, Universität Tübingen.

Finanziert von

aim – Akademie für Innovative Bildung und Management 
Heilbronn-Franken gemeinnützige GmbH