ASPIRE

Künstliche Intelligenz und Selbstregulation im Schulkontext

Eine interdisziplinäre, ko-konstruktive Exploration verantwortungsvoller Innovation in der Bildung

Unser Ziel

Das Projekt untersucht die Wechselwirkungen zwischen Selbstregulation und künstlicher Intelligenz in der Schule, um Lehren und Lernen in einer KI-geprägten Welt zukunftsweisend zu gestalten.

Die Herausforderung

Mit der zunehmenden Entwicklung, Verbreitung und Nutzung von KI im Bildungsbereich und insbesondere der Grundschule und weiterführenden Schule sind zahlreiche Chancen (z.B. personalisiertes Lernen) und Herausforderungen (z.B. Ablenkung durch personalisiertes Anzeigen von Inhalten) verknüpft. 

Damit Lernende und Lehrkräfte KI reflektiert nutzen, benötigen sie AI-Literacy – also Fähigkeiten und Haltungen, KI-Systeme zu verstehen, kritisch zu bewerten und verantwortungsvoll in Lernprozesse zu integrieren. Darin erreichen Studierende beispielsweise meist nur ein grundlegendes Niveau. 

Zahlreiche Fragen zur Wechselbeziehung von Selbstregulation und KI, beziehungsweise zwischen Selbstregulationskompetenz und AI Literacy, sind noch offen. 

Unsere Lösung

Das Projektteam möchte:

  • identifizieren, welche Selbstregulationskompetenzen erforderlich sind, um KI sinnvoll und reflektiert im Lernprozess zu nutzen,
  • Potenziale und Risiken des KI-Einsatzes mit Blick auf selbstreguliertes Lernen identifizieren,
  • bestehende Konzeptualisierungen von AI-Literacy und Selbstregulation erweitern, systematisch zusammenführen und theoretisch integrieren,
  • und Handlungsempfehlungen für Lehrkräfte, Bildungspraxis und Bildungspolitik entwickeln, um Lernende bestmöglich zu unterstützen.

     

Vorgehen

  • Wie (sehr) können uns KI-Algorithmen helfen, das Abschweifen von Gedanken (genannt mind wandering) von Lernenden zu erkennen und sie dadurch gezielt zu unterstützen?
  • Welche Chance haben Kinder und Jugendliche in der Schule, sich von algorithmisierten Umwelten wie sie bspw. bei social media Anwendungen wie TikTok implementiert sind, freizumachen?
  • Wie sehr können Lernende im Zeitalter von KI wirklich bei der Sache bleiben?
  • Welche gesundheitlichen Konsequenzen (bspw. mental health) ergeben sich durch eine zunehmend algorithmisierte Welt und können Kinder und Jugendliche sich hier selbst regulieren?
  • Sind mangelnde Selbstregulationskompetenzen oder mangelndes AI Literacy bei Lernenden verantwortlich für hohe Abbruchquoten in Online-Selbstlernumgebungen?
  • Können wir KI nutzen, um Selbstreguliertes Lernen zu unterstützen (bspw. indem wir Lernstrategien unter Nutzung generativer KI fördern oder AI Teammates in Gruppenphasen einbinden)?
  • Können Lernende in der Grundschule und weiterführenden Schule KI-Systeme kritisch reflektiert für das Lernen nutzen oder wird ihnen blind vertraut und/oder erfolgen sogar negative Nebeneffekte wie eine reduzierte Anstrengungsbereitschaft oder ein Kompetenzverlust durch Überautomatisierung?

Diese und viele weitere offene Fragen adressieren wir in unserem Projekt „Künstliche Intelligenz und Selbstregulation im Schulkontext – Eine interdisziplinäre, ko-konstruktive Exploration verantwortungsvoller Innovation in der Bildung“, welches von der Vodafone Stiftung gefördert wird.

Um ein möglichst vollständiges Bild zu erstellen, verfolgen wir einen stark interdisziplinären Ansatz, der Perspektiven aus der Wissenschaft, Praxis und Bildungspolitik vereint. Kern unseres methodischen Vorgehens ist dabei angelehnt an eine mehrstufige Delphi-Studie (Hsu & Sanford, 2007) mit internationalen Expert:innen, um das Wissen und die Erfahrungen von Wissenschaftler:innen, Lehrkräften, Technologieentwickler:innen und Entscheidungsträger:innen zu bündeln. Flankiert wird die Delphie-Studie durch einen systematischen Literaturüberblick, um bestehende Forschungslücken zu identifizieren und empirische Grundlagen für die Diskussion zu schaffen. Auf dieser Basis entwickeln wir ein Polcy Paper mit praxisnahen Handlungsempfehlungen, das die unterschiedlichen Stakeholder informiert und auf eine KI-geprägte Zukunft vorbereitet.

Weitere Informationen

Literatur

Fütterer, T., Fischer, C., Alekseeva, A., Chen, X., Tate, T., Warschauer, M., & Gerjets, P. (2023). ChatGPT in education: Global reactions to AI innovations. Scientific Reports, 13(1), Article 1. https://doi.org/10.1038/s41598-023-42227-6 

Hornberger, M., Bewersdorff, A., Schiff, D. S., & Nerdel, C. (2025). Development and validation of a short AI literacy test (AILIT-S) for university students. Computers in Human Behavior: Artificial Humans, 5, 100176. https://doi.org/10.1016/j.chbah.2025.100176 

Hsu, C.-C., & Sandford, B. A. (2007). The Delphi Technique: Making Sense of Consensus. https://doi.org/10.7275/PDZ9-TH90 

Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E., Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., … Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, 102274. https://doi.org/10.1016/j.lindif.2023.102274 

Nationale Akademie der Wissenschaften Leopoldina (2024): Förderung der Selbstregulationskompetenzen von Kindern und Jugendlichen in Kindertageseinrichtungen und Schulen (Schriftenreihe zur wissenschaftsbasierten Politikberatung: Stellungnahme). https://doi.org/10.26164/leopoldina_03_01157 

OECD (2025). Empowering learners for the age of AI: An AI literacy framework for primary and secondary education (Review draft). OECD. Paris. https://ailiteracyframework.org 

Scheiter, K., Bauer, E., Yoana Omarchevska, Schumacher, C., & Sailer, M. (2025). Künstliche Intelligenz in der Schule—Eine Handreichung zum Stand in Wissenschaft und Praxis. Unpublished. https://doi.org/10.13140/RG.2.2.34511.19363 


Projektbeteiligte

Förderung

Vodafone Stiftung