Überprüfung der Wirksamkeit einer KI-Fortbildung für Dozierende der Lehrpersonenbildung
Resource type
Conference Poster not in Proceedings
Status
Presented
Recommended form of citation (APA)
Schallert-Vallaster, S., Schwabl, G., Pallhuber, P., Miglbauer, M., Aichinger, S., & Buchner, J. (2026, 25.-26. Februar). Überprüfung der Wirksamkeit einer KI-Fortbildung für Dozierende der Lehrpersonenbildung [Konferenzbeitrag]. LELEDIZ-Tagung, Linz, Österreich.
Author(s)
Schwabl, Gerlinde
Pallhuber, Patrick
Miglbauer, Marlene
Aichinger, Susanne
PHSG Organisation name
Project(s)
License Condition
All rights reserved
Proforis OA-status
metadata only (bibliographisch)
Topic PHSG
Digitale und Informatische Bildung
Fields of Science and Technology (OECD)
Education, general (including training, pedagogy, didactics)
Abstract
Pädagogische Hochschulen stehen durch die digitale Transformation vor der Herausforderung ihre Hochschuldozierenden gezielt für den Umgang mit Künstlicher Intelligenz (KI) zu professionalisieren. Im Rahmen einer Kooperation zwischen drei Pädagogischen Hochschulen (Pädagogische Hochschule Tirol, Hochschule für Agrar- und Umweltpädagogik und Pädagogische Hochschule St. Gallen) wurde eine mehrmonatige, praxisorientierte KI-Fortbildung im Blended-Learning-Format entwickelt und durchgeführt. Ziel der Fortbildung ist es, die teilnehmenden Dozierenden sowohl in ihrer AI Literacy (Long & Magerko, 2020) als auch in ihrer AI Readiness zu stärken. Dabei umfasst AI Readiness bezogen auf den Bildungsbereich nach Karaca et al. (2021): das theoretische Wissen zu KI, die Fähigkeit zur praktischen Nutzung von KI, die Vision zum Potenzial von KI in der Bildung und ethische Überlegungen.
Zur Evaluation der Wirksamkeit der Fortbildung wird ein Pre-Posttest-Design eingesetzt. Zwei zentrale Forschungsfragen stehen im Fokus: (1) Inwieweit fördert die Fortbildung die AI Literacy der Teilnehmenden? (2) Wie wirkt sich die Teilnahme an der Fortbildung auf die AI Readiness der Teilnehmenden in Bezug auf Kognition, Fähigkeit, Vision und Ethik aus? Zur Beantwortung dieser Fragen kommen zwei validierte Instrumente zum Einsatz. Zum einen die deutsche AI Readiness-Skala (Ullrich et al., in review) mit 18 Items und zum anderen ein Wissenstest (Hornberger et al., 2025) zur Erfassung der AI Literacy mit 10 Items.
Die Fortbildung erstreckt sich über mehrere Monate und kombinierte synchrone und asynchrone Lernphasen. Da ein besonderes Augenmerk auf der Übertragbarkeit der Inhalte in die berufliche Praxis der Teilnehmenden liegt, beinhaltet die Fortbildung auch Praxisanwendungen. Der Aufbau der Fortbildung, einschließlich des didaktischen Designs, wird in einem separaten Beitrag detailliert vorgestellt. Im vorliegenden Beitrag werden die Ergebnisse der Evaluation des ersten Durchgangs vorgestellt. Dabei werden sowohl Gemeinsamkeiten als auch Unterschiede zwischen den beteiligten Hochschulen herausgearbeitet. Im Sinne des Design Based-Research-Ansatzes werden die Fortbildungsinhalte und das didaktische Design auf Basis der Evaluationsergebnisse weiterentwickelt und in verschiedenen Kontexten eingesetzt. Die Implikationen für die Weiterentwicklung der Fortbildung sowie die Förderungen von AI Literacy und AI Readiness in der Lehrer:innenbildung werden im Rahmen dieses Beitrags diskutiert.
Literaturverzeichnis:
Hornberger, M., Bewersdorff, A., Schiff, D. S., & Nerdel, C. (2025). Development and validation of a short AI literacy test (AILIT-S) for university students. Computers in Human Behavior: Artificial Humans, 5, 100176. https://doi.org/10.1016/j.chbah.2025.100176
Karaca, O., Çalışkan, S. A., & Demir, K. (2021). Medical artificial intelligence readiness scale for medical students (MAIRS-MS) - development, validity and reliability study. BMC Medical Education, 21, 112. https://doi.org/10.1186/s12909-021-02546-6
Long, D., & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1–16). New York, NY, USA: ACM.
Ullrich, A.-L., Schallert-Vallaster, S., Baez, C., Winder, G., Rey, T., Buchner, J. (in review). Measuring AI Readiness in Education: Validation of the German AI Readiness Scale for Educators. Artificial Intelligence in Education.
Zur Evaluation der Wirksamkeit der Fortbildung wird ein Pre-Posttest-Design eingesetzt. Zwei zentrale Forschungsfragen stehen im Fokus: (1) Inwieweit fördert die Fortbildung die AI Literacy der Teilnehmenden? (2) Wie wirkt sich die Teilnahme an der Fortbildung auf die AI Readiness der Teilnehmenden in Bezug auf Kognition, Fähigkeit, Vision und Ethik aus? Zur Beantwortung dieser Fragen kommen zwei validierte Instrumente zum Einsatz. Zum einen die deutsche AI Readiness-Skala (Ullrich et al., in review) mit 18 Items und zum anderen ein Wissenstest (Hornberger et al., 2025) zur Erfassung der AI Literacy mit 10 Items.
Die Fortbildung erstreckt sich über mehrere Monate und kombinierte synchrone und asynchrone Lernphasen. Da ein besonderes Augenmerk auf der Übertragbarkeit der Inhalte in die berufliche Praxis der Teilnehmenden liegt, beinhaltet die Fortbildung auch Praxisanwendungen. Der Aufbau der Fortbildung, einschließlich des didaktischen Designs, wird in einem separaten Beitrag detailliert vorgestellt. Im vorliegenden Beitrag werden die Ergebnisse der Evaluation des ersten Durchgangs vorgestellt. Dabei werden sowohl Gemeinsamkeiten als auch Unterschiede zwischen den beteiligten Hochschulen herausgearbeitet. Im Sinne des Design Based-Research-Ansatzes werden die Fortbildungsinhalte und das didaktische Design auf Basis der Evaluationsergebnisse weiterentwickelt und in verschiedenen Kontexten eingesetzt. Die Implikationen für die Weiterentwicklung der Fortbildung sowie die Förderungen von AI Literacy und AI Readiness in der Lehrer:innenbildung werden im Rahmen dieses Beitrags diskutiert.
Literaturverzeichnis:
Hornberger, M., Bewersdorff, A., Schiff, D. S., & Nerdel, C. (2025). Development and validation of a short AI literacy test (AILIT-S) for university students. Computers in Human Behavior: Artificial Humans, 5, 100176. https://doi.org/10.1016/j.chbah.2025.100176
Karaca, O., Çalışkan, S. A., & Demir, K. (2021). Medical artificial intelligence readiness scale for medical students (MAIRS-MS) - development, validity and reliability study. BMC Medical Education, 21, 112. https://doi.org/10.1186/s12909-021-02546-6
Long, D., & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1–16). New York, NY, USA: ACM.
Ullrich, A.-L., Schallert-Vallaster, S., Baez, C., Winder, G., Rey, T., Buchner, J. (in review). Measuring AI Readiness in Education: Validation of the German AI Readiness Scale for Educators. Artificial Intelligence in Education.
| Name of the event | Conference Host | Place of the event | Start date of the event | End date of the event |
Lehren und Lernen im digitalen Zeitalter: Impulse für die Lehrer:innenbildung (LELEDIZ)-Tagung | Johannes Kepler University Linz | Linz | February 25, 2026 | February 26, 2026 |
PHSG Organisation name
Project(s)
Access Rights
metadata only (bibliographisch)
License Condition
All rights reserved
Rights Holder
Author(s)