Mastodon
top of page
  • FullSizeRender
  • Black YouTube Icon
  • Facebook - Black Circle
  • Instagram - Black Circle

Warum Nachrichtennutzer und Studierende wollen, dass Menschen in einer glaubwürdigen Informationsumgebung verantwortlich sind – nicht Maschinen.

  • Autorenbild: Now Age Storytelling team
    Now Age Storytelling team
  • 14. Sept.
  • 2 Min. Lesezeit
ree

Nutzer trauen mehrheitlich künstlicher Intelligenz im Journalismus nicht über den Weg – das zeigen aktuelle Studien eindeutig. Schon der Hinweis darauf, dass KI beim Schreiben geholfen hat, weckt Skepsis.


Der Digital News Report 2025 belegt, dass wir bei KI-Nachrichten mit mehr Fehlern und weniger Transparenz rechnen. Das Vertrauen sinkt um satte 18 Prozentpunkte. Als Hilfswerkzeug im Hintergrund? In Ordnung. Als Autor? Auf keinen Fall.


58 Prozent der Menschen weltweit glauben laut Reuters, dass KI Nachrichten unglaubwürdig macht. In den USA sind es sogar 73 Prozent.


Die Botschaft ist eindeutig: Wir wollen, dass Menschen die Verantwortung für unsere Nachrichten tragen – nicht Maschinen.


Im Bildungswesen herrscht dieselbe Skepsis.


Lehrer und Professoren sehen KI zwar als nützliches Hilfsmittel – aber für einen wirklich produktiven Einsatz müsste sich das ganze System ändern.


Was fehlt?


Unter anderem: zuverlässige Faktenchecks, angepasste Lehrpläne, brauchbare Unterrichtsmaterialien und individuelle Betreuung je nach Lernstand, und gleicher Zugang zur Technologie selbst.


Die Realität sieht ernüchternd aus.


Lehrende klagen über "versteckte Mehrarbeit", weil sie KI-Ergebnisse aufwendig nachbearbeiten, Texte umschreiben und Aufgaben didaktisch neu strukturieren müssen.


Studierende haben Angst, dass KI ihr kritisches Denken schwächt, ethische Integrität und Fairness unterminiert.


ree

Fazit


In journalistischen Medien und im Bildungssystem bleiben menschliche kognitive und ethische Qualitäten zentral.


Journalisten und Nachrichtennutzer, Lehrende und Schüler schätzen menschliche Urteilsfähigkeit insbesondere in komplexen Multikontexten.


Sie haben gute Gründe, die Hoheit über rechts-ethische Verantwortung, empathische Moral, persönliche Ansprache und Quellensicherheit zu behalten, nicht an Maschinen zu delegieren.


Drei Leseempfehlungen


AI and the Future of Education

Der Bericht zeigt, wie KI Schulen und Hochschulen verändert: von personalisiertem Lernen bis zu ethischen Dilemmata. Es macht klar, dass Chancen ungleich verteilt bleiben, da ein Drittel der Welt noch offline ist.

21 Experten setzen sich mit den philosophischen, ethischen und praktischen Dilemmata der KI im Bildungswesen auseinander.


UNESCO: AI and the Future of Education: Disruptions, Dilemmas and Directions. UNESCO, 2025.


Learning, Media and Technology

Hier wird deutlich, warum KI-Lehrtools in der Praxis oft scheitern: Lehrkräfte müssen Inhalte mühsam korrigieren, da generische, fehlerhafte oder unpassende Materialien entstehen. Statt Zeitersparnis wächst die „versteckte Arbeitsbelastung“.


Ebben, M. & Murphy, J. (Hg.): Learning, Media and Technology, Vol. 50(3). Routledge, 2025.


AI + Learning Differences

Der Stanford-Symposiumsbericht benennt neun Schlüsselbereiche, in denen KI Lernende mit Einschränkungen und besonderen Bedürfnissen unterstützen kann: gemeinsame Gestaltung mit Familien, Verbesserung individueller Förderpläne, frühzeitige Bedarfserkennung, Unterstützung sozial-emotionaler Entwicklung, Erweiterung assistiver Technologien, Verbesserung der Lehrerausbildung, Vorbereitung der Schüler auf das Berufsleben, Förderung der Lebenszufriedenheit.


McGee, N. J., Kozleski, E., Lemons, C. J., Hau, I. C.: AI + Learning Differences. Stanford University, 2025.

 
 
 

Kommentare


bottom of page