• Deloitte musste kürzlich 291.000 US-Dollar an die australische Regierung zurückzahlen, nachdem bekannt wurde, dass das Unternehmen ChatGPT zur Erstellung von Compliance-Berichten mit erfundenen Zitaten und Fällen verwendet hatte. KI ist nicht „falsch“ – sie erfüllt einfach Anfragen. Der Fehler liegt beim Menschen, der aufhört zu denken und seine Intelligenz Maschinen überlässt.
  • Das Problem liegt nicht in der Technologie, sondern darin, wie der Mensch sie nutzt. Ähnlich wie Paulo Freires Konzept der „Banklehre“, bei dem Lernende nur „Fragen einzahlen – Antworten abheben“, haben die Experten von Deloitte Anfragen gestellt und Müll abgehoben, der in einem professionellen Format verpackt war.
  • Heuchelei in der Bildung: Ein Anthropic-Bericht von 2025 zeigt, dass 48,9 % der Professoren die Benotung mithilfe von KI automatisieren, obwohl sie Studenten, die dasselbe tun, schlechte Noten geben. Lehrer verwenden KI zur Erstellung von Stundenplänen, Studenten zum Schreiben von Aufsätzen – aber nur Letzteres wird als Betrug angesehen. Das Ergebnis: Studenten lernen, den Einsatz von KI zu verbergen, nicht, wie man KI verantwortungsbewusst einsetzt.
  • Kognitive Schuld (cognitive debt): Eine MIT-Studie zeigt, dass häufige LLM-Nutzer schwächere neuronale Verbindungen haben, von ihnen verfasste Inhalte vergessen und sich weniger als intellektuelle Eigentümer fühlen. Ihr Gehirn lernt, dass Denken nicht notwendig ist, weil „die KI es bereits erledigt hat“. Nach vier Monaten zeigte diese Gruppe eine verminderte Sprach-, Denk- und Verhaltensleistung.
  • Folgen: Studierende können ihre Entscheidungen nicht erklären, reagieren defensiv, wenn sie nach Gründen gefragt werden, und verlieren die Verbindung zum Lernprozess. Äußerlich ist der Text ausgefeilt, innerlich aber leer.
  • Lösung mit dialogischem Prompting (dialogic prompting): Wenn Schüler KI als „Dialogpartner“ betrachten, ändert sich alles. Sie stellen kritische Fragen, überprüfen sich selbst mit persönlichen Beweisen, diskutieren miteinander und erkennen ihre eigenen Grenzen.
  • Beispiel: Anstatt zu fragen „Analysiere die Symbolik in Der große Gatsby“, fragen Sie „Lassen Sie die KI zuerst analysieren, dann kritisieren und korrigieren Sie diese Analyse. Welche Annahmen trifft die KI? Wo könnte sie falsch liegen? Beziehen Sie dies auf Ihre realen Erfahrungen.“
  • Dieser Prozess dauert länger, schult aber höherrangige Denkfähigkeiten: Fragen stellen, überprüfen, synthetisieren und interpretieren.
  • Die Rolle der Lehrkräfte: Es ist unmöglich, KI-Ethik zu predigen, während man heimlich die Notengebung automatisiert. Transparenz ist erforderlich – zeigen Sie den Schülern, wie Lehrer KI verwenden, Gründe für die Ablehnung von Ausgaben, wie man menschliche Elemente hinzufügt. Ziel ist es nicht, die Technologie zu verbergen, sondern kritisches Denken bei ihrer Verwendung zu demonstrieren.

📌 Deloittes Fehler von 291.000 US-Dollar war kein Zufall, sondern ein Weckruf: Wenn Menschen aufhören zu denken und KI das Denken für sie erledigen lassen, schaffen wir eine Generation von „Datenmüll“-Experten. Kritisches Denken heute zu lehren bedeutet nicht mehr, „gegen KI“ zu sein, sondern Dialog, Überprüfung und Entscheidungsfindung mit KI zu lehren – damit die nächste Generation immer noch weiß, wie man denkt, anstatt nur Befehle einzugeben.

Share.
© 2025 Vietmetric
Exit mobile version