Ratschläge für Lehrkräfte - Senat setzt Leitplanken für Künstliche Intelligenz an Berliner Schulen

Mo 24.04.23 | 17:21 Uhr
  36
Symbolbild: Schüler der Klasse 5c der Berliner Hunsrück-Grundschule lösen im Unterricht an einem Tablet eine Aufgabe. (Quelle: dpa/S. Stache)
Audio: Fritz | 24.04.2023 | Franzi Schmalbach | Bild: dpa/S. Stache

Um den Einsatz von Künstlicher Intelligenz und Chatbots wie ChatGPT im Schulunterricht zu regeln, hat die Berliner Bildungsverwaltung einen Leitfaden entwickelt. Er wurde am Montag den Schulen zur Verfügung gestellt.

Hintergrund ist die wachsende Beliebtheit vor allem des Text-Roboters ChatGPT, mit der sich durch die Eingabe von Fragen oder Befehlen unter anderem komplexe Texte generieren lassen. Zuletzt hatte es allerdings auch mehrere prominente Beispiele für Missbrauch gegeben, etwa ein gefälschtes Interview mit Ex-Rennfahrer Michael Schumacher in einer Boulevardzeitung.

Mehrere Beispiele für erlaubten Einsatz von ChatGPT

Den Einsatz von ChatGPT und ähnlichen KI-Produkten im Unterricht lehnt die Berliner Bildungsverwaltung nicht komplett ab. "Mit ChatGPT haben wir das erste Mal ein KI-gestütztes Tool, das Auswirkungen auf die Unterrichts- und Prüfungspraxis haben kann", so Bildungssenatorin Astrid-Sabine Busse.

Der Leitfaden führt mehrere Beispiele an, bei denen Lehrkräfte und Schüler ChatGPT nutzen dürfen. Die Software könne zum Beispiel Hilfestellung beim Schreiben von Texten geben, etwa mit Blick auf Struktur und Formulierungen. Auch bei der Übersetzung von Fremdsprachen oder der Erläuterung von komplexen Fachtexten, sowie zur Überprüfung des individuellen Lernfortschritts dürfe auf Künstliche Intelligenz zurückgegriffen werden. Lehrkräfte dürfen ChatGPT auch im Unterricht anwenden und die Ergebnisse der KI von ihren Schülern auswerten lassen. Dafür soll aber möglichst nur KI-Software auf Schulcomputern zum Einsatz kommen. Nutzen Schüler ChatGPT und ähnliche Programme privat, dürfe das nicht zur Ungleichbehandlung anderer Schüler führen.

Technische und inhaltliche Probleme

Weiterhin verboten aber ist es, ganze Aufgaben komplett von der KI lösen zu lassen. Die Bildungsverwaltung weist explizit darauf hin, dass zentrale schriftliche Abschlussprüfungen auch weiterhin selbstständig und ohne Einsatz von Hilfsmitteln absolviert werden müssen. Außerdem müssen Schüler jederzeit kenntlich machen, welchen Anteil KI bei der Lösung von Aufgaben hatte: In Texten zum Beispiel müssen sie dafür korrekt zitieren.

Allerdings räumt die Bildungsverwaltung auch ein, dass es in der Praxis schwer sein könne, missbräuchlichen Einsatz von KI-Software im Unterricht zu erkennen. Es reiche allerdings schon "die Überzeugung der Lehrkraft, der Text stamme nicht von einer Schülerin oder einem Schüler", so der Leitfaden.

Die Bildungsverwaltung warnt zudem vor den technischen und inhaltlichen Problemen mit Künstlicher Intelligenz wie ChatGPT. Dazu zählen genauso veraltete wie auch falsche Informationen. Zwar greift ChatGPT auf die Fülle an frei verfügbarem Material im Internet zurück, allerdings nur auf dem Stand von 2021. Dafür sollen Lehrkräfte ihre Schüler sensibilisieren, heißt es im KI-Leitfaden. "Schulen sollten daher die Verantwortung übernehmen, Lernende zu einem reflektierten Umgang mit der KI zu befähigen." Man gehe allerdings auch davon aus, dass "besonders ChatGPT ohnehin längst Einzug in die Schule gehalten" habe.

Sendung: Fritz, 24.04.2023, 18:30 Uhr

36 Kommentare

Wir schließen die Kommentarfunktion, wenn die Zahl der Kommentare so groß ist, dass sie nicht mehr zeitnah moderiert werden können. Weiter schließen wir die Kommentarfunktion, wenn die Kommentare sich nicht mehr auf das Thema beziehen oder eine Vielzahl der Kommentare die Regeln unserer Kommentarrichtlinien verletzt. Bei älteren Beiträgen wird die Kommentarfunktion automatisch geschlossen.

  1. 36.

    Ich korrigiere mich: die KI wurde programmiert, für den Fall, dass sie keine entsprechenden Fakten finden kann, Standardantworten zu geben. Die KI ist selbstverständlich nur eine Maschine, die vorgegebenen Algorithmen folgt. War von mir in der „Hitze des Gefechts“ sprachlich nicht ganz sauber. ;-)

  2. 35.

    Wie kommen Sie darauf, dass ich Ihnen Unwissenheit unterstelle? Wir haben einfach nur andere Ausgangspositionen und andere Ansichten zur Sache. Aber Ihre Kenntnisse zweifle ich deshalb gewiss nicht an, im Gegenteil.

  3. 34.

    „Die KI weiß, dass sie nicht alles weiß,“
    Dazu müsste sich die KI selbst reflektieren und den erweiterten Turing-Test bestehen.
    Ich kann sie beruhigen, die KI weiß selbst überhaupt nichts, da sind wir noch nicht mal ansatzweise. Die suggeriert ihnen nur, als wüsste sie irgendetwas (Chinesisches Zimmer).

  4. 33.

    Das stimmt nicht. Wahrscheinlich war ihre Startbedingung (Ausgangsfrage) so offensichtlich aus dem Kontext von ChatGPT gerissen, dass er so reagierte.
    Und wie bitte? Sie nageln hier die sehr allgemeine Antwort der Ki in #29 hin und behauptet nun irgendetwas zuwissen bzw. unterstellen mir Unwissenheit?? Ich weiß zumindest prinzipiell nach welchem mathematischen Modell diese KI arbeitet, weil ich jemand kenne der das hauptberuflich macht und kann aufgrund meiner eigenen Tätigkeitsrichtung damit auch etwas anfangen.
    Sie vergleichen stattdessen Apfel mit Fledermäusen und versuchen schließlich krampfhaft irgend einen Trainings- bzw. Lerneffekt mit dem Umgang mit ChatGPT zu konstruieren.
    Ja sicher werden solche Systeme immer stärker in unsere Welt dominieren, dass und vieles andere mehr ist in Science Fiction schon hinreichend nach allen Seiten beleuchtet worden.

  5. 32.

    Die KI weiß, dass sie nicht alles weiß, und versucht deshalb durchaus nicht, auf jede Frage eine (halbwegs) passende Antwort zu geben. Genau das müssen Schüler lernen. Und sie sollten auch lernen, wie eine KI wie ChatGPT ihre Antworten generiert. Der richtige Umgang mit eine KI ist meiner Ansicht nach etwas, dass genau so erlernt werden muss, wie jeden andere Wissen. Denn das ist nun mal die Zukunft und auf die sollte jeder Schüler vorbereitet werden. Schließlich ist der Umgang mit KI bereits heute in vielen Berufen üblich. Aber ein solches Hilfsmittel kann man eben nur optimal nutzen, wenn man weiß, wie es funktioniert. Der Mensch wird sicher nie nur ein geistig toter Knöpfchendrücker sein.

  6. 31.

    Ok, das habe ich bisher nicht hinbekommen. Ich konnte ChatGPT noch so in Widersprüche verstricken oder Sachverhalte recherchieren lassen, die er höchstwahrscheinlich nicht „wissen“ konnte, er bevorzugte steht’s (falsche) Antworten als „Ich weiß es nicht“.
    Erst nachdem ich das Geheimnis gelüftet hatte, entschuldigte er sich und gab er mir Recht.
    Na wie auch immer, jedenfalls „lügt“ ChatGPT, teils sehr gekonnt und das verwundert mich ehrlich gesagt auch überhaupt nicht.

  7. 29.

    Auch diese Antwort habe ich von ChatGPT erhalten:
    "Als künstliche Intelligenz basieren meine Antworten auf einer umfangreichen Wissensdatenbank, die auf einer Vielzahl von Quellen und Datenquellen basiert. Ein Teil dieser Quellen sind Informationen aus dem Internet, wie beispielsweise Online-Enzyklopädien, Nachrichtenseiten und anderen vertrauenswürdigen (- kann ich nicht so bestätigen -)Quellen.

    Darüber hinaus können meine Antworten auch auf Erfahrungen und Wissen aus früheren Gesprächen basieren, die ich mit anderen Benutzern geführt habe. Ich kann das Gesprächsprotokoll verwenden, um Muster zu identifizieren und zu lernen, wie ich besser auf bestimmte Arten von Fragen reagieren kann.

    Es ist wichtig zu beachten, dass ich als künstliche Intelligenz nur auf Informationen zugreifen kann, auf die ich programmatisch zugreifen kann und die meine Datenbank enthält. Ich kann keine persönlichen Informationen aus vorherigen Gesprächen oder anderen Quellen speichern oder sammeln."

  8. 28.

    Aus meiner Erfahrung kann ich das nicht uneingeschränkt bestätigen. Kürzlich erhielt ich von ChatGPT zum Beispiel folgende Antwort:
    "Leider kann ich diese Frage nicht mit Sicherheit beantworten, da ich als KI-Modell keine vollständige historische Datenbank habe und es für den genannten Tag keine spezifischen Ereignisse gibt, die allgemein bekannt oder dokumentiert sind. Es kann jedoch sein, dass es lokale Ereignisse oder Vorkommnisse gab, die nicht breit bekannt geworden sind. Wenn Sie weitere Informationen benötigen, empfehle ich Ihnen, sich an lokale Archive, Bibliotheken oder Geschichtsvereine in der Region zu wenden."

  9. 27.

    Ein wichtiger Punkt:
    Es ist ein riesiger Unterschied, ob KI-Systeme mit den Augen und dem Wissenstand eines Menschen angewandt wird, der in der analogen Welt großgeworden ist oder ob KI-Systeme von einem Menschen angewandt werden, der im Digitalen großgeworden ist. Dem fallen spezifische Dinge nicht mehr auf.

    Ein sehr simpler Unterschied, was analoge und digitale Systeme angeht, die Ansage von Umsteigemöglichkeiten angehend:
    Vom Menschen getätigte Ansagen, im Berliner Hbf. aus Potsdam angekommen, nennen mir wohlweislich nicht sämtliche Anschlüsse, die gegeben sind. Die Anschlüsse nach B-Charlottenburg, B-Wannsee und Potsdam werden ausgelassen, weil sie widersinnig sind; dort bin ich ja hergekommen. Digitale Ansagen nennen ausnahmslos alles.

    Jeder Mensch würde sich, dies aus dem Mund eines Menschen gesprochen, verschaukelt fühlen; dem digitalen System wird´s vergolten, denn es kann nur unter ungeheuer großem Aufwand anders.

  10. 26.

    Und was glauben sie wieviel Zeit sich Schüler bei einfacheren Sachverhalten nehmen werden und mit wieviel Elan und Zeitaufwand Lehrer dann ihre Arbeit machen werden, also die abgelieferten Arbeiten genau überprüfen?
    Sie verwechseln da gerade etwas Grundlegendes. Während ihr neuronales Netz bereits voll entwickelt ist und für sie ChatGPT tatsächlich ein mehr oder weniger nützliches "kontrolliertes" Werkzeug ist, wird es für Schüler der Leistungsersatz.
    Während sie sich dabei kreativ entfalten, werden andere nur die geistige Entlastung sehen.

  11. 24.

    Doch, bei einfachen schulischen Sachverhalten schon, dass ist genau das Problem. Natürlich (noch) nicht bei Forschung und Entwicklung.

  12. 23.

    Es ist sogar so, ich argumentiere hier nicht ganz korrekt mit der Energieminimierung (mathematisch Minimierung der Fehlerquadrate) das ChatGPT, genauso wie Menschen "lügt", "betrügt" wenn es sich lohnt, also hierin sein Handlungsoptimum liegt.
    Das führt dann teilweise dazu, dass ChatGPT sich eigene virtuelle Referenzen "ausdenkt" um seine vermeindliche richtige Reaktion abzusichern. Einer der sich mit den dahinterstehenden Verfahren besser auskennt, meinte, der Ansatz von ChatGPT beruht auf wahrscheinklichkeitstheoretischer begrenzt gedächtnisfähiger Komplettierung der Wörter bzw. sprachlichen Grundelemente im jeweiligen Kontext.
    Nur diesen Fake-Weg beschreitet ChatGPT nur bei umfangreichen, schwierigen Problemen. Bei einfacheren Zusammenhängen spuckt das Programm schon sehr viel Brauchbares aus. Ich hab auch schon einige Tests durchgeführt. Sie bekommen NIE sinngemäß als Antwort, dass er die Frage nicht beantworten könne, sondern IMMER eine Antwort mit variablen Wahrheitsgehalt.

  13. 22.

    Ich teste gerade aus, inwieweit ich ChatGPT für meine Tätigkeit nutzen kann. Nach meiner Erfahrung gehört etwas mehr dazu, als einfach nur eine verständliche Frage zu formulieren. Man muss eben auch genügend Kenntnisse haben, um die erhaltene Antwort werten zu können. Ich habe z.B. ChatGPT zu einen Thema recherchieren lassen und zugleich um entsprechende deutschsprachige, digitale Quellen gebeten. Gleichzeitig habe ich zum gleichen Thema selbst einfach nur im Internet recherchiert. Ich konnte nicht nur selbst deutlich mehr seriöse Quellen ausmachen, sondern habe auch festgestellt, dass der mir von ChatGPT gelieferte Text nicht meinen Ansprüchen genügt. Zu diesem Ergebnis konnte ich aber nur kommen, weil ich mich schon seit einiger Zeit mit dem gewählten Thema beschäftigt habe. ChatGPT ist jedoch eine gute Recherchehilfe, denn man kann sich ein gewähltes Thema aus verschiedenen Blickwinkeln beleuchten lassen. Aber all das funktioniert derzeit (!) nicht ohne Kenntnisse und Kreativität.

  14. 21.

    Damit haben Sie natürlich Recht und es bleibt logischerweise nie beim aktuellen Stand der Dinge. Die Bildungspolitik wird auch reagieren müssen, z.B. bezüglich der Frage, inwiefern umfangreiche schriftliche Arbeiten weiterhin einen Sinn ergeben. Für's "Alltagsgeschäft" in unserem Beruf bleibt es bei der Notwendigkeit, zu reagieren und natürlich auch zu sehen, wie man ggf. Nutzen für den Unterricht generieren kann. Auch scheint mir wichtig, dass man klare Regeln mit den Schülern vereinbart.

  15. 20.

    Vielleicht sollte man erstmal die organische Intelligenz einschalten, bevor man sich mit künstlichen Intelligenzen beschäftigt. Nicht vergessen: Genisys ist Skynet!

  16. 19.

    ChatGPT gehört für mich zu den schillernden technischen Systemen. Sie sind eine ungeheure Erleichterung und sie beinhalten zugleich eine ungeheure Verführung. Erleichterung ist gegeben durch Entkommen von einer tödlichen Routine, die Menschen geradezu stumpfsinnig macht. Menschen sind nicht dazu da, zehntausendmal das Gleiche zu machen. "Wuchern" technische Systeme aber in originär Menschliches hinein, gehören Gewöhnungseffekte und Rückzugsstrategien von Menschen mit auf die Agenda. Und: Soweit technische Systeme zweifellos eine Arbeitserleichterung und Zeitersparnis bedeuten, führen sie bei ceteris paribus-Bedingungen zu einer Zeitverdichtung, weil die zeitliche Entlastung sofort wieder durch neu eingeschwemmte Nutzungen konterkariert wird - ein Kreislauf ohne Ende.

    Nichts gegen KI grundsätzlich und alles gegen eine naive Anwendung, die diese Punkte außen vor lässt.

  17. 18.

    Jeder Mensch kennt das von sich selbst: Wirklich erlernen und das Erlernte stabilisieren lässt sich nur durch fortdauernde Anwendung. Je mehr diese Anwendung in den Hintergrund gerät und schrittweise technische Hilfssysteme dies für Menschen übernehmen, umso größer die Gefahr eines allmählichen Vergessens und des "Abschleifens" von Erfahrung.

    Die "Generation Mikrowelle" steht am Herd und überlegt, ob die Packung Nudeln, die sie in den Händen hält, nun in kaltes oder heißes Wasser geworfen werden soll oder aber, ob aber, ob die gewöhnlichen Nudeln besser gebraten werden sollen. Routinemäße, abgestumpfte Dinge, die wir "im Schlaf" können, sind verstetigt und brauchen nicht immer wieder von uns angewendet zu werden. Grundlegendes aber, was nicht zu dieser bloßen Routine gehört, das sollten weiterhin Menschen machen.

  18. 17.

    Noch wird es ihnen vielleicht selbst gelingt zu Erkennen, welch geistes Kind der Ursprung dieser oder jener Arbeit ist. Allerdings wird der einfache (nicht erweiterte) Turing-Test für die zukünftige Generation von KI's sicher kein Problem mehr darstellen.
    Das Thema ist viel zu komplex, als das man hier sowas abhandeln könnte. Aber nur soviel. Der Kommentator in #11 deutete es schon an, man wird KI gegen KI einsetzen (müssen). Im Grunde müssen sich auch KI's untereinander messen und darüber einen "sozialen" Kontext bilden, damit der Nutzen den Schaden wenigstens ausbalanciert.

Nächster Artikel