Hallo,
als Lehrender in einem technischen Fach wurde ich immer wieder dazu ermuntert, doch mehr KI in der Lehre einzubringen. Nicht im Sinne einer Hilfe für mich, sondern im Sinne von "in der Industrie wird das Alltag sein, du musst die Studis darauf vorbereiten".
Ich habe einige Dinge probiert, aber am Ende war immer dasselbe Fazit: die Studenten werden davon...dümmer. Sie wissen weniger, sie werden unselbständiger und passiver. Was immer man macht, es endet im Cognitive Offloading, also Arbeitsvermeidung. Die Resultate werden objektiv schlechter.
Ich verwende selbst sehr bewusst seit einigen Jahren intensiv diverse KI-Chatbots in Bezahlversion und lokal, als Hilfe und vor allem um deren Grenzen kennenzulernen. Diese Grenzen werden immer deutlicher - wie es jemand so schön sagte "komisch, dass KI zu jedem Thema perfekte Resultate liefert; außer zu den Themen in denen ich mich selbst gut auskenne". Es gibt m.E. keine geheimnisvollen tiefgehenden "Prompt Engineering"-Skills, die man lernen muss, um brillante Resultate zu bekommen. Generative KI ist für mich in manchen Bereichen eine tolle Hilfe, um stupide oder repetitive Tätigkeiten zu erleichtern, ohne das selbst ausprogrammieren zu müssen. Sie braucht aber immer noch meine Expertise, kritische Beurteilung und Steuerung, damit die Resultate vernünftig sind. Sie multipliziert meine Fähigkeiten wie auch meine Unfähigkeiten. Wie schon viele Werkzeuge zuvor.
Ich habe nun keine Ahnung mehr, wie ich das sinnvoll in die Lehre einbringen soll. Mein Eindruck ist, dass zumindest für die Grundlagen KI bewusst komplett ausgeblendet werden muss, um die Basis-Skills zu erlernen. Das ist natürlich total uncool, altmodisch und retro. Mein Eindruck ist jedoch, dass die Leute, die das trotzdem fordern, entweder a) keine Ahnung haben und dem Hype kritiklos nachlaufen oder b) es ihnen egal ist, was die Studis können.
Hat jemand andere, bessere Erfahrungen? Bin ich total auf dem Holzweg?
Erfahrungen mit "KI in der Lehre"
-
Aguti
- Beiträge: 14043
- Registriert: 16.10.2007, 15:02
- Status: Dr. phil.
- Wohnort: Süddeutschland
- Hat sich bedankt: 37 Mal
- Danksagung erhalten: 25 Mal
Re: Erfahrungen mit "KI in der Lehre"
Ich finde es sehr wichtig, genau das auch in der Lehre zu kommunizieren. Die Grenzen und Gefahren der Nutzung zu besprechen und ein Verständnis dafür zu schaffen. Den Studis erklären, warum es wichtig ist, dass sie Skills selbst lernen, um überhaupt KI-Ergebnisse einordnen und bewerten zu können. Dann kannst du ihnen aus deiner Erfahrung ja auch mitgeben, bei welchen Aufgaben KI wirklich sinnvoll ist.
Du könntest auch einen Austausch eröffnen, wie die Studis KI nutzen, welche Tools wofür etc. und wo sie selbst merken, dass was nicht passt. So eine Art angeleitete Reflektion.
Du könntest auch einen Austausch eröffnen, wie die Studis KI nutzen, welche Tools wofür etc. und wo sie selbst merken, dass was nicht passt. So eine Art angeleitete Reflektion.
-
Wierus
- Beiträge: 1152
- Registriert: 11.05.2009, 20:43
- Status: Dr. phil.
- Hat sich bedankt: 36 Mal
- Danksagung erhalten: 89 Mal
Re: Erfahrungen mit "KI in der Lehre"
Vielleicht kannst du den Umgang der Studenten mit KI in Übungen oder Tutorien auslagern oder hin und wieder auf speziell dafür konzipierte Seminare eingrenzen, damit der Hauptteil deiner Lehre ungestört in klassischer Form erfolgen kann?
Meine Erfahrungen mit KI sind ernüchternd, bisweilen sogar erschütternd. Viel zu oft werden zu ein und der selben Frage von ein und derselben KI völlig verschiedene Angaben gemacht. Ich hätte noch vor wenigen Jahren nicht geglaubt, dass es einmal etwas Unzuverlässigeres als Wikipedia geben wird. Doch selbst die neuesten LLMs nehmen diese Hürde locker.
Nur am Rande: Ich finde, dass insbesondere LLMs aus den Schulen und Universitäten raus müssen. Mehr noch, im Bereich Bildungswesen muss die gesamte "Digitalisierung" meines Erachtens neu überdacht (und vieles davon wieder rückgängig gemacht) werden.
Meine Erfahrungen mit KI sind ernüchternd, bisweilen sogar erschütternd. Viel zu oft werden zu ein und der selben Frage von ein und derselben KI völlig verschiedene Angaben gemacht. Ich hätte noch vor wenigen Jahren nicht geglaubt, dass es einmal etwas Unzuverlässigeres als Wikipedia geben wird. Doch selbst die neuesten LLMs nehmen diese Hürde locker.
Nur am Rande: Ich finde, dass insbesondere LLMs aus den Schulen und Universitäten raus müssen. Mehr noch, im Bereich Bildungswesen muss die gesamte "Digitalisierung" meines Erachtens neu überdacht (und vieles davon wieder rückgängig gemacht) werden.
-
Aguti
- Beiträge: 14043
- Registriert: 16.10.2007, 15:02
- Status: Dr. phil.
- Wohnort: Süddeutschland
- Hat sich bedankt: 37 Mal
- Danksagung erhalten: 25 Mal
Re: Erfahrungen mit "KI in der Lehre"
@Wierus: Gleichzeitig können wir uns in der Lehre nicht der Realität verschließen, dass LLMs selbstverständlicher Teil des Lebens vieler Studis geworden sind. Das kann man nicht ungeschehen machen. Deshalb versuche ich, das kritische Denken zu fördern, gerade im Umgang mit KI-Output und dafür zu sensibilisieren, dass man die Basics selbst beherrschen muss.
-
Wierus
- Beiträge: 1152
- Registriert: 11.05.2009, 20:43
- Status: Dr. phil.
- Hat sich bedankt: 36 Mal
- Danksagung erhalten: 89 Mal
Re: Erfahrungen mit "KI in der Lehre"
@Aguti: Klar. Außerdem gibt es wohl mittlerweile auch Fakultäten, die eine völlige "KI-Abstinenz" für ein No-Go halten. Man selbst muss das eben im Rahmen der gegebenen Möglichkeiten handhaben. Aber nur ein kleines Beispiel: Den Umgang mit dem in den 2000er Jahren virulent gewordenen Handy hat die Universität damals meiner Meinung nach gut hinbekommen: Keine Handys in Seminaren und Vorlesungen! Ich finde, das hat sich damals sehr gut bewährt und sollte nun in sehr ähnlicher Weise auf LLMs angewendet werden.
-
taocp
- Beiträge: 12
- Registriert: 14.08.2022, 19:35
- Status: Abgeschlossen
- Hat sich bedankt: 1 Mal
- Danksagung erhalten: 5 Mal
Re: Erfahrungen mit "KI in der Lehre"
Das Thema treibt mich ebenfalls sehr um. Natürlich kann der Einsatz von KI in didaktischer Hinsicht hilfreich sein und eröffnet Möglichkeiten, die es vorher in dieser Form nicht gab -– etwa 24/7-Unterstützung, tutorähnliche Hilfestellungen, Unterstützung bei der Aufgabenerstellung oder individualisiertes Feedback. Nach meiner Beobachtung wird KI von vielen Studenten bislang jedoch nicht primär in dieser reflektierten Weise eingesetzt.
Mir fehlt außerdem noch ein konkretes Konzept mit belastbaren Beispielen, wie die vielzitierten KI-Kompetenzen und „Future Skills“ systematisch ins Studium integriert werden können. Prompt Engineering ist aus meiner Sicht dabei nicht die eigentliche Kernkompetenz. Entscheidend ist weniger das Formulieren der Anfrage als vielmehr das fachlich fundierte Beurteilen, Korrigieren und Einordnen der Antwort.
Dedizierte Kurse zu Maschinellem Lernen, Deep Learning oder verwandten Themen sind davon natürlich ausgenommen; sie kommen aber nur für bestimmte Studiengänge und Fächer in Frage.
Besonders kritisch sehe ich derzeit drei Punkte:
Mir fehlt außerdem noch ein konkretes Konzept mit belastbaren Beispielen, wie die vielzitierten KI-Kompetenzen und „Future Skills“ systematisch ins Studium integriert werden können. Prompt Engineering ist aus meiner Sicht dabei nicht die eigentliche Kernkompetenz. Entscheidend ist weniger das Formulieren der Anfrage als vielmehr das fachlich fundierte Beurteilen, Korrigieren und Einordnen der Antwort.
Dedizierte Kurse zu Maschinellem Lernen, Deep Learning oder verwandten Themen sind davon natürlich ausgenommen; sie kommen aber nur für bestimmte Studiengänge und Fächer in Frage.
Besonders kritisch sehe ich derzeit drei Punkte:
- Thema Grundlagen: aus meiner Sicht vermitteln wir insbesondere in den ersten Semestern eines Bachelorstudiums Grundlagen, die man sich in einem Studienfach erarbeiten muss. Dafür gibt es keine echte Abkürzung: Zentrales Fachwissen muss aufgebaut, verstanden und verfügbar sein. Gerade um KI-generierte Antworten beurteilen, korrigieren und einordnen zu können, braucht man genau dieses Fachwissen. Einen frühen KI-Einsatz finde ich problematisch, da er den Aufbau dieser Grundlagen eher ersetzt.
- Thema Öffnung von KI-Tools für Prüfungen: hier sehe ich mehrere Probleme. Zum einen haben Studenten unterschiedliche Voraussetzungen beim Zugriff auf leistungsfähige Modelle –- abhängig davon, welche Werkzeuge sie nutzen können oder wollen (kostet ja auch Geld). Schwerer wiegt für mich jedoch die Frage, was wir eigentlich prüfen: Wir wollen nicht beurteilen, wie gut ein KI-System eine Aufgabe lösen kann, sondern welche Kompetenzen die Studierenden selbst erworben haben.
Damit einhergehend stellt sich auch die grundsätzliche Frage, was ein Abschluss zertifiziert. Wenn KI-Werkzeuge in Prüfungen umfassend zugelassen sind, attestieren wir möglicherweise eine Mensch-Maschine-Leistung. Das ist eine andere Aussage als: Diese Person beherrscht das Fach eigenständig. - Thema Verantwortlichkeit: am Ende trägt ein Mensch die Verantwortung für ein entwickeltes Produkt. Gerade in sicherheitskritischen Anwendungen ist das von zentraler Bedeutung. Diese Verantwortung kann nicht an eine KI delegiert werden. Ingenieure müssen daher KI-generierte Ergebnisse verstehen, prüfen und verantworten können.
-
- Vergleichbare Themen
- Antworten
- Zugriffe
- Letzter Beitrag