Hallo @dns,
stimmt, du scheinst in diesem Thread ein wenig ein Selbstgespräch zu führen.

Ich gebe trotzdem mal meinen Senf dazu, mit dem Fokus auf Betrachtungen zu KI.
Zum sinkenden Niveau kann ich so viel sagen, da ich aktuell nicht eng im Hochschulbetrieb arbeite. Aber mein Eindruck ist, dass es da ein komplexes Geflecht aus Faktoren gibt, die alle irgendwie zum sinkenden Niveau beitragen: Oft wird ein Hochschulabschluss für Tätigkeiten erwartet, für die man vernünftigerweise keinen braucht. Das heißt, es kommen Leute an Hochschulen, die dafür wenig geeignet sind. Dazu gehören dann Leute, denen die intrinsische Motivation fehlt, sich mit der intensiven Rezeption und Produktion von Texten zu befassen. LLMs können das mittlerweile auf einem erschütternd guten Niveau.
Vielleicht genügen ChatGPT-Texte noch nicht den Ansprüchen, die man an einen differenziert argumentierenden, konsistenten akademischen Text haben sollte - und nun kommt das große Aber: Wenn man als Lehrender bereits froh ist, überhaupt einen lesbaren Text in gutem Deutsch zu bekommen, dann nimmt man vielleicht auch Arbeiten hin, die in weiten Teilen oder komplett mit ChatGPT verfasst wurden. Denn die Alternativen lauten ja vielfach nicht a) Text in gutem Deutsch, vom Menschen geschrieben oder b) Text in gutem Deutsch, von KI geschrieben. Es kommt auch noch Alternative c) hinzu: sprachlich und damit erst recht inhaltlich kaum noch verständlicher Text, vom Menschen geschrieben.
Bestimmt gibt es Lehrende, die sich dagegen sträuben, und Hochschulen, die KI-Texte ebenso behandeln wie Plagiate. Aber ich frage mich, ob das auf Dauer funktionieren kann.
Die Tendenz könnte in der Tat dahin gehen, Prüfungen künftig weniger textbasiert abzuhalten und auf andere Prüfungsformen zurückzugreifen. Mündliche Prüfungen, Text + Diskussion etc.
Ein Stück weit kann ich Studierende an HAW auch verstehen: Sie sind dort vielfach ja nicht, um wissenschaftliches Arbeiten im Sinne von Textproduktion zu lernen, sondern weil sie ihr Studiengang auf einen konkreten Beruf vorbereitet, in dessen Zentrum völlig andere Aufgaben stehen (die übrigens vielleicht auch künftig viel besser von einer KI erledigt werden können). Da würde ich vielleicht auch zweifeln, warum ich an meiner Fähigkeit gemessen werde, gute Texte zu schreiben.
Was ich hingegen nicht mehr verstehen kann, ist folgendes Verhalten (wahre Anekdote): Ein Kollege von mir macht aktuell seinen DBA (über den man ja auch geteilter Meinung sein kann). Darin befasst er sich in weiten Teilen mit einem Thema, das nicht zu seinem Studium gehörte, für ihn also fachfremd ist. Er erzählte mir nun, dass er sich das "Wissen" dazu über ChatGPT "angeeignet" habe. Auch das methodische Vorgehen, das ihm ebenso fremd war, hat er sich von ChatGPT vermitteln lassen. Leider habe ich es verpasst, ihn zu fragen, ob er denn nach dem ersten ChatGPT-Überblick auch noch in Originalquellen reingeschaut habe. Vielleicht mache ich das noch ...
Das heißt: Er wird sich künftig "Dr." nennen, aber die intrinsische Motivation, sich mit wissenschaftlichen Quellen zu befassen, ist für mich nur in Ansätzen zu erkennen gewesen. Ich hoffe nur, dass zumindest seine Arbeit händisch verfasst wurde.
So, viel Senf, aber vielleicht habe ich zumindest ein paar neue Perspektiven in den Thread gebracht.
Edit: Du hattest ja auch noch nach Strategien gefragt. Eine wäre, wie oben erwähnt, eine Änderung der Prüfungsform. Es gibt aber auch Lehrkräfte, die ChatGPT und den Umgang damit gezielt in ihre Lehrveranstaltungen einbauen. Was die genau dort machen, weiß ich nicht, aber das wäre vielleicht auch ein Ansatz. Wenn man es schon nicht ändern/abschaffen/verhindern kann, dann den Studierenden zumindest zeigen, wie man dieses Werkzeug gebraucht und wann man es bleibenlassen sollte.
Gruß
Cyb