# KI Leitlinie Dieser Text: * Subjektive Sicht von J.Busse, ohne Anspruch auf Allgemeingültigkeit * 2025-05-15: Text im Entstehen, Prototyp, zur Dikussion mit Kollegen und Studierenden. Kontext: Nachdem KI -- insbesondere ChatGPT und andere LLM in Chat-Form, aber auch andere komplexere Systeme -- inzwischen eine gewisse Reife erreicht und Verbreitung erfahren haben, empfehle und unterstütze ich Studierenden, für ihr Lernen und wissenschaftliches Arbeiten solche Systeme einzusetzen. Denn auch die Arbeitgeber unserer Absolventen erwarten von uns Dozenten, dass wir den Studierenden in einen verantwortungsvollen Umgang mit solchen Systemen einführen. KI ist ein mächtiges Tool, das entsprechend verantwortlich und mit Bedacht eingesetzt werden muss. Die spannende Frage lautet natürlich: *Wie sieht ein verantwortungsvoller Umgang konkret aus?* Darum ringen nicht nur Studierende, sondern auch wir Dozenten. Spoiler: In Forschung, Lehre und Wissenschaft gehen wir im Spannungsfeld von uneingeschränktem KI-Einsatz ohne Kennzeichnungspflicht und einem Komplettverbot von KI weiterhin von der *guten wissenschaftlichen Praxis* aus. Im Kontakt mit Studierenden heißt das für mich als Hochschullehrer: *Sowohl im persönlichen Kontakt wie auch im Publikationswesen muss stets klar erkennbar sein, welche Artefakte von einem Menschen und welche von einer KI erzeugt wurde.* * Wenn ich glaube, dass ich mich mit einem Menschen austausche, dann gehe ich davon aus, dass tatsächlich dieser Mensch spricht (oder schreibt) -- aber nicht ein Bote, Freund, Advokat, Avatar, Chatbot etc. Wir nennen das *Identität*. * Weitergehend gehe ich davon aus, dass mein Gegenüber das spricht (oder schreibt), was er selbst denkt, und nicht nur von sich gibt, was andere gedacht haben: das ist *Authentizität*. Wenn mein Gegenüber Ideen aus anderen Quellen (Mensch, auch KI) wörtlich oder in eigenen Worten paraphrasierend widergibt -- etwa um sie zu kommentieren, ihnen zuzustimmen, sie kritisch zu sehen -- dann erwarte ich, dass er diese Ideen und ihre Quelle klar kennzeichnet: * Für Werke allgemein gibt man die *Autorschaft*, juristisch gesehen die *Urheberschaft* eines Werkes an. * In der Wissenschaft legen wir besonderen Wert darauf, die Urheberschaft von Ideen stets glasklar hervorzuheben: Man nennt das *gute wissenschaftliche Praxis*, eine einschlägige Arbeitstechnik dazu lautet *zitieren*. * Im Datenmanagement sprechen wir von [Data-Lineage](https://de.wikipedia.org/wiki/Data-Lineage) oder [Data Provenance](https://www.w3.org/TR/prov-o/), in der Sprachwissenschaft von [Evidentialität](https://de.wikipedia.org/wiki/Evidentialit%C3%A4t). ## Kennzeichnung von KI-generierten Texten KI-Leitlinie Hochschule Bayern, 2025-05-08 * Backlink: https://fidl.education/projekte-programme/ki-leitlinie/ * Download Text: https://fidl.education/wp-content/uploads/2025/05/KI-Leitlinie_Hochschule-Bayern-08052025.pdf Grundsatz aus "Ethische Pflichten" (S.9ff): > Es obliegt den Studierenden, die Nutzung von KI im Rahmen von mündlichen, schriftlichen und sonstigen studiumsrelevanten Arbeiten kenntlich zu machen und somit für Transparenz zu sorgen. Die bloße Forderung, KI-generierte Passagen schriftlicher Arbeiten analog zu wissenschaftlichen Zitaten zu kennzeichnen, greift zu kurz. Transparenz ist vielmehr dahingehend zu gewährleisten, dass der Einsatz von KI im Rahmen der Erstellung anderer als schriftlicher Arbeiten, wie beispielsweise Code-Erstellung, Referaten, künstlerischen oder medialen Werken, Prozessoptimierung im Rahmen von Teamarbeit, offengelegt wird. (S.12) Zitate S.26ff, Überschrift *Kennzeichnung von KI-Inhalten im Dokument*: Grundsatz: > Zur Kenntlichmachung KI-generierter Inhalte und zur Dokumentation der Vorgehensweise – sei es, um methodische Kompetenz zu belegen oder der Transparenzpflicht zu nicht-selbstständigen Ergebnissen nachzukommen – sollten die entsprechenden Inhalte (Textabschnitte, Bilder, Programmiercode etc.) gekennzeichnet werden. Aber: > Es sei nochmal betont, dass die Kennzeichnung KI-generierter ortografischer oder grammatikalischer Korrekturen, Übersetzungen sowie nicht-sinnverändernder Verbesserungen von Formulierungen nicht sinnvoll und auch nicht praktikabel ist. Leitende Idee: > Die Kenntlichmachung und Dokumentation sollen den Prozess der KI-Nutzung nachvollziehbar machen, ohne übermäßig detailliert jede Interaktion aufzulisten. Der Fokus liegt auf dem sinnvollen Einsatz von KI als Werkzeug für spezifisch wissenschaftliche Aufgabenstellungen und den mit KI erzeugten relevanten Ergebnissen. Textorganisation: > KI-Werkzeuge und die damit erzeugten Inhalte sind keine Literaturquellen, daher sollte die Verwendung nicht als Zitat und auch nicht im Literaturverzeichnis, sondern in einem eigenständigen Anhang, z. B. „Verwendung von KI-Werkzeugen“, angegeben werden. >```{caution} >Hier drückt sich die KI-Leitlinie missversändlich aus. In der Tat stellt KI-generierter Text keine *wissenschaftliche* Literatur dar. In der Tat ist es üblich, Quellen wie Blogs, stackoverflow etc. nicht als zitierfähige Literatur anzuerkennen und nicht im Literaturverzeichnis, sondern ggf. in einem separaten Anhang aufzuführen. > > Dennoch unterliegt Text, der solchen Quellen entnommen ist, den wissenschaftlichen Zitierregeln. Alleine die Tatsche, dass von ChatGPT generierte Expressionen keinen Autor haben (siehe COPE: Authorship and AI, ) und keinen Urheberrechtsschutz genießen ändert nichts an der Tatsche, dass wir uns im wissenschaftlichen Umfeld mit wissenschaftlichen Regeln bewegen und Textübernahmen gekennzeichnet werden müssen. Das ergibt sich schon aus den entsprechenden Kennzeichnungs-Empfehlungen, die von der KI-Leitlinie selbst explizit genannt werden: >``` > In Form und Notation kann sich die Verwendungsangabe an Literaturangaben anlehnen, dazu verschiedene Beispiele: > * https://style.mla.org/citing-generative-ai/ (Stand vom 08.04.2025) > * https://www.uni-bremen.de/fileadmin/user_upload/sites/qm/Leitfaden_KI_De_Eng___1_.pdf (Stand vom 08.04.2025) > * https://llm-literacy.de/ (Stand vom 08.04.2025) > * https://www.youtube.com/watch?v=ixw_2_u9eD0 (Stand vom 08.04.2025) > * https://www.apa.org/pubs/journals/resources/publishing-policies?tab=3 (08.04.2025) ## Karaoke-Präsentation Eine **Präsentation** besteht in wissenschaftlichen Kontexten gemeinhin aus einem mündlichem Vortrag sowie begleitenden Medien wie Text oder Bilder, die an die Wand projeziert oder auch den Teilnehmern als Handout ausgeteilt werden. In verschiedenen Veranstaltungen im SS 2025 habe ich mehrfach erlebt, dass solche präsentations-begleitenden Medien im wesentlichen durch eine generative KI wie z.B. ChatGPT erzeugt waren. Gelegentlich wurden sie leicht posteditiert, waren aber im wesentlichen -- insbesondere auch strukturell -- durch eine generative KI erzeugt. FAQ: Ist das erlaubt? A: * Falls von vornhein klar und deutlich explizit deutlich gemacht wurde, dass die Medien durch eine generative KI erzeugt wurden, achte ich nicht mehr auf die Medien, sondern nur noch auf den mündlichen Beitrag. So etwas kann sinnvoll sein und allen Beteiligten Spaß machen, wir haben dann eine Art [Science-Slam](https://de.wikipedia.org/wiki/Science-Slam) vor uns -- in Zeiten von ChatGPT eine zunehmend denkbare (mündliche) Prüfungsform! Aber wichtig: Auch hier ist eine **aussagekräftige Dokumentation** relevant, vor allem auch der Prompt. * Falls ich auch nur teilweise den subjektiven Eindruck gewonnen habe, dass die Medien im Wesentlichen selbst formuliert wurden; aber sich dieser Eindruck als irrig erweist: **Dann liegt eine Täuschung vor** in Form einer nicht ausreichenden (bis hin zu beabsichtigt irreführender) Kennzeichnung erlaubter, aber kennzeichnungspflichtiger Hilfsmittel. (Für Haarspalter: Im Sinne der KI-Leitlinie ist das kein Plagiat; denn eine KI kann nicht als Urheber eines Werkes gelten). Insgesamt gilt: * Wenn jemand mit mir in Kontakt tritt, und dabei auch Text oder Bild nutzt: Dann muss ich klar und deutlich erkennen können, ob Text oder Bild **selbst, in eigenen Worten formuliert ist**. * Wenn ich merke, dass ich irrtümlich Zeit und Ressourcen in das Lesen oder Feedback von Text investiere, der von einem LLM stammt, fühle ich mich getäuscht. Zusammengefasst: Täuschen Sie mich nicht -- und auch nicht sich selbst -- wenn Sie generative KI verwenden.