Zwei Sprechblasen nebeneinander vor schwarzem Hintergrund, in der linken Blase ist ein Mann mit Schauzbart und Taschenrechner in der Hand, in der rechten Blase ist ein jüngerer Mann, beide blicken einander nachdenklich an
|

KI in der Wissenschaft

Seitdem weltweit Menschen auf KI zugreifen können, werden unterschiedlichste Tools rege genutzt – auch von Wissenschaftler:innen. Noch nie war es so ›einfach‹, Texte zu erstellen, wie heute. Das erhöht den ohnehin schon starken Druck auf Wissenschaftler:innen und Studierende, ihren wissenschaftlichen Output zu steigern, etwa in Form von Publikationen.

KI kommt sehr häufig und teils unreflektiert zum Einsatz. In der Wissenschaft stellt das die Community vor besondere Herausforderungen. In einigen Disziplinen scheint nur noch Masse statt Klasse zu zählen. So hat eine Studie gezeigt, dass die Anzahl von potenziellen Fake-Publikationen in der Biomedizin seit 2010 rasant angestiegen ist.

»The scale and proliferation of fake publications in biomedicine can damage trust in science, endanger public health, and impact economic spending and security.« (Quelle: https://www.medrxiv.org/content/10.1101/2023.05.06.23289563v1)

Effizienzsteigerung auf Kosten von Qualität bringt also ernsthafte Probleme mit sich. Die Schnelligkeit, mit der Texte von KI erstellt werden, verführt offensichtlich dazu, menschliche ›Rechenleistungen‹ wie Lesen, Schreiben und Denken vollständig von KI übernehmen zu lassen. Mit einer gesteigerten Veröffentlichungsrate erhöht sich einerseits die Fehlerquote, andererseits verlieren Menschen an Fähigkeiten. So legt eine andere Studie offen,

»dass der Einsatz von KI-Assistenten wie ChatGPT beim Verfassen von Texten zu ›kognitiven Schulden‹ führen kann – einem Zustand, bei dem ausgelagerte Denkarbeit die eigene Lernfähigkeit und kritische Auseinandersetzung beeinträchtigt.« (Quelle: https://the-decoder.de/mit-studie-zeigt-kognitive-schuld-durch-chatgpt-was-das-fuer-die-praxis-bedeutet/)

Der Wissenschaftsbetrieb sollte also zunächst einmal akzeptieren und anerkennen, dass es eine Autorschaft von KI gibt, dass sie ein reales Phänomen ist, mit dessen Folgen umzugehen ist. Im zweiten Schritt sollte dann geprüft werden, inwiefern es erlaubt sein sollte, KI als schreibende Instanz unsichtbar zu machen. Die wenigsten Nutzenden geben den Einsatz von KI bei der Erstellung ihrer Texte an oder weisen KI als schöpfende Kraft aus.

Wir stehen also vor folgendem Dilemma: KI avanciert zunehmend zur schreibenden Instanz. Indem wir KI diese Aufgabe übertragen, verlieren wir selbst die Fähigkeit, das Geschriebene analytisch zu durchdringen. Dadurch steigt der Prozentsatz an potenziellen Falschaussagen in der Wissenschaft.

Werden wir in Zukunft noch in der Lage sein, KI-generierte Texte zu lektorieren und korrigierend einzugreifen?