02 January 2026, 22:34

KI-generierte Fälschungen bedrohen die Integrität der Wissenschaft

Eine Illustration mit Planeten, einer Maschine und Text.

KI-generierte Fälschungen bedrohen die Integrität der Wissenschaft

Ein Team von Materialwissenschaftlern hat Alarm geschlagen angesichts der wachsenden Bedrohung durch KI-generierte Fälschungen in der wissenschaftlichen Forschung. Mit Hilfe von ChatGPT erzeugten sie ein künstliches Bild eines Nanomaterials – scherzhaft 'Nano-Cheetos' getauft –, das Experten kaum von echten Mikroskopieaufnahmen unterscheiden konnten. Die Ergebnisse zeigen eine besorgniserregende Lücke bei der Erkennung gefälschter Daten auf, während KI-Tools immer ausgefeilter werden.

Erstmals aufmerksam wurden die Forscher, als die Doktorandin Nadiia Davydiuk KI-generierte Bilder von Nanomaterialien erstellte, die so überzeugend waren, dass sie ihren Gruppenleiter Quinn Besford schockierten. Später veröffentlichte das Team eine nanowissenschaftliche Studie mit einem KI-erzeugten Bild eines Materials, das an ein aufgeblähtes Mais-Snack erinnerte – ein Beweis dafür, wie leicht gefälschte Darstellungen in die akademische Arbeit einschleusen können.

In einem Test mit 250 Wissenschaftlern konnte kein einziger Teilnehmer zuverlässig zwischen echten Mikroskopieaufnahmen und KI-generierten Bildern unterscheiden. Im Gegensatz zu herkömmlichen Bildbearbeitungsprogrammen wie Photoshop, die nachweisbare Spuren hinterlassen, zeigen KI-erzeugte Bilder keine offensichtlichen Manipulationsmerkmale. Das macht sie mit aktuellen Methoden kaum erkennbar. Einige KI-Detektoren wie Proofig AI und ImageTwin wurden als Lösungsansätze vorgeschlagen. Doch Proofig AI scheiterte in Tests daran, alle KI-generierten Bilder zu identifizieren – unter anderem, weil seine Einstellungen darauf ausgelegt sind, Fehlalarme zu vermeiden. Bisher hat keine Einrichtung diese Tools öffentlich für die routinemäßige Überprüfung wissenschaftlicher Publikationen eingeführt.

Die Forscher argumentieren, dass die akademische 'Publish-or-Perish'-Kultur das Problem verschärft, da sie Wissenschaftler zu fragwürdigen Praktiken drängt – einschließlich komplett gefälschter Arbeiten aus sogenannten 'Paper Mills'. Um gegenzusteuern, empfehlen sie die Veröffentlichung von Rohdaten und eine Lockerung des Drucks nach visuell 'perfekten' Ergebnissen. Replikationsstudien könnten ebenfalls helfen, Fehlverhalten aufzudecken, doch die Finanzierung solcher Arbeiten bleibt eine Hürde.

Die Studie offenbart eine kritische Schwachstelle im wissenschaftlichen Publikationswesen, wo KI-generierte Bilder nun unentdeckt durchrutschen können. Ohne strengere Schutzmaßnahmen – wie verpflichtende Rohdatenteilung oder automatisierte Überprüfungen – könnten gefälschte Darstellungen ungehindert Verbreitung finden. Die Ergebnisse des Teams deuten darauf hin, dass sowohl technologische als auch kulturelle Veränderungen nötig sind, um die Integrität der Forschung zu bewahren.