Echokammer der KI: wie aus Fantasie-Wörtern »wissenschaftliche« Begriffe werden

Sie recherchiert und schreibt für uns, fasst Texte zusammen, interpretiert sie neu: Die KI ist Teil unseres Lebens geworden und sie gestaltet offensichtlich auch die wissenschaftliche Sprachwelt mit – leider nicht immer fehlerfrei. Ein Algorithmus hat offensichtlich das Wort »vegetative Elektronenmikroskopie« frei erfunden, ein Begriff, der inzwischen in verschiedenen veröffentlichten Forschungsarbeiten auftaucht und dadurch keinen …

Mai 4, 2025 - 15:45
 0
Echokammer der KI: wie aus Fantasie-Wörtern »wissenschaftliche« Begriffe werden

Sie recherchiert und schreibt für uns, fasst Texte zusammen, interpretiert sie neu: Die KI ist Teil unseres Lebens geworden und sie gestaltet offensichtlich auch die wissenschaftliche Sprachwelt mit – leider nicht immer fehlerfrei. Ein Algorithmus hat offensichtlich das Wort »vegetative Elektronenmikroskopie« frei erfunden, ein Begriff, der inzwischen in verschiedenen veröffentlichten Forschungsarbeiten auftaucht und dadurch keinen Deut richtiger wird. Da kommt die Frage auf: Wie viele dieser falschen Fakten und Fachbegriffe hat die KI schon unbemerkt in Umlauf gebracht – und worauf steuern wir noch zu?

Vom menschlichen Hirn in die KI und wieder zurück

Falscher Begriff schon in 22 wissenschaftlichen Arbeiten nachweisbar

Die Entstehungsgeschichte der »vegetativen Elektronenmikroskopie« ist geklärt. Die Wurzel liegt in zwei wissenschaftlichen Arbeiten der 50er Jahre, die für die Digitalisierung gescannt wurden. Die KI hat wohl fälschlicherweise das Wort »vegetativ« aus der einen Arbeit mit dem Wort »Elektron aus der anderen Arbeit kombiniert. Und damit war der Nonsens in die Welt gesetzt, bereit, sich durch weitere KI-Nutzung zu verbreiten. Und weil sich offensichtlich über längere Zeit kein menschliches Gehirn aktiv dazwischenschaltete – auch kein wissenschaftlich denkendes – pflanzte sich der Fehler tatsächlich munter fort. Bis jetzt lässt sich der falsche Begriff in 22 Arbeiten, vor allem aus dem Iran, nachweisen. Aber auch Zeitungsartikel mit wissenschaftlichen Themen enthalten ihn.

Nicht erkannte Fehler könnten dauerhaft zu »falschem Wissen« werden

Dummerweise verhindert die Intransparenz in der Datenerhebung kommerzieller KI-Modelle die Fehlerbehebung. OpenAI und andere Entwickler lassen sich nicht in die Karten schauen, was allein schon das Auffinden von Fehlern erschwert bis verunmöglicht. Ist ein Nonsens-Begriff aber erst einmal erkannt, können ihn automatische Screening-Tools identifizieren und davor warnen. Oft handelt es sich bei den betroffenen Texten selbst um KI-generierte Inhalte. Andere, nicht erkannte Fehler, könnten zum dauerhaften Bestandteil unseres Wissenssystems werden und Fakten über lange Zeit verfälschen. Umso mehr das Internet zur Echokammer der KI wird und umso weniger echte Menschen mit Expertise – denkend! – zum System beitragen, desto stärker droht die Invasion »falscher Fakten«.

Quelle: t3n.de