KI-Sprachmodelle wie auf Drogen
Es ist mehr als sinnvoll, KI-Antworten zu hinterfragen. Dabei bieten Tools wie Gemini von Google direkt an, dass die KI eine eigene Antwort überprüft und… Dieser Artikel KI-Sprachmodelle wie auf Drogen erschien zuerst auf SmartDroid.de.


Es ist mehr als sinnvoll, KI-Antworten zu hinterfragen. Dabei bieten Tools wie Gemini von Google direkt an, dass die KI eine eigene Antwort überprüft und gegebenenfalls mit passenden Quellen untermauert. Denn laut Experten kommt es bei den neusten KI-Sprachmodellen immer häufiger zu Halluzinationen, die Anbieter sehen das auch selbst.
Die Quoten sind teilweise erschreckend, wie OpenAI selbst mitteilt: GPT-4o macht Fehler bei etwa einem Drittel der Fragen zu öffentlichen Personen (mehr als doppelt so häufig wie Vorgänger o1), und GPT-4o-mini erreicht bei allgemeinen Wissensfragen Fehlerraten von bis zu etwa 80 Prozent. Das Problem: Selbst sensible Berufsgruppen greifen zu oft auf KI zurück.
Ein besonders krasses Beispiel, wie ich finde: Reuters schreibt, dass Anwälte bei einem Fall in den USA schlussendlich zugeben mussten, dass sie sich vor Gericht auf andere Fälle bezogen haben, die von der KI komplett erfunden gewesen sind. Viele versuchen sich das Leben mit KI einfacher zu machen, das kann jedoch nach hinten losgehen.
OpenAI hat erst kürzlich ein Update zurückgezogen, weil das aktualisierte Sprachmodell nicht nur halluzinierte, sondern zu nett und unterwürfig geworden ist. Das wiederum führt dazu, dass absurde Ideen der Nutzer von der KI möglicherweise unterstützt werden, etwa gesundheitliche Dinge, die Bestätigung von Verschwörungstheorien und einiges mehr.
KI wird teilweise missverstanden und daher falsch benutzt. Sie ist noch keine allgemeine Lösung, die immer hilft und funktioniert, dessen müssen sich die Nutzer bewusst sein.
Dieser Artikel KI-Sprachmodelle wie auf Drogen erschien zuerst auf SmartDroid.de.