Das "Halluzinieren“ von KI ist zutiefst menschlich
Künstliche Intelligenz halluziniert. Und wir so? Reden doch auch einfach so drauf los. Ohne Faktencheck, und ziemlich oft mit ziemlich viel Fantasie. Wir Menschen sind schon ziemlich faszinierende Wesen. Kaum fragt uns jemand etwas, das wir nicht wissen, passiert eines von zwei Dingen: Entweder murmeln wir verlegen ein „Puh, keine Ahnung …“ oder – und das ist die Königsdisziplin – wir erfinden einfach was. Elegant, plausibel, manchmal totaler Quatsch, aber immer mit einer gewissen Überzeugung.
„KI halluziniert“, sagen wir dann vorwurfsvoll und empört, wenn ChatGPT oder CoPilot uns mal wieder Unsinn ausspucken. Aber seien wir ehrlich: Wer hat nicht schon mal in einer Diskussion einfach ein vermeintliches „Faktum“ aus der Luft gegriffen, um nicht ganz dumm dazustehen?
Dass KI halluziniert ist doch eigentlich die menschlichste Eigenschaft überhaupt …
Die Kunst des menschlichen Halluzinierens
Es gibt da dieses soziale Phänomen: Man will nicht unwissend wirken. Also füllt man die Wissenslücke mit irgendwas. So entstehen Aussagen wie:
„Ja klar, die Pyramiden wurden mit Hilfe von Alien-Technologie gebaut, stand neulich irgendwo!“
„Also ich hab gehört, dass Spinat doch gar nicht so viel Eisen enthält, weil da mal ein Komma verrutscht ist!“
„Napoleon war super klein. Ja, unter 1,50m oder so!“
(Das Internet so: Nein, nein und nein.)
Aber egal. Denn wir machen das nicht absichtlich. Unser Gehirn ist ein assoziatives, pattern-matching-Wunderwerk. Es setzt Bruchstücke zu einer kohärenten Geschichte zusammen – ob sie stimmt oder nicht. Ein bisschen wie ein Autokorrektur-Textgenerator auf Speed.
KI als Spiegel unseres eigenen Gequassels
Jetzt setzen wir uns hin und spotten über KI, die angeblich „halluziniert“. Aber was macht sie? Sie tut exakt das, was wir auch tun: Sie vervollständigt, extrapoliert, füllt Lücken mit Wahrscheinlichkeiten.
Fragt man eine KI: „Wie hieß der Hund von Albert Einstein?“ – dann kann es passieren, dass sie antwortet: „Sein Hund hieß Lumpy.“
Lumpy! Total erfunden. Aber auf eine charmante Weise logisch. Denn Einstein hatte viele Tiere. Und „Lumpy“ klingt absolut nach einem Namen, den ein exzentrischer Wissenschaftler seinem Hund geben könnte.
Ist das ein Fehler? Oder ist es einfach eine Art automatisierte Plausibilitätsbehauptung? Das menschliche Gehirn macht nichts anderes: Es sucht nach Mustern, ergänzt Lücken, und manchmal (oft) liegt es dabei daneben.
Warum wir KI für Fehler kritisieren, die wir selbst ständig machen
Hier ein Experiment: Stell dir vor, du bist auf einer Party und ein smarter Typ erzählt: „Wusstest du, dass es in Schottland eine offizielle Einhorn-Population gibt?“
Vielleicht denkst du im ersten Moment: Moment mal … klingt komisch, aber hey, Schottland ist mystisch genug. Könnte sein?
Und dann hörst du dich selbst sagen: „Ja klar! Die wurden doch im 19. Jahrhundert dort angesiedelt … oder so.“
Ups. Und da haben wir es wieder: Eine kleine, unbewusste Halluzination. Kein böswilliger Fake, sondern eine soziale Funktion. Wir ergänzen, vervollständigen, weil unser Gehirn lieber eine schlüssige Geschichte hat als eine Lücke.
Wenn eine KI das tut, nennen wir es „halluzinieren“ und ärgern uns. Wenn ein Mensch es tut, nennen wir es „gut improvisiert“.
Was wir von KI lernen können: Ein bisschen mehr Demut
Vielleicht ist die eigentliche Erkenntnis nicht, dass KI halluziniert, sondern dass wir es selbst ständig tun. Nur, dass wir unsere Halluzinationen als „Meinungen“, „Vermutungen“ oder „gefährliches Halbwissen“ tarnen.
Also, wenn das nächste Mal jemand sagt: „Diese KI kann man nicht ernst nehmen, die erzählt manchmal Blödsinn!“, dann können wir ruhig zurückfragen:
„Ja und? Machst du doch auch.“
Denn am Ende ist KI eben nur eins: ein Spiegel unseres eigenen Denkens. Und ehrlich gesagt – manchmal ist es doch auch ganz schön lustig, oder?
Über die Autorin:
Henriette Frädrich ist Keynote-Speakerin, Moderatorin und Storytelling-Profi. Mit Energie, Humor und Tiefgang nimmt sie ihre Zuhörer:innen mit auf eine Reise durch Themen, die bewegen: von Veränderung und Resilienz über Motivation, Innovation und künstliche Intelligenz bis hin zu Kommunikation und Leadership.
Ihre Mission? Komplexes einfach machen, Köpfe öffnen und Herzen berühren. Ob auf großen Bühnen oder in interaktiven Workshops – sie kombiniert fundiertes Wissen mit emotionalem Storytelling und schafft so nachhaltige Aha-Momente. Ihre Vorträge sind mitreißende Erlebnisse, die inspirieren und Mut machen, den nächsten Schritt zu gehen.
Mehr zum Thema “Künstliche Intelligenz”
SEO und SEA waren gestern. Willkommen in der Welt von KIO und KIA. Was bleibt, wenn niemand mehr googelt – und was kommt, wenn Maschinen für uns suchen? Wenn Künstliche Intelligenz für uns sucht und entscheidet, braucht es neue Strategien, um sichtbar zu bleiben. Sichtbar ist nicht mehr, wer am lautesten brüllt oder am häufigsten klickt. Sondern, wer im System der KI als relevant, vertrauenswürdig und hilfreich gilt. KIO und KIA sind die neuen Disziplinen des digitalen Marketings. Wer sie meistert, wird nicht mehr gesucht. Sondern gefunden.
Wie werden wir gefunden, wenn niemand mehr sucht? Die Art, wie wir nach Informationen suchen, steht vor einer Revolution – und Google zittert. Was passiert mit der Suchmaschine, wenn KI und Chatbots übernehmen? Und welche Kettenreaktionen löst das aus? Ein Blick auf die Zukunft von Informationssuche, Geschäftsmodellen und digitaler Sichtbarkeit.
„Die nächste Generation von Managern wird ein Team aus Menschen und KI-Agenten leiten.“ Diesen Satz sagte Siemens-Chef Roland Busch auf der Hannover Messe 2025. Ich hab ihn mir sofort notiert. Nicht, weil er ein nettes Zitat ist – sondern weil er eine tektonische Verschiebung beschreibt. Eine, die weit über Technologie hinausgeht. Eine, die unsere Vorstellung von Arbeit, Führung und Zusammenarbeit fundamental verändert. “New Work” war gestern - Hallo, “Symbiotic Work”!
Granny AI ist eine der neuesten Waffen gegen Internetbetrug – und sie hat Stil. Statt eines langweiligen automatisierten Warnsystems kommt eine herzliche, etwas schrullige Großmutterstimme zum Einsatz, die nichtsahnende Scammer in endlose, absurde Gespräche verwickelt. Und zack, der Scammer steckt in einer Endlosschleife aus freundlichem Geplauder und absurden Anekdoten.
„KI halluziniert“, sagen wir vorwurfsvoll, wenn ChatGPT oder CoPilot uns mal wieder Unsinn ausspucken. Aber seien wir ehrlich: Wer hat nicht schon mal in einer Diskussion einfach ein vermeintliches „Faktum“ aus der Luft gegriffen, um nicht ganz dumm dazustehen? Wieviele ausgedachte Geschichten erzählen wir Menschen eigentlich ständig?
Seit dem Frühjahr 2025 gibt’s frische Spielregeln im digitalen Sandkasten Europa: Der „European Union Artificial Intelligence Act“ (kurz: EU AI Act) ist in Kraft getreten. Die neue Verordnung zwingt Unternehmen, ihre Mitarbeitenden gezielt zu schulen. Einfach so drauflos-KI-en geht nicht mehr. Klingt vernünftig – aber was bedeutet das konkret?
Künstliche Intelligenz ist kein Zauberwerk. Auch wenn es sich manchmal so anfühlt, als wären KI-Modelle wie ChatGPT oder Midjourney aus dem Nichts über Nacht aufgetaucht, steckt hinter der Entwicklung von KI-Systemen eine hochkomplexe Infrastruktur. Vier zentrale Ressourcen sind dabei entscheidend: Chips, Energie, Daten und Talent.
Stellen wir uns vor, wir stehen vor einem leuchtenden Portal, einem „Stargate“, das nicht nur durch Zeit und Raum führt, sondern auch in eine technologische Zukunft, die wir kaum begreifen können. Donald Trump, der für viele das Gesicht des Populismus und der Polarisierung ist, öffnet dieses Tor mit (angeblichen) Milliardeninvestitionen in KI-Technologien. Doch was verbirgt sich hinter diesem Projekt?
KI-Avatare sind Science-Fiction-Mythos pur. Nur dass sie inzwischen Wirklichkeit sind. Sie können Schulungen leiten, Produkte präsentieren oder Kolleg:innen einarbeiten – und das, ohne jemals müde, gereizt, genervt und unfreundlich zu werden. Der Mehrwert? Zeitersparnis, Effizienz und der Charme der Innovation. Die Einsatzmöglichkeiten sind nahezu grenzenlos, und genau das macht es so faszinierend. Und ja, auch sehr spooky und beängstigend.
Anfang Januar hat Mark Zuckerberg eine Entscheidung verkündet, die das Internet in seinen Grundfesten erschüttern und zerstören könnte: Meta beendet die Zusammenarbeit mit Faktenprüfer:innen. Es ist der ausgestreckte Mittelfinger Richtung globaler unternehmerischer und gesamtgesellschaftlicher Verantwortung.
Wenn wir die Mensch-KI-Beziehung als eine Art wohlgesinnte und “gute” Partnerschaft betrachten möchten, braucht es bestimmte Elemente, um diese Beziehung aufzubauen und zu pflegen. Wir müssen u.a. darauf vertrauen können, dass KI unsere Absichten “versteht” und im Einklang mit unseren Werten handelt. Also müssen wir als Menschen dafür sorgen, dass unsere Absichten und Werte „gut“ sind.
Vielleicht ist genau das dringend notwendig Menschliche an KI: "ChatGPT can make mistakes. Consider checking important information.“ Und vielleicht ist genau das, was wir uns Menschen und damit auch allen AI-Tools unbedingt bewahren müssen: Die Möglichkeit, Fehler machen zu dürfen. Und vielleicht ist es gut und wichtig, dass AI Fehler macht. Und immer machen wird.
Noch nie waren Menschen und das Menschliche so wichtig wie im Zeitalter der Algorithmen und all dem ganzen Digitalisierungs- und Technikgedöns. Was mich an dem Buch beeindruckt hat: Wie reflektiert und smart Hannah Fry die Chose mit den Algorithmen betrachtet, darstellt und analysiert. Sie malt keine Zukunftsutopien aber auch keine Zukunftsdystopien an die Wand - wie so viele andere der digitalen Möchtegern-Elite - aber auch ihre Gegner - es gerade ständig tun.