Fake You! Wie KI-Deepfakes unsere Realität zersetzen
Täuschend echt – und zutiefst gefährlich: Deepfakes sind mehr als ein digitaler Scherz. Sie gefährden Vertrauen, zerstören Reputationen und verwandeln Realität in ein manipulierbares Produkt. Was passiert, wenn wir unseren eigenen Augen nicht mehr trauen können?
Die Gefahr von Deepfakes und die zunehmende Auflösung der Grenze zwischen Wahrheit und Täuschung.
Stellen Sie sich vor, jemand schickt Ihnen ein Video. Darin zu sehen: Sie selbst. Wie Sie fröhlich für ein Produkt werben, das Sie nie benutzt haben. Ihre Stimme. Ihr Gesicht. Ihre Mimik. Alles sieht echt aus. Nur: Sie haben dieses Video nie aufgenommen. Willkommen in der neuen Realität. Oder besser gesagt: in einer gefälschten.
Wir leben im Zeitalter der Bilder. Und bislang galt: Ein Video lügt nicht. Wer etwas mit eigenen Augen sieht, glaubt es. Doch diese Grundlage zerbröckelt. Deepfakes – also mithilfe künstlicher Intelligenz manipulierte Medieninhalte – machen es möglich, Menschen Dinge sagen und tun zu lassen, die sie nie gesagt oder getan haben. Die Technologie dahinter war früher Hightech. Heute ist sie eine App. Für alle. Realität ist manipulierbar geworden – und zwar nicht irgendwann, sondern jetzt.
Die Demokratisierung der Täuschung
Was früher nur mit großer Rechenpower und Know-how ging, kann heute jeder Teenager mit einem Smartphone erzeugen: ein Video, in dem zwei Menschen sich küssen, obwohl sie sich nie begegnet sind. Ein Clip, in dem Politiker:innen scheinbar Ungeheuerliches sagen. Oder eine Fake-Werbung, in der Influencer:innen scheinbar für ein Produkt werben. Alles per Knopfdruck. Apps wie Creati AI, Reface, HeyGen oder ElevenLabs machen’s möglich. Von Voice-Cloning bis Face-Swapping – alles per App oder KI-Bot. Die Folge: Realität wird zur Option. Wahrheit zur Verhandlungsmasse.
Vertrauen als Währung – und als Opfer
Besonders betroffen: Menschen, die auf Vertrauen angewiesen sind. Influencer:innen, Journalist:innen, Politiker:innen, Wissenschaftler:innen. Wer sich eine Community aufgebaut hat, verliert durch ein einziges gefälschtes Video seine Glaubwürdigkeit. Und mit ihr: Reichweite. Relevanz. Umsatz. Eine Forrester-Studie warnt vor tiefgreifenden Auswirkungen auf Markenwahrnehmung und Unternehmenserfolg. Vertrauen ist heute Währung – und Deepfakes können es binnen Sekunden entwerten. Deepfakes zerstören diesen „Vertrauensvorschuss“ mit einem einzigen Clip. Die ökonomischen Folgen: Umsatzverluste, Reputationsschäden, Haftungsfragen. Und gesellschaftlich? Da wird der gute alte Satz „Ich glaube nur, was ich sehe“ zum Witz.
Fake News reloaded
Deepfakes sind keine Tech-Spielerei. Sie sind das Update der Desinformation. Deepfakes sind nicht nur lustige TikTok-Spielereien – sie sind Waffe und Werkzeug. Fake News bekommen Gesichter, Stimmen, Gefühle. Und damit eine ganz neue Durchschlagskraft. Wer soll noch unterscheiden, was wahr ist – wenn selbst das Offensichtliche inszeniert sein kann? Politische Manipulation, Wirtschaftskriminalität, Rufmord – das wird damit in ganz neue Dimensionen katapultiert. Ideen? Reichlich: Fake-Reden von Politiker:innen. CEOs, die angeblich Insolvenzen ankündigen. Und da hab ich mein diabolisches Gehirn noch nicht mal angeschmissen. Wir wissen alle, zu welchen Greuel- und Schandtaten wir Menschen fähig sind. Da sind meine Ideen harmlos. Aber mit Absicht. Ich will auch gar nicht weiter denken - denn mir läuft es jetzt schon kalt den Rücken herunter.
Wir stehen vor einem Paradigmenwechsel. Die Frage ist nicht mehr nur: Ist das wahr? Sondern: Könnte es auch falsch sein? Die ständige Möglichkeit der Manipulation erzeugt Misstrauen. Und Misstrauen ist ein Gift für jede demokratische und anständige Gesellschaft.
Deepfakes wirken oft (noch) harmlos, beinahe witzig. K-Pop-Star Jeon Somi etwa sah sich im Juni mit Vorwürfen konfrontiert, ihr Musikvideo enthalte Deepfake-Szenen. Ein PR-Stunt? Vielleicht. Ein Vertrauensverlust? Ganz sicher. Aber in dem Fall ist es eben Kunst. Und Kunst darf doch eigentlich per se und sowieso alles. Und welche Musikvideos sind bitte schön echt? Sie waren es nie. Immer inszeniert.
In Australien wurden zwei Sportreporterinnen Ziel von KI-generierten Bikini-Videos – Fake-Pornos, die real wirken, aber allein der Demütigung dienen. In Indien kursierte ein manipuliertes Video von Premierminister Modi – mit angeblich brisanten Aussagen. Und in Deutschland? Hier geht es bislang meist um gefälschte Politikerstatements auf Telegram, getunte Promi-Stories, Influencer:innen, die Produkte anpreisen, die sie nie verkauft haben oder Aussagen treffen, die sie nie getätigt haben. Oder manipulierte Bewerbungsvideos. Noch.
Was all diese Fälle eint: Sie sind erst der Anfang. Und wirken auf den ersten Blick harmlos. Man lacht, man staunt, man scrollt weiter. Doch genau diese Harmlosigkeit macht sie so gefährlich. Denn sie vernebeln unsere Wahrnehmung. Und untergraben das, worauf wir als Gesellschaft angewiesen sind: Vertrauen.
Dabei, könnte man sagen, war doch sowieso schon immer alles Fake. Oder?
Schon in den 80ern und 90ern haben Photoshop und Bildmanipulation Realitäten verzerrt. Werbung hat uns seit jeher suggeriert, wie wir aussehen, leben, riechen sollen. Romane sind erfundene Welten, Social Media sowieso. Selbst im Journalismus ist das Vertrauen erschüttert – durch Skandale, Fakes, Narrative. Und mal ehrlich: Wie oft lügen wir selbst am Tag? Kleine Schummeleien, Ausreden, Filter – gehört das nicht längst zur Normalität?
Vielleicht ist die Wahrheit nicht verschwunden. Vielleicht war sie nie da.
Was ist Wahrheit überhaupt in einer Welt, in der wir unsere Identität täglich neu inszenieren – in Posts, in Gesprächen, in Mails? Wenn alles Erlebte sofort dokumentiert, bearbeitet und kommentiert wird – was ist dann noch echt? Aber genau hier liegt das Problem: Wenn alles Fiktion ist, gewinnt der, der am lautesten lügt. Wenn niemand mehr sagen kann, was stimmt – dann hat die Manipulation gewonnen.
Deepfakes führen uns also nicht nur technologisch, sondern philosophisch an den Abgrund: Was bleibt von der Realität, wenn sie sich in Clips, Codes und Algorithmen auflöst?
Deepfake-Pornos: Digitale Gewalt auf neuem Level
Besonders perfide: Deepfakes als Waffe gegen Frauen. Revenge Porn, Non-Consensual AI Porn – besonders betroffen: Frauen. In den letzten Jahren explodierte die Zahl an KI-generierten Pornovideos, in denen Gesichter realer Frauen – oft ohne deren Wissen – auf fremde Körper montiert werden. Der Effekt ist verheerend. Jobverlust. Traumatisierung. Rufmord. Und eine entsetzliche Ohnmacht: Wie beweist man, dass man nicht in einem Video ist, das aussieht wie man selbst?
Diese Form der digitalen Gewalt trifft vor allem Frauen. Und sie trifft sie unvorbereitet. Der Rechtsstaat? Hinkt hinterher. Die Plattformen? Oft träge oder desinteressiert. Der Schutz? Minimal. Die Scham? Maximal. Eine bittere Beweislastumkehr: Wer betroffen ist, muss sich rechtfertigen. Während die Täter in Deckung bleiben.
Plattformen: Zwischen Verantwortung und Profit
Es ist alles so wie immer: Profit vor Schutz. Plattformen wie Meta verdienen mit Deepfake-Werbung mit. Allein Creati AI schaltete mehr als 27.000 Anzeigen auf Facebook und Instagram. Und obwohl der Digital Services Act klare Regeln zur Entfernung illegaler Inhalte vorsieht, bleibt die Umsetzung mangelhaft. Anzeigen werden automatisiert freigegeben, Beschwerden dauern Tage. Wer denkt, KI wäre das Problem – irrt. Die eigentliche Frage lautet: Wer kontrolliert die, die KI kontrollieren?
Neue Aufgaben für eine neue Realität
Wir brauchen mehr als technische Lösungen. Wir brauchen Bewusstsein. Medienkompetenz. Digitale Mündigkeit. Schulen, Unternehmen, Medienhäuser, Gesetzgeber – alle sind gefragt. Es braucht:
klare Kennzeichnungspflichten für KI-generierte Inhalte
schnelle Melde- und Löschsysteme auf Plattformen
strafrechtliche Konsequenzen für Deepfake-Missbrauch
Bildungsoffensiven in Sachen Medienkritik und Aufklärung: Digitale Aufklärung als Pflichtfach!
Unternehmen brauchen neue Strategien für Marken- und Reputationsschutz.
Und wir als Einzelne? Medienkompetenz ist Selbstschutz.
Und vor allem: einen gesellschaftlichen Konsens, dass Wahrheit schützenswert ist. Dass Aufklärung wichtiger ist als Klicks. Und dass Empathie stärker ist als Scham.
Was bleibt, wenn nichts mehr echt ist?
Deepfakes zeigen uns eine unbequeme Wahrheit: Unsere Realität ist verletzlich. Und unser Vertrauen ein fragiles Gut. Doch vielleicht liegt genau hier die Chance. In einer Welt voller Möglichkeiten zur Täuschung wird das Echte wieder kostbar. Echtheit. Aufrichtigkeit. Transparenz. Vielleicht ist genau das die Zukunft: eine neue Kultur des Zweifelns, aber auch des Bewusstseins.
Denn am Ende können wir nur das verteidigen, was wir als wertvoll erkennen. Und Wahrheit war nie so wertvoll wie heute. Vertrauen wird zur wichtigsten Ressource der Zukunft. Die große Aufgabe: Wahrheit wieder sichtbar machen – und verteidigen.
Themen: Deepfakes, KI, Vertrauen, DigitaleEthik, Medienkompetenz, Künstliche Intelligenz, Fake News, Digitalisierung, Deepfake, KI, Identitätsdiebstahl, digitale Täuschung, Vertrauen, künstliche Intelligenz, Fake News, Deepfake Illustration, glitch art, Realität manipuliert, Medienkompetenz
Über die Autorin:
Henriette Frädrich ist Keynote-Speakerin, Moderatorin, Creative Mind, Entdeckerin, Ausprobiererin, Herausfinderin und Storytelling-Profi. Ihr Background: Gründerin, Unternehmerin, Journalistin und Autorin. Mit Energie, Humor und Tiefgang nimmt sie ihre Zuhörer:innen mit auf eine Reise durch Themen, die bewegen: von Veränderung und Resilienz über Motivation, Innovation und künstliche Intelligenz bis hin zu Kommunikation und Leadership.
Ihre Mission? Komplexes einfach machen, Köpfe öffnen und Herzen berühren. Ob auf großen Bühnen oder in interaktiven Workshops – sie kombiniert fundiertes Wissen mit emotionalem Storytelling und schafft so nachhaltige Aha-Momente. Ihre Vorträge sind mitreißende Erlebnisse, die inspirieren und Mut machen, den nächsten Schritt zu gehen.
Mehr zu den Themen “Künstliche Intelligenz” und “Werte”
Täuschend echt – und zutiefst gefährlich: Deepfakes sind mehr als ein digitaler Scherz. Sie gefährden Vertrauen, zerstören Reputationen und verwandeln Realität in ein manipulierbares Produkt. Was passiert, wenn wir unseren Augen nicht mehr trauen können? Deepfakes zersetzen Wahrheit, Identität – und unser Vertrauen. Und was bleibt, wenn nichts mehr echt ist?
Wir sind mitten in einer Zeitenwende – technologisch, gesellschaftlich, psychologisch. Doch kaum jemand hat gelernt, sich in dieser neuen Welt souverän zu bewegen. Wir wurden da einfach irgendwie ins kalte Wasser geschmissen. „Tech Literacy“ und „Prompt Literacy“ sind daher mehr als Buzzwords. Sie sind die neuen Schlüsselkompetenzen – für Führungskräfte, für Teams, für uns alle. Ein Weckruf für mehr Mündigkeit im Maschinenzeitalter.
Wahlen kippen nach rechts, Angst frisst Hirn, Messerattacken werden zur Schlagzeilenroutine, während sich ganze Gesellschaften in Kommentarspalten zerfleischen. Und dazwischen? Depressionen. Erschöpfung. Sinnkrisen im Abo. Was ist los mit uns? Sind wir im Grunde gut - oder im Grunde einfach nur bescheuert? Über Menschenbild, Weltlage, toxische Entwicklungen und die Frage: Wie retten wir unsere Menschlichkeit inmitten von Wahnsinn, Wut und Weltüberforderung?
SEO und SEA waren gestern. Willkommen in der Welt von KIO und KIA. Was bleibt, wenn niemand mehr googelt – und was kommt, wenn Maschinen für uns suchen? Wenn Künstliche Intelligenz für uns sucht und entscheidet, braucht es neue Strategien, um sichtbar zu bleiben. Sichtbar ist nicht mehr, wer am lautesten brüllt oder am häufigsten klickt. Sondern, wer im System der KI als relevant, vertrauenswürdig und hilfreich gilt. KIO und KIA sind die neuen Disziplinen des digitalen Marketings. Wer sie meistert, wird nicht mehr gesucht. Sondern gefunden.
Bekenntnisse einer Unsichtbaren mit Wirkung: Ich habe einfach keine Lust, keinen Bock, keine Zeit, keine Energie auf und für LinkedIn. Und ja, manchmal fühle ich mich damit so, als müsste ich mich dafür erklären und rechtfertigen wie jemand, der auf einer Party keinen Alkohol trinken will. Kein LinkedIn, keine Personal Brand-Show – und trotzdem sichtbar? Ja, das geht. Warum ich als Selbstständige eben nicht auf LinkedIn rumturne, wie ich ohne Algorithmus Kund:innen gewinne – und was wir alle vom digitalen “Unsichtbarsein” lernen können.
Wie werden wir gefunden, wenn niemand mehr sucht? Die Art, wie wir nach Informationen suchen, steht vor einer Revolution – und Google zittert. Was passiert mit der Suchmaschine, wenn KI und Chatbots übernehmen? Und welche Kettenreaktionen löst das aus? Ein Blick auf die Zukunft von Informationssuche, Geschäftsmodellen und digitaler Sichtbarkeit.
„Die nächste Generation von Managern wird ein Team aus Menschen und KI-Agenten leiten.“ Diesen Satz sagte Siemens-Chef Roland Busch auf der Hannover Messe 2025. Ich hab ihn mir sofort notiert. Nicht, weil er ein nettes Zitat ist – sondern weil er eine tektonische Verschiebung beschreibt. Eine, die weit über Technologie hinausgeht. Eine, die unsere Vorstellung von Arbeit, Führung und Zusammenarbeit fundamental verändert. “New Work” war gestern - Hallo, “Symbiotic Work”!
Granny AI ist eine der neuesten Waffen gegen Internetbetrug – und sie hat Stil. Statt eines langweiligen automatisierten Warnsystems kommt eine herzliche, etwas schrullige Großmutterstimme zum Einsatz, die nichtsahnende Scammer in endlose, absurde Gespräche verwickelt. Und zack, der Scammer steckt in einer Endlosschleife aus freundlichem Geplauder und absurden Anekdoten.
„KI halluziniert“, sagen wir vorwurfsvoll, wenn ChatGPT oder CoPilot uns mal wieder Unsinn ausspucken. Aber seien wir ehrlich: Wer hat nicht schon mal in einer Diskussion einfach ein vermeintliches „Faktum“ aus der Luft gegriffen, um nicht ganz dumm dazustehen? Wieviele ausgedachte Geschichten erzählen wir Menschen eigentlich ständig?
Seit dem Frühjahr 2025 gibt’s frische Spielregeln im digitalen Sandkasten Europa: Der „European Union Artificial Intelligence Act“ (kurz: EU AI Act) ist in Kraft getreten. Die neue Verordnung zwingt Unternehmen, ihre Mitarbeitenden gezielt zu schulen. Einfach so drauflos-KI-en geht nicht mehr. Klingt vernünftig – aber was bedeutet das konkret?
Künstliche Intelligenz ist kein Zauberwerk. Auch wenn es sich manchmal so anfühlt, als wären KI-Modelle wie ChatGPT oder Midjourney aus dem Nichts über Nacht aufgetaucht, steckt hinter der Entwicklung von KI-Systemen eine hochkomplexe Infrastruktur. Vier zentrale Ressourcen sind dabei entscheidend: Chips, Energie, Daten und Talent.
Stellen wir uns vor, wir stehen vor einem leuchtenden Portal, einem „Stargate“, das nicht nur durch Zeit und Raum führt, sondern auch in eine technologische Zukunft, die wir kaum begreifen können. Donald Trump, der für viele das Gesicht des Populismus und der Polarisierung ist, öffnet dieses Tor mit (angeblichen) Milliardeninvestitionen in KI-Technologien. Doch was verbirgt sich hinter diesem Projekt?
KI-Avatare sind Science-Fiction-Mythos pur. Nur dass sie inzwischen Wirklichkeit sind. Sie können Schulungen leiten, Produkte präsentieren oder Kolleg:innen einarbeiten – und das, ohne jemals müde, gereizt, genervt und unfreundlich zu werden. Der Mehrwert? Zeitersparnis, Effizienz und der Charme der Innovation. Die Einsatzmöglichkeiten sind nahezu grenzenlos, und genau das macht es so faszinierend. Und ja, auch sehr spooky und beängstigend.
Anfang Januar hat Mark Zuckerberg eine Entscheidung verkündet, die das Internet in seinen Grundfesten erschüttern und zerstören könnte: Meta beendet die Zusammenarbeit mit Faktenprüfer:innen. Es ist der ausgestreckte Mittelfinger Richtung globaler unternehmerischer und gesamtgesellschaftlicher Verantwortung.
Zwischen 2019 und 2022 war eines meiner Groß-Projekt-Babies der "Geile Uschi Kongress". Ich habe mehrere große Events organisiert, mein tolles Team und ich, wir haben viele Podcasts und Blogartikel produziert usw. Unter anderem hatten wir 2021 auch "Uschi-Merch" lanciert, u.a. dieses „Legendary Uschi Shirt“ - featuring global Uschi-Legends.
Wenn wir die Mensch-KI-Beziehung als eine Art wohlgesinnte und “gute” Partnerschaft betrachten möchten, braucht es bestimmte Elemente, um diese Beziehung aufzubauen und zu pflegen. Wir müssen u.a. darauf vertrauen können, dass KI unsere Absichten “versteht” und im Einklang mit unseren Werten handelt. Also müssen wir als Menschen dafür sorgen, dass unsere Absichten und Werte „gut“ sind.
Vielleicht ist genau das dringend notwendig Menschliche an KI: "ChatGPT can make mistakes. Consider checking important information.“ Und vielleicht ist genau das, was wir uns Menschen und damit auch allen AI-Tools unbedingt bewahren müssen: Die Möglichkeit, Fehler machen zu dürfen. Und vielleicht ist es gut und wichtig, dass AI Fehler macht. Und immer machen wird.
Vor einiger Zeit bekam ich durch Zufall mal wieder seit langem die Zeitschrift „Business Punk“ in die Hände. Ich blätterte durch das Magazin und war ziemlich schnell ziemlich abgefuckt. Denn es steht sinnbildlich für so vieles, was, wie ich finde, in unserer Welt einfach falsch läuft: Mehr Schein als Sein. Lass die Dinge cool und rockig und stylish aussehen (Oberfläche) - aber der Inhalt (Tiefe) ist uns völlig egal.
Let´s talk about Integrität. Gehört und gelesen habe ich das Wort schon zig Male in verschiedenen Kontexten. Ich habe es oft unachtsam überlesen, überhört oder benutzt. Integrität ist, dass man sich halt irgendwie korrekt verhält. Vor allem moralisch, ethisch und politisch korrekt. Dachte ich bisher.
Eine beunruhigende Entwicklung: Es scheint, als verlören immer mehr Menschen den Glauben an das Gute und den Glauben, daran, dass es sich lohnt, sich mit guten Absichten für das Gute einzusetzen. Aber wie konnte es soweit kommen? Und was haben Frösche im heißen Wasser damit zu tun?
I have a dream: Ich möchte in einer Welt leben, in denen Vertrauen, gute Absichten und gute Taten das Maß aller Dinge sind und die alles entscheidenden, unantastbaren Werte. Ich möchte mir sicher sein dürfen, dass ich darauf vertrauen kann, dass alle es gut miteinander meinen. Ich wünsche mir, dass gute Absichten für Menschen und Unternehmen in allem, was sie tun, der Standard sind. Die Norm. Die Normalität. Die Realität. Unser Alltag.
Was haben Nutella, Erdnussbutter, ein nerviges C-Virus, das rote und blaue Star-Wars-Schwert gemeinsam? Nun, eine ganze Menge! Werden wir zu Superspreadern und verteilen wir die guten Viren in der Welt und vor allem in unserem direkten Umfeld. Nach etwas Recherche stellte ich nämlich fest: Viren sind gar nicht per se böse oder schlecht. Im Gegenteil. Wir brauchen Viren, um das ganze biologische Ökosystem in Balance zu halten.
Noch nie waren Menschen und das Menschliche so wichtig wie im Zeitalter der Algorithmen und all dem ganzen Digitalisierungs- und Technikgedöns. Was mich an dem Buch beeindruckt hat: Wie reflektiert und smart Hannah Fry die Chose mit den Algorithmen betrachtet, darstellt und analysiert. Sie malt keine Zukunftsutopien aber auch keine Zukunftsdystopien an die Wand - wie so viele andere der digitalen Möchtegern-Elite - aber auch ihre Gegner - es gerade ständig tun.
Schaut man sich die großen Speaking-Events an, egal, von welchem Veranstalter organisiert, sind Frauen on stage Mangelware. Immer. Es ist längst überfällig, das zu ändern. Denn wo fast nur Männer sich in Szene setzen, wird ein Bild einer Gesellschaft gezeichnet, die den allerortens propagierten Ansprüchen von Change, Future, Veränderung, Wachstum, Wandel und Innovation nicht ansatzweise gerecht wird.