IT-Sicherheit

Deepfakes

Wie Fake-Inhalte die IT-Sicherheit von Unternehmen fordern

von 24.04.2024
Ist das wirklich der Chef am Telefon? Oder ein Deepfake per Anruf? Bild: Pexels/Karolina Grabowska

Deepfakes – also durch KI und maschinelles Lernen erzeugte Bilder, Videos und Audiodaten – sind längst keine lustige Spielerei mehr. In der Geschäftswelt haben sie enormes Potenzial für Betrug.

Wir erklären, was Deepfakes sind, wie sie funktionieren und warum gerade Unternehmen aufmerksam sein sollten.

KI – Fluch und Segen zugleich

Es ist häufig der Fall, dass neue Technologien anfangs mit einer gewissen Skepsis beäugt werden. Das war beim Aufkommen Künstlicher Intelligenz (KI) nicht anders. Erst die Einführung von ChatGPT Ende 2022 und der damit eingeleitete Siegeszug generativer KI im Jahr 2023 haben dafür gesorgt, dass zahlreiche Nutzer ihre Bedenken über Bord geworfen haben. Der Grund dafür: Das Potenzial hinsichtlich Produktivitätssteigerung und Arbeitserleichterung ist besonders in Unternehmen schlicht zu groß, um es zu ignorieren – und dadurch einen Wettbewerbsverlust zu riskieren.

Jetzt, im Jahr 2024, beginnt sich das Blatt allerdings wieder allmählich zu wenden. Warum? Weil so mancher Sicherheitsvorfall eindrucksvoll vor Augen führt, wie sich KI für cyberkriminelle Machenschaften einsetzen lässt – und dadurch nicht nur für die IT-Sicherheit, sondern auch für die Gesellschaft immer mehr zu einer Bedrohung wird. Insbesondere Deepfakes treten in diesem Zusammenhang vermehrt in Erscheinung. Aber was ist darunter genau zu verstehen?

Ist das wirklich der Chef am Telefon? Oder handelt es sich um eine richtig gute Fälschung? Bild: Pexels/Kampus Production

Was sind Deepfakes?

Das Wort Deepfake ist ein Kunstwort aus den miteinander kombinierten Begriffen „Deep Learning“ (deutsch: „tiefes/tiefergehendes Lernen“) und „Fake“ (deutsch: Fälschung). Per Definition handelt es sich bei Deepfakes um „realistisch wirkende Inhalte“, die mit Hilfe von Künstlicher Intelligenz und maschinellem Lernen erstellt, manipuliert oder verfälscht worden sind. Für die Erstellung von Deepfakes werden Algorithmen verwendet, die auf umfangreichen Datensätzen trainieren, um Mimik, Gestik und Stimmklang einer realen Person nachzuahmen. Das Resultat sind gefälschte, aber täuschend echt erscheinende Bilder, Audios oder Videos.

Angefangen hat es mit den Deepfakes eigentlich ganz amüsant: Mit Hilfe von Smartphone-Apps konnten Nutzer ihr eigenes Gesicht verfremden oder beim so genannten „Face Swapping“ die Gesichter von zwei Personen tauschen; die App „Zao“ war sogar in der Lage, innerhalb weniger Sekunden eine Person nach Wahl anhand eines Portrait-Fotos in bekannte Filmszenen einzufügen.

Aus diesem harmloses Spaß ist mittlerweile aber bitterer Ernst geworden. Denn: Inzwischen werden Deepfakes vermehrt dazu eingesetzt, um Personen in Bildern, Videos oder Audiodateien Dinge sagen oder tun zu lassen, die in der Realität nie stattgefunden haben. Vor allem Cyberkriminelle wissen die (neuartige) Technologie für ihre Machenschaften zu nutzen.

Grundlagen der Deepfake-Technologie

Deepfakes werden hauptsächlich durch den Einsatz von Generative Adversarial Networks (GANs) erstellt, einer fortschrittlichen Technik im Bereich des maschinellen Lernens. Diese Netzwerke bestehen aus zwei Hauptkomponenten: einem Generator-Modell, das neue Dateninhalte erzeugt (zum Beispiel Bilder oder Videos), und einem Diskriminator-Modell, das die Echtheit dieser Daten beurteilt.

Kurzgefasst sieht das in der Umsetzung dann so aus: Der Generator erzeugt fortlaufend neue Inhalte, während der Diskriminator versucht zu entscheiden, ob diese von einem Menschen oder vom Generator erstellt wurden. Die Modelle trainieren dadurch in einem fortlaufenden Wettbewerb zueinander, was letztendlich dazu führt, dass der Generator immer bessere Fälschungen produziert. GANs haben sich daher schnell als effektive Methode für die Erzeugung überzeugender und realistischer Fälschungen etabliert​​.

Zu sehen ist ein Mann, der ein Selfie macht - möglicherweise für einen Deepfake mit einer Face-Swapping-App. Bild: Unsplash/Harry Cunningham

Mit lustigen Face-Swapping-Apps haben Deepfakes anfangs vor allem Spaß gemacht. Bild: Unsplash/Harry Cunningham

Deepfakes: eine Gefahr für Unternehmen

Fakt ist: Deepfakes eröffnen Cyberkriminellen beunruhigend effektive Möglichkeiten für Social-Engineering-Angriffe in der Geschäftswelt. Bei dieser fortschrittlichen Form der Täuschung nutzen die Angreifer gefälschte (audiovisuelle) Medien, um Mitarbeiter zu manipulieren und sie dazu zu bringen, vertrauliche Informationen preiszugeben oder nicht autorisierte Transaktionen durchzuführen. Die Vielfalt der Einsatzmöglichkeiten von Deepfakes in solchen betrügerischen Szenarien reicht von gefälschten E-Mails und Anrufen bis hin zu manipulierten Video- und Audiokonferenzen. Das Problem: Besonders durch die realistische Nachahmung von Stimmen und Gesichtern vertrauter Personen können Angreifer betrügerische Anweisungen extrem glaubhaft machen.

Besonders in kleinen und mittelständischen Unternehmen, die oft weniger robuste Sicherheitssysteme haben, kann der Einsatz von Deepfakes schwerwiegende Folgen haben. Ein durch Deepfakes ausgelöster Sicherheitsvorfall kann dabei nicht nur finanzielle Schäden verursachen, sondern auch langfristig die Glaubwürdigkeit und das Vertrauen in das Unternehmen untergraben. Die konkreten Risiken und potenziellen Schäden, die Deepfakes für Unternehmen bedeuten können, wollen wir nachfolgend anhand von drei ausgewählten Beispielen verdeutlichen. Die Beispiele zeigen, dass Deepfake-Angriffe kein Zukunftsszenario sind, sondern schon jetzt erfolgreich eingesetzt werden.

1. Beispiel: Deepfake per Telefonanruf

Schon im Dezember 2020 ist der Fall eines deutschen Energieversorgers bekannt geworden, der einem Deepfake zum Opfer gefallen ist. An einem späten Freitagnachmittag erhielt ein Mitarbeiter in der britischen Niederlassung einen Telefonanruf. Die selbstbewusste Stimme mit starkem deutschen Akzent am anderen Ende erkannte der Angerufene als den Konzernchef persönlich.

Dieser erklärte, die Konzernzentrale müsse dringend eine Überweisung von 220.000 Euro an einen Lieferanten in Ungarn tätigen – unbedingt noch vor dem Wochenende. Weil die Banken in Deutschland zu dieser Zeit aber schon geschlossen waren, bat er den britischen Manager, die Überweisung von England aus zu tätigen. Ein plausibel klingende Erklärung. Der Manager folgte daher auch der Anweisung.

Später stellte sich dann aber heraus, dass es sich bei dem Anruf um ein Deepfake gehandelt hat. Das bedeutet: Entsprechende KI kann in improvisierten Gesprächen in Echtzeit die Stimme einer lebensechten Person nachahmen, inklusive Akzent und Intonation. Bei diesem Fall von CEO-Betrug (auch: CEO Fraud) wurde das überwiesene Geld glücklicherweise von der Versicherung ersetzt.

Zu sehen ist ein Mann am Laptop im Büro, der mit dem Handy telefoniert. Deepfakes per Telefon sind eine Gefahr. Bild: Pexels/Andrea Piacquadio

Bei einem Telefonanruf erscheint etwas seltsam? Wichtig ist bei Deepfakes, dass bei Mitarbeitern die Alarmglocken schrillen. Bild: Pexels/Andrea Piacquadio

2. Beispiel: Deepfake per Sprachnachricht

Ein weiteres alarmierendes Beispiel ist ein Vorfall beim Passwortmanager-Anbieter Lastpass. Ein Mitarbeiter erhielt Anrufe und Textnachrichten, darunter auch eine Sprachnachricht, die angeblich vom CEO des Unternehmens, Karim Toubba, stammte. Die Nachricht beinhaltete eine durch KI erzeugte Deepfake-Audioaufnahme, die Toubbas Stimme täuschend echt nachahmte. Glücklicherweise war der Angriff nicht erfolgreich, da der Mitarbeiter die Nachrichten als ungewöhnlich erkannte und sie ignorierte. Er meldete den Vorfall sofort an das interne Sicherheitsteam. Nichtsdestotrotz verdeutlich auch dieser Fall, wie Cyberkriminelle moderne KI-Tools nutzen, um glaubwürdige Imitationen zu erstellen und damit potenziell verheerende Angriffe durchzuführen.

Lastpass hat diesen Vorfall öffentlich gemacht, um das Bewusstsein für die Gefahren von Deepfakes zu schärfen und andere Unternehmen zu ermutigen, ihre Mitarbeiter entsprechend zu schulen und zu sensibilisieren. Dieses Beispiel zeigt, dass Vorsicht und schnelles Handeln entscheidend sind, um solche Betrugsversuche abzuwehren.

3. Beispiel: Deepfake per Videocall

Fast noch krasser war ein Fall, der sich im Februar 2024 bei einem multinationalen Unternehmen in Hongkong abgespielt hat. Ein Mitarbeiter der Finanzabteilung erhielt eine scheinbar harmlose Nachricht, die angeblich vom CFO in Großbritannien stammte. An dem anschließenden Videocall nahmen scheinbar der CFO und andere Schlüsselmitarbeiter des Unternehmens teil – tatsächlich wurden diese Personen aber durch Deepfake-Technologien imitiert.

Die Täuschung war so überzeugend, dass der Finanzmitarbeiter keine Zweifel hegte. Auf Anweisung der Betrüger überwies er insgesamt 200 Millionen Hongkong-Dollar, umgerechnet etwa 25,6 Millionen Dollar, auf mehrere Konten in Hongkong. Die Überweisungen fanden in 15 Transaktionen statt, ohne dass sofortige Verdachtsmomente aufkamen. Die Aufdeckung erfolgte erst eine Woche später, als der Mitarbeiter zufällig echten Kontakt zur Unternehmenszentrale aufnahm und die Unstimmigkeiten ans Licht kamen.

Die Betrüger hatten offenbar öffentlich zugängliches Video- und Audiomaterial verwendet, um die überzeugenden Deepfakes der Teilnehmer zu erstellen. Der Vorfall bleibt ein alarmierendes Beispiel für das potenzielle Ausmaß von Deepfake-Betrug in der Geschäftswelt.

Zu sehen ist eine Frau am Laptop in einem Videocall. Sind die Gesprächspartner echt oder Deepfakes? Bild: Pexels/MART PRODUCTION

Auch in Videocalls besteht inzwischen die Gefahr, dass die Deepfakes-Technologie eingesetzt wird. Bild: Pexels/MART PRODUCTION

Tipps: So schützen sich Unternehmen vor Deepfakes

Die Fähigkeit, realistische Deepfakes zu erstellen, fordert Unternehmen jeder Größe heraus, entsprechende Abwehrmaßnahmen zu ergreifen. Um die Risiken durch Deepfakes zu minimieren, sind unter anderem die folgenden präventiven Maßnahmen sinnvoll:

  • Führen Sie Schulungen zur Security Awareness durch!
    Regelmäßige Schulungen helfen Mitarbeitern, die Merkmale und Risiken von Deepfakes zu erkennen. Besonders wichtig ist das Training für Teams in kritischen Bereichen wie Finanzen und IT.
  • Implementieren Sie technische Abwehrmaßnahmen!
    Es gibt inzwischen Sicherheitssoftware, die speziell darauf ausgelegt ist, Deepfakes zu erkennen. Diese Technologien nutzen oft selbst maschinelles Lernen, um Anomalien in Audio- und Videodateien zu identifizieren. Indem Sie in solche Software investieren, nutzen Sie KI um KI zu bekämpfen.
  • Nutzen Sie Zugriffskontrollen und Monitoring!
    Durch robuste Zugriffskontrollen und kontinuierliche Überwachung der Netzwerkaktivitäten stärken Sie die interne Sicherheit ihres Unternehmensnetzwerks. Das frühzeitige Erkennen ungewöhnlicher Aktivitäten kann helfen, Bedrohungen abzuwehren.
  • Führen Sie Verifizierungsprotokolle ein!
    Durch strenge Verifizierungsprotokolle für Anfragen zu sensiblen Aktionen – beispielsweise Geldtransfers oder das Teilen von vertraulichen Informationen – schaffen Sie eine zusätzliche Sicherheitsbarriere. Es ist sinnvoll, solche Anfragen immer durch einen zweiten Kommunikationskanal zur überprüfen.
  • Erarbeiten Sie einen Reaktionsplan für Sicherheitsvorfälle!
    Entwickeln Sie einen klaren Reaktionsplan für den Fall eines Sicherheitsvorfalls. Schnelles und effektives Handeln kann die Schäden im Ernstfall deutlich eingrenzen und die Wiederherstellung des Geschäftsbetriebs beschleunigen.
  • Kommunizieren Sie mit Stakeholdern!
    Halten Sie eine offene Kommunikation mit allen Stakeholdern, einschließlich Kunden, Lieferanten und Partnern, über die Risiken von Deepfakes und die von Ihnen getroffenen Schutzmaßnahmen.

Durch die Implementierung dieser Maßnahmen können Unternehmen die Bedrohung durch Deepfakes signifikant reduzieren. Der wichtigste Faktor ist und bleibt bei alldem der Mensch – und das gilt nicht nur für Unternehmen, sondern auch für die Gesellschaft.

Auch Gesellschaft durch Deepfakes bedroht

Deepfakes stellen nämlich nicht nur für Unternehmen, sondern auch für die Gesellschaft eine ernsthafte Bedrohung dar. Im Superwahljahr 2024, einem Jahr mit einer außergewöhnlich hohen Anzahl von Wahlen weltweit, hat das Potenzial von manipulierten Videos und gefälschten Nutzerkonten, die öffentliche Meinung zu beeinflussen, drastisch zugenommen. Besonders im Vorfeld von Wahlen – beispielsweise den anstehenden Präsidentschaftswahlen in den USA – werden solche Technologien bereits jetzt gezielt eingesetzt, um Desinformation zu verbreiten und politische Gegner zu diskreditieren.

Und auch in internationalen Konflikten ist das Gefahrenpotenzial durch Deepfakes enorm. Ein beunruhigendes Beispiel ist ein gefälschtes Video des ukrainischen Präsidenten Wolodymyr Selensky, in dem er angeblich seine Soldaten dazu auffordert, die Waffen niederzulegen. Das Video wurde am 30. Januar 2023 in den Sozialen Medien verbreitet und hatte durchaus das Potenzial, die weiteren Entwicklungen des Ukraine-Kriegs zu beeinflussen.

Diese Art von Inhalten kann also nicht nur Wahlen beeinflussen, sondern auch das Vertrauen in demokratische Institutionen und Prozesse untergraben. Es gibt bereits Versuche, diese Gefahren in den Griff zu bekommen – beispielsweise mit dem Digital Services Act. Kritische Stimmen fordern zunehmend ein schnelles Handeln und strenge Regulierungen, um die Verbreitung und die Auswirkungen von Deepfakes zu kontrollieren und die Integrität des öffentlichen Diskurses zu schützen.

Zu sehen ist ein Smartphone, auf dem Youtube aufgerufen ist und das in einer dunklen Umgebung auf einer Laptop-Tastatur liegt. Bild: Unsplash/Azamat E

Social Media geben Deepfakes eine Plattform. Bild: Unsplash/Azamat E

Fortschritte in der Deepfake-Erkennungstechnologie

Die gute Nachricht ist, dass sich die Technologie zur Erkennung von Deepfakes ebenfalls rapide weiterentwickelt. Aktuelle KI-basierte Tools nutzen fortschrittliche Algorithmen, um Unregelmäßigkeiten in Videos und Audiodateien zu identifizieren, die menschlichen Beobachtern oft entgehen. Diese Systeme lernen aus riesigen Datensätzen von echten und gefälschten Medien, um die subtilen Anzeichen zu erkennen, die eine Fälschung verraten. Forscher haben beispielsweise Techniken entwickelt, die auf die Analyse von Gesichtsausdrücken, Augenbewegungen und sogar Hauttexturen spezialisiert sind.

Diese Methoden sind wesentlich effektiver als frühere Ansätze, die sich hauptsächlich auf weniger feine Details konzentrierten. Durch diese Fortschritte bieten sich neue Möglichkeiten, die Glaubwürdigkeit digitaler Inhalte zu verifizieren und die Verbreitung von Desinformation effektiv zu bekämpfen – und das wiederum bietet sowohl Unternehmen als auch Gesellschaft zumindest einen kleinen Anlass zu Hoffnung.

IT-Experten schärfen Security Awareness

Im Kampf gegen die wachsende Bedrohung durch Deepfakes spielt die Schärfung des Sicherheitsbewusstseins eine entscheidende Rolle. IT-Experten, zum Beispiel die Experten aus dem IT-SERVICE.NETWORK, bieten hierbei essentielle Unterstützung. Sie helfen Unternehmen, ihre Abwehrmaßnahmen zu stärken, indem sie fortschrittliche Erkennungssysteme für Deepfakes implementieren und Mitarbeiter durch gezielte Schulungen auf mögliche Bedrohungen vorbereiten.

Darüber hinaus beraten die IT-Dienstleister aus unserem Netzwerk zu Best Practices im Bereich der IT-Sicherheit, wie zum Beispiel der Einführung von Multi-Faktor-Authentifizierung und regelmäßigen Sicherheitsaudits. Diese – und weitere – Maßnahmen sind unerlässlich, um die Resilienz gegenüber manipulierten Inhalten zu erhöhen und die Integrität unternehmenskritischer Daten zu sichern.

Sie möchten mehr dazu erfahren, wie Sie die IT-Sicherheit in Ihrem Unternehmen auf das höchstmögliche Niveau bringen können? Dann nehmen Sie Kontakt zu einem unserer IT-Systemhäuser in Ihrer Nähe auf und lassen Sie sich beraten!


Weiterführende Informationen:
RAND, MDPI, Security Insider, golem, it-daily, Bundesregierung, BR, morgenpost, mdr, bitkom, t3n
Zur besseren Lesbarkeit verwenden wir im Text die männliche Form. Gemeint sind jedoch immer alle Geschlechter und Geschlechtsidentitäten.

Geschrieben von

Seit Anfang 2019 ist Janina Kröger für den Blog des IT-SERVICE.NETWORK verantwortlich – anfangs in der Position der Online-Redakteurin und inzwischen als Content Marketing Managerin. Die studierte Germanistin/Anglistin und ausgebildete Redakteurin behält das Geschehen auf dem IT-Markt im Blick, verfolgt gespannt neue Trends und Technologien und beobachtet aktuelle Bedrohungen im Bereich des Cybercrime. Die relevantesten… Weiterlesen

Fragen zum Artikel? Frag den Autor
0 Kommentare

Schreiben Sie einen Kommentar

Ihre E-Mail Adresse wird nicht veröffentlicht.


* = Pflichtfelder
Bitte beachten Sie unsere Datenschutzerklärung

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Aktuelle Themen zum Thema IT-Sicherheit

IT-Sicherheit

Deepfakes

Wie Fake-Inhalte die IT-Sicherheit von Unternehmen fordern

von • 24.04.2024

Deepfakes – also durch KI und maschinelles Lernen erzeugte Bilder, Videos und Audiodaten – sind längst keine lustige Spielerei mehr. In der Geschäftswelt haben sie enormes Potenzial für Betrug....

Weiterlesen
IT-Sicherheit

Pikabot-Malware

Aktuelle Angriffskampagne nutzt Social-Engineering-Taktiken

von • 15.04.2024

Anfang 2023 ist sie erstmals entdeckt worden, seit Anfang 2024 sorgt sie vermehrt für Schlagzeilen: Die Pikabot-Malware ist eine raffinierte Bedrohung und wird durch Social Engineering verbreitet. ...

Weiterlesen
IT-Sicherheit

TeamViewer-Sicherheitslücke

Schwachstelle verhilft Nutzern zu Admin-Rechten

von • 10.04.2024

Die Entwickler der beliebten Remote-Support-Software TeamViewer warnen vor einer Schwachstelle, über die sich Nutzer Admin-Rechte verschaffen können. Ein Update für die TeamViewer-Sicherheitslücke...

Weiterlesen