IA y Deepfakes: un dúo peligroso en las manos equivocadas

KI und Deepfakes: ein gefährliches Duo in den falschen Händen

Celia Catalán



Das aufkommende Wachstum der Künstlichen Intelligenz hat es ermöglicht, Schlüsselsektoren wie die Medizin, die Wirtschaft, den Energiesektor oder den Transport zu verändern. Im aktuellen Szenario hat künstliche Intelligenz ein enormes Potenzial für den Aufbau einer besseren Gesellschaft. Allerdings ist KI ein so mächtiges zweischneidiges Werkzeug, dass sie zur Entwicklung von Lösungen mit negativen oder böswilligen Zwecken genutzt werden kann.

Auf der Ebene der Cybersicherheit hat die künstliche Intelligenz die Entwicklung und Verbesserung von Social-Engineering-Techniken ermöglicht und die Durchführung effektiverer und schwerer zu erkennender Cyberangriffskampagnen erleichtert. 

In diesem Zusammenhang wurden neue, von KI gesteuerte Betrugsfälle entwickelt, die insbesondere die Schaffung von Deepfakes mit sich bringen.

Was ist Deepfake?

Der Begriff Deepfake ergibt sich aus der Kombination der Begriffe Deep Learning und Fake. Damit bezieht sich dieser Begriff auf die Technik, mit der mithilfe komplexer Algorithmen der künstlichen Intelligenz wie Deep Learning audiovisuelle Inhalte manipuliert werden, um ihnen eine äußerst realistische Wirkung zu verleihen. Diese Eigenschaft impliziert, dass es nach der herkömmlichen Wahrnehmung eines Menschen sehr schwierig ist, festzustellen, ob der konsumierte audiovisuelle Inhalt wahr oder falsch ist. 

In diesem Zusammenhang ist es der Deepfake-Technologie zum Identitätsdiebstahl gelungen, sich auf alle digitalen Plattformen und auf den Bereich der persönlichen Kommunikation, die Filmindustrie sowie den Unternehmens- und Regierungssektor auszudehnen. Dies eröffnet zwar Möglichkeiten für Kreativität und Innovation bei der Produktion digitaler Inhalte, birgt jedoch auch erhebliche Risiken für Datenschutz und Sicherheit.

Obwohl Deepface und Deepvoice keine allgemein anerkannten Begriffe innerhalb von Deepfake sind, können wir sie separat erklären, um die Anwendungen in der Welt der Cybersicherheit zu verstehen:

  • Deepfaces: Sie bestehen darin, von Grund auf Bilder mit einem hohen Maß an Realismus zu erstellen, die jedoch völlig fiktiv sind. 
  • Deepvoices: Diese Technologie ermöglicht es uns, synthetische menschliche Stimmen zu erzeugen, die aus geschriebenem Text sehr natürlich klingen. Neben der Erzeugung einer Stimme von Grund auf ist es möglich, die Stimme einer realen Person zu fälschen, indem die KI mit Proben der echten Stimme trainiert wird. Mit ein paar Minuten Audio der Stimme einer Person könnte jeder Benutzer ihre Stimme klonen und so ihre Sicherheit und Privatsphäre gefährden.


Echte Fälle von Deepfake- und KI-Angriffen

Einige bekannte Fälle von Deepfake oder falscher Veränderung und Erstellung von Bildern, Audio und Videos sind die folgenden:

  • Deepfake von Wladimir Putin und Donald Trump: Im Jahr 2019 wurde ein Deepfake-Video, das Wladimir Putin und Donald Trump zeigt, online geteilt, in dem beide politischen Führer scheinbar ernste Themen wie Rüstungskontrolle und internationale Politik diskutierten. Diese Art von Inhalten verdeutlicht, wie Deepfakes dazu genutzt werden könnten, die öffentliche Meinung falsch zu informieren und zu manipulieren.
  • Deepfake von Schauspielern in Pornofilmen: Eine der umstrittensten Anwendungen von Deepfakes war die Erstellung gefälschter Pornovideos, die Prominente und Personen des öffentlichen Lebens in kompromittierenden Szenen zeigen, wie es im Fall von Emma Watson, Rosalía oder Taylor Swift der Fall war. Diese Art von Inhalten hat rechtliche und ethische Bedenken hinsichtlich des Datenschutzes und der Einwilligung aufgeworfen. 
  • Barack Obama Deepfake: Im Jahr 2018 wurde von Jordan Peeles Monkeypaw Productions ein Deepfake-Video des ehemaligen US-Präsidenten Barack Obama erstellt. In dem Video scheint Obama ungewöhnliche Aussagen zu machen und vor den Gefahren von Deepfakes zu warnen, um das Bewusstsein für diese Technologie und ihren möglichen böswilligen Einsatz zu schärfen. Das Video ist auf YouTube unter folgendem Link verfügbar.
  • Einer der bemerkenswertesten Fälle von Stimmfälschung war der des CEO eines britischen Energieunternehmens im März 2019. Bei diesem Vorfall nutzten Betrüger künstliche Intelligenz, um die Stimme des CEO nachzuahmen. Dieser leitende Manager erhielt einen Anruf von seinem vermeintlichen Chef, in dem er angewiesen wurde, eine Überweisung von 220.000 Euro auf ein externes Bankkonto vorzunehmen. Angesichts der Glaubwürdigkeit eines Telefonanrufs mit einer so realistischen Stimme nahm der CEO die Überweisung vor, ohne die Identität seines Chefs zu überprüfen.


Ein weiterer Schritt in Richtung Deepfake…

Die Fortschritte in der Ausgereiftheit herkömmlicher Deepfakes sind so erheblich, dass Deepfake-Übungen derzeit im Kontext eines Videoanrufs durchgeführt werden, was die Möglichkeit impliziert, das Aussehen und die Stimme einer Person während eines Live-Anrufs in Echtzeit zu ändern. 

In dieser Situation entsteht ein großes Problem, da die Schwierigkeit, diese Art von Betrug zu erkennen, stark zunimmt. Trotz der immer noch geringen Bekanntheit dieser Art von Nachahmungsübungen ist es wahrscheinlich, dass ein Benutzer im Internet angesichts der Medienfälle von Deepfake in den letzten Jahren Videos oder Bildern misstraut, die ungewöhnliche Inhalte widerspiegeln, oder dass ein leitender Manager eher zurückhaltend reagiert Verhalten, wenn Sie mit einem Anruf Ihres Chefs konfrontiert werden, der wiederum ungewöhnliche Dinge verlangt. Allerdings stellen Deepfakes in Echtzeit aufgrund der Schwierigkeit, sie zu identifizieren, derzeit eine große Herausforderung dar. Und Sie ... würden Sie an der Identität der Person zweifeln, die Sie in Echtzeit auf der anderen Seite des Bildschirms sehen und hören?

Allerdings weist diese Technik noch kleinere Mängel hinsichtlich Kopfbewegung und Perspektive auf. Kopfdrehungen im 90°-Modell oder Hände vor dem Gesicht gehören zu den üblichen Handlungen einer Person, die Deepfakes bisher nicht ganz realistisch nachbilden konnten. Während Erkennungstechniken für diese Art von Angriff entwickelt und verbessert werden, kann es daher nützlich sein, Deepfakes zu erkennen, indem man die Person, mit der man einen Videoanruf führt, bittet, ihren Kopf zu bewegen oder ihren Arm zu heben (obwohl dies nicht besonders empfehlenswert ist). Lösung!!).

Deepfake für jedermann verfügbar

Einer der besorgniserregendsten Aspekte von Deepfake ist seine Zugänglichkeit. Derzeit gibt es viele kostenlose oder sehr kostengünstige Softwareoptionen und Anwendungen, mit denen Benutzer relativ einfach Deepfakes erstellen können.

Es gibt Plattformen, wie z https://thispersonnotexist.org/, die Porträts von Menschen erzeugen, die zwar wie Bilder von echten Menschen aussehen, aber völlig falsch sind.

Weitere bekannte Tools zum Bearbeiten visueller Inhalte sind myEdit oder PowerDirector. Zusammen mit Sprachklonern wie Vidnoz sind diese Tools die perfekte Kombination für Cyberkriminelle, die im digitalen, aber auch im staatlichen Bereich Identitäten fälschen und nachahmen möchten.

Schließlich ist DeepFaceLive eine Echtzeit-Deepfake-Version der beliebten DeepFaceLab-Software.
Eine einfache Suche nach Deepfake-Ressourcen deckt Hunderte von Online-Ressourcen auf, mit denen Sie ganz einfach neue Setups und Falschmeldungen erstellen können.

Eine Sache noch…

Vor zwei Jahren erlitt ein chinesischer multinationaler Konzern einen auf Deepfake-Technologie basierenden Angriff, bei dem 26 Millionen Dollar erbeutet wurden. 

Angesichts der Medienwirkung, die dieser Angriff hatte, und im Kampf um die Sensibilisierung für neue digitale Bedrohungen hatte Zerolynx die Gelegenheit, einen Machbarkeitsnachweis für Deepfake in Teams-Videoanrufen zu entwickeln. Die Luchse Javier Martín , Álvaro Caseiro und Daniel Rico führten mithilfe von Werkzeugen, die für jeden Internetnutzer zugänglich sind, in einer sicheren und kontrollierten Umgebung eine Nachahmungsübung als Sensibilisierungskampagne für leitende Beamte eines Führungsunternehmens durch.

Die Nachahmung des CEO live und während eines Videoanrufs ist ein Ereignis, das bei verdächtigen oder ungewöhnlichen Ereignissen wie der Genehmigung neuer Rechnungen, der Delegation von Führungspositionen oder Änderungen von Lieferanten- oder Kundendaten Misstrauen in der Belegschaft hervorruft. Eine Besprechung, bei der die Anwesenheit des CEO erwartet wird oder nicht, ist eine gute Gelegenheit, das Sicherheitsbewusstsein der Geschäftsleitung zu testen und gleichzeitig alle Anwesenden über die immer häufiger auftretenden Risiken zu schulen.

Alba Vara , Cybersicherheitsanalystin bei Zerolynx .


Zurück zum Blog

Hinterlasse einen Kommentar

Bitte beachten Sie, dass Kommentare vor der Veröffentlichung genehmigt werden müssen.