KI und Deepfakes: ein gefährliches Duo in den falschen Händen
Aktie
Das aufkommende Wachstum der Künstlichen Intelligenz hat es ermöglicht, Schlüsselsektoren wie die Medizin, die Wirtschaft, den Energiesektor oder den Transport zu verändern. Im aktuellen Szenario hat künstliche Intelligenz ein enormes Potenzial für den Aufbau einer besseren Gesellschaft. Allerdings ist KI ein so mächtiges zweischneidiges Werkzeug, dass sie zur Entwicklung von Lösungen mit negativen oder böswilligen Zwecken genutzt werden kann.
Auf der Ebene der Cybersicherheit hat die künstliche Intelligenz die Entwicklung und Verbesserung von Social-Engineering-Techniken ermöglicht und die Durchführung effektiverer und schwerer zu erkennender Cyberangriffskampagnen erleichtert.
In diesem Zusammenhang wurden neue, von KI gesteuerte Betrugsfälle entwickelt, die insbesondere die Schaffung von Deepfakes mit sich bringen.
Was ist Deepfake?
Der Begriff Deepfake ergibt sich aus der Kombination der Begriffe Deep Learning und Fake. Damit bezieht sich dieser Begriff auf die Technik, mit der mithilfe komplexer Algorithmen der künstlichen Intelligenz wie Deep Learning audiovisuelle Inhalte manipuliert werden, um ihnen eine äußerst realistische Wirkung zu verleihen. Diese Eigenschaft impliziert, dass es nach der herkömmlichen Wahrnehmung eines Menschen sehr schwierig ist, festzustellen, ob der konsumierte audiovisuelle Inhalt wahr oder falsch ist.
In diesem Zusammenhang ist es der Deepfake-Technologie zum Identitätsdiebstahl gelungen, sich auf alle digitalen Plattformen und auf den Bereich der persönlichen Kommunikation, die Filmindustrie sowie den Unternehmens- und Regierungssektor auszudehnen. Dies eröffnet zwar Möglichkeiten für Kreativität und Innovation bei der Produktion digitaler Inhalte, birgt jedoch auch erhebliche Risiken für Datenschutz und Sicherheit.
Obwohl Deepface und Deepvoice keine allgemein anerkannten Begriffe innerhalb von Deepfake sind, können wir sie separat erklären, um die Anwendungen in der Welt der Cybersicherheit zu verstehen:
- Deepfaces: Sie bestehen darin, von Grund auf Bilder mit einem hohen Maß an Realismus zu erstellen, die jedoch völlig fiktiv sind.
- Deepvoices: Diese Technologie ermöglicht es uns, synthetische menschliche Stimmen zu erzeugen, die aus geschriebenem Text sehr natürlich klingen. Neben der Erzeugung einer Stimme von Grund auf ist es möglich, die Stimme einer realen Person zu fälschen, indem die KI mit Proben der echten Stimme trainiert wird. Mit ein paar Minuten Audio der Stimme einer Person könnte jeder Benutzer ihre Stimme klonen und so ihre Sicherheit und Privatsphäre gefährden.
Echte Fälle von Deepfake- und KI-Angriffen
Einige bekannte Fälle von Deepfake oder falscher Veränderung und Erstellung von Bildern, Audio und Videos sind die folgenden:
- Deepfake von Wladimir Putin und Donald Trump: Im Jahr 2019 wurde ein Deepfake-Video, das Wladimir Putin und Donald Trump zeigt, online geteilt, in dem beide politischen Führer scheinbar ernste Themen wie Rüstungskontrolle und internationale Politik diskutierten. Diese Art von Inhalten verdeutlicht, wie Deepfakes dazu genutzt werden könnten, die öffentliche Meinung falsch zu informieren und zu manipulieren.
- Deepfake von Schauspielern in Pornofilmen: Eine der umstrittensten Anwendungen von Deepfakes war die Erstellung gefälschter Pornovideos, die Prominente und Personen des öffentlichen Lebens in kompromittierenden Szenen zeigen, wie es im Fall von Emma Watson, Rosalía oder Taylor Swift der Fall war. Diese Art von Inhalten hat rechtliche und ethische Bedenken hinsichtlich des Datenschutzes und der Einwilligung aufgeworfen.
- Barack Obama Deepfake: Im Jahr 2018 wurde von Jordan Peeles Monkeypaw Productions ein Deepfake-Video des ehemaligen US-Präsidenten Barack Obama erstellt. In dem Video scheint Obama ungewöhnliche Aussagen zu machen und vor den Gefahren von Deepfakes zu warnen, um das Bewusstsein für diese Technologie und ihren möglichen böswilligen Einsatz zu schärfen. Das Video ist auf YouTube unter folgendem Link verfügbar.
- Einer der bemerkenswertesten Fälle von Stimmfälschung war der des CEO eines britischen Energieunternehmens im März 2019. Bei diesem Vorfall nutzten Betrüger künstliche Intelligenz, um die Stimme des CEO nachzuahmen. Dieser leitende Manager erhielt einen Anruf von seinem vermeintlichen Chef, in dem er angewiesen wurde, eine Überweisung von 220.000 Euro auf ein externes Bankkonto vorzunehmen. Angesichts der Glaubwürdigkeit eines Telefonanrufs mit einer so realistischen Stimme nahm der CEO die Überweisung vor, ohne die Identität seines Chefs zu überprüfen.