„Fake-Inhalte sind ein ernstes und immer dringlicheres Problem.Quelle: Adobe

Das Vertrauen der Öffentlichkeit in die Integrität digitaler Medien wird beeinträchtigt, da verbraucherfreundliche Bearbeitungssoftware effektiver wird, um die Betrachter zu täuschen. Als Ergebnis dieser technologischen Fortschritte muss sich die breite Öffentlichkeit nun fragen, ob selbst das allgemeinste Bild oder Video echt ist.

Dies wird zu einem gefährlichen Gefühl, wenn Verhöre, Ermittlungen und Gerichtsverfahren zunehmend auf digitale Beweise angewiesen sind, um die Schuldigen zu identifizieren, mit Richtern zu kommunizieren und Jurys zu überzeugen. Da die digitale Forensik unter zunehmender Beobachtung steht, ist es unerlässlich, dass Regierungen, Behörden und Strafverfolgungsbehörden während des gesamten Ermittlungsablaufs forensisch solide Methoden anwenden, die sowohl nationalen als auch internationalen Standards entsprechen.

Soziale Netzwerke und Softwareanbieter reagieren

Die anhaltende öffentliche Debatte darüber, wie digitale Riesen wie Facebook Fake-Nachrichten erkennen und ablehnen müssen, beginnt auch auf die zunehmende Bedrohung durch Deep-Fake-Bilder und -Videos. zu reagieren. Das Potenzial für Betrug, Framing oder Diffamierung ist weltweit ein ernsthafter Grund zur Sorge. Langfristig könnte dieses allgemeine Gefühl des Misstrauens, das durch die Deep-Fake-Technologie genährt wird, das Vertrauen in digitale Daten sowohl innerhalb als auch außerhalb von Gerichtssäle untergraben.

Da Facebook mehr Verantwortung für das Entfernen von Fake-News unter Verwendung von künstlicher Intelligenz übernimmt, beginnen Softwareanbieter, bei der Identifizierung von gefälschten oder manipulierten Medien zu helfen. Die Förderung dieser Art von Forschung wird von legitimen Nachrichtenagenturen, Online-Publishern und Softwareentwicklern dringend angestrebt, um das Vertrauen der Öffentlichkeit zurückzugewinnen.

„Wir leben in einer Welt, in der es immer schwieriger wird, den digitalen Informationen, die wir konsumieren, zu vertrauen, und ich freue mich darauf, dieses Forschungsgebiet weiter zu erforschen. Richard Zhang, Adobe Software Researcher (Quelle)

Die Software, die Bild- und Audiomanipulationen ermöglicht

Leicht zugängliche Anwendungen wie z. B. Adobe After Effects und Fakeapp können die schnelle Erstellung von fotorealistischen Gesichtsaustauschungstechniken, die im Vergleich zu den Originaldateien praktisch nicht erkennbar sind, effektiv demonstrieren. Da diese Apps von bahnbrechender künstlicher Intelligenz angetrieben werden, ist die visuelle Nuancierung so anspruchsvoll, dass selbst der scharfsichtigste Zuschauer beeinflussbar ist.

Diese Qualität der digitalen Manipulation wird auch für Audiodateien Realität. Adobe hat eine weitere Initiative, Adobe VoCo, die es Sound-Designern ermöglicht, Wörter digital in den Mund einer Person zu legen und dann nahtlose natürliche Sprache mit ihrem einzigartigen Tonfall auszugeben. Mit nur 20 Minuten der Stimme einer Testperson kann die Anwendung die Signaturlaute des Sprechers replizieren, um den Text zu sagen, der in die Software eingegeben wird.

Ursprünglich für die Voice-Over-Korrektur in der Unterhaltungsindustrie gedacht, könnte diese Software in den Händen schlechter Akteure der digitalen Forensik zusätzliche Herausforderungen bieten. Mit anderen Anbietern wie z. B DeepMind, die mit ihrem WaveNet-Angebot ähnliche Ergebnisse beim Sprachaustausch liefern, ist es nur eine Frage der Zeit, bis alle digitalen Medien verdächtig werden und eine ganz neue Dimension der digitalen Authentifizierung erforderlich ist.

Darüber hinaus könnte die vokale Imitation neue Hacking-Techniken ermöglichen. Die Sicherheit von sprachaktivierten Telefonzugängen, Haussicherheit oder Fahrzeugen könnte stark gefährdet sein, wenn die breite Akzeptanz dieser Audio-Manipulationstechnik zunimmt. Das Potenzial für ein ethisches Minenfeld von benutzergenerierten Desinformationen könnte zu einer unerschütterlichen Möglichkeit, die nahe bevorsteht.

Auf der Kehrseite der generativen Audioanwendungen stehen Spracherkennungslösungen, die bestimmen können, was jemand in einem Video ohne Audio sagt. LipNet, eine automatische Lösung für das Lippenlesen aus Videoinhalten könnte verstümmelte oder fehlende Audioinhalte aus dem Video in verständliche Sprache verwandeln. LipNet arbeitet mit 93%er Genauigkeit im Vergleich zu einem erfahrenen Lippenleser, der nur 52% des Inhalts verstehen kann. 

Demokratisierung der Bildforensik

Adobe, einer der Marktführer für Bild- und Videobearbeitungslösungen, hat kürzlich eine Studie veröffentlicht, die automatisch manipulierte Bilder von Gesichtern erkennt. Mit Hilfe von KI und maschinellem Lernen wird die Anwendung geschult, um das Spleißen, Klonen und Entfernen von Objekten zu erkennen. Der Algorithmus zur Erkennung manipulierter Gesichter zeigte eine Genauigkeit von 99%. Obwohl Adobe dies nicht als kommerzielles Produkt veröffentlicht hat, hat das Unternehmen betont, dass es sich dieser Initiative verpflichtet fühlt.

„Wir sind zwar stolz auf den Einfluss, den Photoshop und die anderen Kreativwerkzeuge von Adobe auf die Welt haben, aber wir sind uns auch der ethischen Auswirkungen unserer Technologie bewusst,Quelle: Adobe

Quelle: Adobe

Der nächste Schritt für Adobe

Die Experimente zur Wiederherstellung des ursprünglichen Zustandes der Fotos haben bereits begonnen, aber diese Umkehrung der Bilder ist verständlicherweise komplexer als konstruktive Techniken.

„Die Idee eines magischen universellen Undo-Buttons, mit dem Bildbearbeitungen rückgängig gemacht werden können, ist noch lange nicht verwirklicht. – Richard Zhang, Adobe Researcher (Quelle)

Die DFIR-Community sollte sich der zukünftigen Herausforderungen bewusst sein, die mit dem breiteren Auftreten von gefälschten digitalen Beweisen verbunden sind. Inzwischen hat Cellebrite bereits dazu beigetragen, gefälschte Messaging-Apps zu erkennen, die Gegenstand von Ermittlungen waren. In einem aktuellen Fall identifizierte Cellebrite UFED Physical Analyzer eine gefälschte SMS-App, mit der ein Verdächtiger versuchte, sein Opfer hereinzulegen. Lesen Sie die vollständige Fallstudie hier.

Im Zuge der fortschreitenden Versuche zur Aufklärung betrügerischer digitaler Beweise wird Cellebrite weiterhin forensisch einwandfreie Methoden sicherstellen, die von Behörden und Strafverfolgungsbehörden auf der ganzen Welt akzeptiert werden.

Diesen Beitrag teilen