Foto: Getty
Es gibt Möglichkeiten, in der digitalen Forensik-Experten können feststellen, ob ein Bild manipuliert wurde, aber es gibt sicherlich Raum für Verbesserung, vor allem in einer Zeit, als das vortäuschen von Bildern ist nur immer einfacher, realistischer, und das gemeinste daran ist, stärker koordiniert werden. Und Forscher sehen die Technologie als offensiver zum erstellen einer fake-Bild als einen Weg, es zu erkennen.
Forscher an der New York University Tandon School of Engineering eine Studie veröffentlicht, die Neuronale Bildgebung Pipelines – die Geißel oder die Hoffnung der Forensik?—verwenden möchten, machine learning, um vor Ort fake-Fotos. Die Forscher vermuten, dass ein Nachweisverfahren gebacken werden direkt in die Quelle der fake—Kamera. Sie beschreibt eine Methode, bei der ein neuronales Netz ersetzt die Foto-Entwicklungs-Prozess, so dass das ursprüngliche Bild wird mit markiert so etwas wie ein digitales Wasserzeichen, um anzuzeigen, das Foto Herkunft in eine digitale Forensik-Analyse. In anderen Worten, der Prozess identifiziert, Fotos, Herkunft und ob Sie manipuliert wurde seit seinem ursprünglichen Zustand.
Provenienz—die chain of custody) der Inhalt—eine entscheidende information, um zu bestimmen, ob der Inhalt authentisch ist oder manipuliert wurde, in gewisser Weise. Digitale Archivare, zum Beispiel, verlassen sich zum Teil auf Werkzeuge und Technik, sowie Metadaten, um den Kontext zu verstehen, der ein Stück Arbeit. Um zu bestimmen, ob etwas geändert wurde, müssen Sie gehen zurück an die Quelle, und die NYU-Forscher glauben, dass dies getan werden kann, mit einem neuronalen Netz.
“Die Menschen sind immer noch denken nicht über Sicherheit—Sie haben zu gehen in der Nähe der Quelle, wo das Bild aufgenommen wird,” Nasir Memon, einer der Forscher auf der Studie, sagte Wired. “Also, was wir tun, in dieser Arbeit ist, die wir erstellen, ein Bild, das Forensik-freundlich, die es erlauben, besser forensische Analyse als ein typisches Bild. Es ist ein proaktiver Ansatz, anstatt nur Bilder zu schaffen, die für Ihre optische Qualität und dann hoffen, dass die Forensik-Techniken arbeiten nach der Tat.”
Laut der Studie ein neuronales imaging-pipeline “lernt einzuführen, sorgfältig gestaltete Artefakte” auf einem high-fidelity-Bild, wenn es verarbeitet wird innerhalb einer digitalen Kamera, und die Forscher behaupten, dass die Technik erhöht Bildbearbeitung Erkennungsgenauigkeit von über 45 Prozent auf über 90 Prozent. In einem Beispiel in der Studie, die maschinellen Lernens, Modell-lernen, zu erkennen, ob ein Bild direkt aus der Kamera (authentisch) oder wurde “betroffen, die durch einen bestimmten post-processing-Betrieb” (fake).
“Mit soliden Verständnis der neuronalen Bildgebung pipelines, und eine seltene Gelegenheit für den Austausch der etablierten und Sicherheit blind-Technologie, haben wir eine chance, deutlich verbessern Foto-Authentifizierung-Funktionen in Geräte der nächsten generation,” die Forscher schrieb in die Studie.
Es gibt einige Einschränkungen auf die Verbreitung dieser Art von Technik. Für den Anfang, es ist abhängig von Kamera-Designer—seien Sie digital Kamera Hersteller oder smartphone Entscheidungsträger—mit der Foto-Entwicklung-Prozesse mit machine-learning -, ausgestattet mit dieser Art von neuronalen Netzen. Und in seinem aktuellen Zustand, das system doesn ‘ T gelten für fake-videos—obwohl diese Art von Anwendung ist theoretisch möglich.
“Ein Großteil der Forschungs-Interesse liegt in der Entwicklung von Techniken des maschinellen Lernens um zu erkennen, ob etwas echt ist oder fake,” Memon sagte Wired. “Das ist definitiv etwas, das getan werden muss, wir müssen Techniken entwickeln, um zu erkennen, gefälschte und echte Bilder, aber es ist auch ein Katze und Maus Spiel. Viele der Techniken, die Sie entwickeln, wird irgendwann umgangen werden, indem angemessen und gut ausgestattet, halbwegs intelligenten Gegnern.”
Es ist auch wichtig zu beachten, dass, während diese Methode dient als ein technisch beeindruckendes Beispiel, wie zu entwickeln, Fortschritte in der Betrugs-Erkennung tech, ist es nicht ein tool entwickelt für die Allgemeine öffentlichkeit. Für akribische forensische Analyse, es ist toll. Zu kämpfen, die mit unserer zunehmend lockeren Griff auf, was real ist und was nicht, es ist eine Technik, die sich wahrscheinlich wenig bis gar keinen Effekt.
Teilen Sie Diese Geschichte