Luk annoncen

Deepfake – teknologien, der gør det muligt at erstatte folks ansigter på billeder og videoer med andres ansigter, har i de senere år udviklet sig til en form, hvor forskellen mellem ægte optagelser og falske data bliver mere og mere kompliceret. På websteder med pornografisk indhold bruges deepfake for eksempel til at skabe pirrende videoer, der ligner berømte skuespillere. Alt dette foregår naturligvis uden samtykke fra de angrebne personligheder, og takket være den stigende sofistikering af teknologi, der bruger maskinlæring, breder frygten sig om andre mulige former for misbrug. Truslen om, at en deepfake fuldstændig kan miskreditere digitale optegnelser som bevismateriale i retssager, er reel og hænger over retssektoren som Damokles-sværdet. Den gode nyhed kommer nu fra Truepic, hvor de har fundet på en enkel måde at verificere ægtheden af ​​fortegnelser på.

Dens skabere kaldte den nye teknologi Foresight, og i stedet for yderligere videoanalyse og afgøre, om det er en deepfake, bruger den sammenkædningen af ​​individuelle optagelser til den hardware, som de blev oprettet på, for at sikre ægthed. Fremsyn mærker alle poster, når de er oprettet med et særligt sæt af krypterede metadata. Data gemmes i almindelige formater, i forhåndsvisningen til siden Android Police virksomheden demonstrerede, at et billede, der er sikret på denne måde, kan gemmes i JPEG-format. Så der er ingen frygt for inkompatible dataformater.

Men teknologien lider under en række små fluer. Den største er nok det faktum, at filerne endnu ikke registrerer de ændringer, der er foretaget i dem. Løsningen er at involvere flere virksomheder, der vil understøtte denne sikkerhedsmetode. Teknologiens succes vil således hovedsageligt blive bestemt af involveringen af ​​de største producenter af kameraer og mobile enheder, ledet af Samsung og Applem. Er du bange for, at nogen kan misbruge dit udseende? Del din mening med os i diskussionen under artiklen.

Dagens mest læste

.