Lokaðu auglýsingu

Deepfake - tæknin sem gerir það mögulegt að skipta út andlitum fólks á myndum og myndböndum fyrir andlit einhvers annars, hefur þróast á undanförnum árum í það form að munurinn á raunverulegu myndefni og fölsuðum gögnum er að verða sífellt flóknari. Á síðum með klámfengnu efni, til dæmis, er deepfake notað til að búa til hrífandi myndbönd með líkum frægra leikara. Auðvitað fer þetta allt fram án samþykkis persónuleikans sem ráðist hefur verið á og þökk sé aukinni fágun tækni sem notar vélanám breiðist ótti út um aðrar mögulegar misnotkun þess. Ógnin um að djúpfölsun gæti algjörlega ófrægt stafrænar skrár sem sönnunargögn í dómsmálum er raunveruleg og hangir yfir réttargeiranum eins og Damóklessverðið. Góðu fréttirnar koma núna frá Truepic, þar sem þeir hafa fundið upp einfalda leið til að sannreyna áreiðanleika skráninga.

Höfundar hennar kölluðu nýju tæknina Foresight, og í stað viðbótar myndbandsgreiningar og ákvarða hvort um djúpfalsun sé að ræða, notar hún tengingu einstakra upptaka við vélbúnaðinn sem þær voru búnar til til að tryggja áreiðanleika. Framsýni merkir allar færslur eins og þær eru búnar til með sérstöku setti af dulkóðuðum lýsigögnum. Gögn eru geymd á algengu sniði, í forskoðun síðunnar Android Lögreglan fyrirtækið sýndi fram á að mynd sem tryggð er með þessum hætti er hægt að vista á JPEG sniði. Svo það er enginn ótta við ósamrýmanleg gagnasnið.

En tæknin þjáist af röð af litlum flugum. Sú stærsta er líklega sú staðreynd að skrárnar skrá ekki enn þær breytingar sem hafa verið gerðar á þeim. Lausnin er að taka fleiri fyrirtæki með sem myndu styðja þessa öryggisaðferð. Árangur tækninnar mun því aðallega ráðast af aðkomu stærstu framleiðenda myndavéla og fartækja, undir forystu Samsung og Applem. Ertu hræddur um að einhver misnoti útlit þitt? Deildu skoðun þinni með okkur í umræðunni fyrir neðan greinina.

Mest lesið í dag

.