Faltsutze sakona gero eta errazago

Gorka Julio

2019, Urria 18
Arloa: Sarean

Bideo batean agertzen den pertsona baten irudia beste batekin ordezkatzeko gai diren adimen artifiziala baliatzen duten sistemak garatzen hasi dira. Horrek aukera emango luke edizio askorik egin gabe bideo bat editatu eta bertan agertzen den pertsona bat, adibidez, beste batekin ordezkatzeko; deep fake, faltsutze sakona deitzen hasi zaio horri.

Bideo batean agertzen den pertsona baten irudia beste batekin ordezkatzeko gai diren adimen artifiziala baliatzen duten sistemak garatzen hasi dira. Horrek aukera emango luke edizio askorik egin gabe bideo bat editatu eta bertan agertzen den pertsona bat, adibidez, beste batekin ordezkatzeko; deep fake, faltsutze sakona deitzen hasi zaio horri.

Bideo deep fake hauen gorakada ematen ari da, pornografiaren ondorioz bereziki. Bideo politikoak ere badaude, baina ez dira izaera politikoko bideoak nagusi oraindik. Gehienbat, bideo bat hartu eta horietan famatuen aurpegiekin ordezkatzen dituzten bideoak dira gehien zabaltzen ari direnak.

Hala ere, badirudi legegileen kezka handietako bat hurrengo hauteskundeetan teknologia hauek izan dezaketen eragina dela. Hauteskunde manipulazio baten mamuak beldurtzen ditu, hauteskunde horien emaitzetan eragin erabakigarria izan dezaketelako edo.

Kasu asko daude, onak eta txarrak, baita dibertigarriak edota arraroak ere. David Hasselhoff aktore ezagunaren gaur egungo elkarrizketa bat hartu eta “Los vigilantes de la playa” garaian zuen gaztetasuna berreskuratu zuenarena adibidez.

 

 

Onerako erabili liteke, faltsutze sakon honen bidez adibidez, pertsonen anonimotasuna ere ziurtatu daiteke, baina espresioa oraindik mantenduz. Aurpegiak belzten diren bezala, antzeko funtzioa egin dezake, baina oraindik espresio nagusiak mantenduz edota pertsona baten aurpegia guztiz ezberdina den beste batengatik aldatuz.

Dibertigarria ere izan daiteke, gure aurpegiaren datuekin zer egingo duten ez badakigu ere zenbait aplikaziok arrakasta izugarria lortzen ari dira. Horietako bat, fenomeno biral bihurtu den ZAO txinatarra da, faltsutze sakoneko bideo pertsonalak egiteko aukera ematen duena eta adibidez Leonardo di Caprioren gorputzean jarri.

Zer gertatuko litzateke baina, faltsutze sakonaren bidez bideoak hedatu eta pertsonengan eragiteko helburua duen norbait egongo balitz? Hau jada ez da aukera bat, errealitate bat baizik. Gertatzen ari da eta gero eta gehiago gertatuko da. Adimen artifizialaren erabilerarekin, asko aldatu da panorama eta lehen egiten zaila zena orain askoz errazagoa da. Errazagoa oraindik FSGAN algoritmoak garatzen hasi direnetik.

Software berri honek, FSGAN edo Face Swapping GAN bideo formatuan faltsutze sakon hauek sortzeko bi teknika ezberdin erabiltzeko aukera ematen digu: aurpegi trukea, zeinarekin pertsona baten aurpegia beste baten gorputzean gainjartzen dugun, eta aurpegi antzezpena, zeinaren bidez aurpegi batean, beste baten keinuak baliatuz birsortu daitekeen. Bi horien konbinazioz emaitza izugarriak lor daitezke.

FSGANen berrikuntza nagusia halere, hau dena egiteko beharrezkoa izaten ohi den algoritmoen entrenamendu denbora, kasu batzuetan egunak eta hardware garestiarik gabe egiteko aukera da. Denbora aurreztea ez da berrikuntza handi bakarra, honek dakarren faltsutze sakonen sorrerarako sinpletasuna ere nabarmentzekoa da. Orain, teknologia horren oinarrizko ezagutza batzuk dituen edonork faltsifikazio berriak sortu ahal izango ditu, “Lan astuna” erabat automatizatuta egotera pasatzen delako.

Zenbait tokitan lege bidez, bideo-faltsutze hauen aurkako arauak egiten ari dira. Esate baterako, Kalifornian hauen aurkako arautegiak martxan dago jada. Zenbait zerbitzuk ere, hauen detekzioan lanean ari da, baina bakoitzak eta kolektiboki ikusten duen hori filtrorik gabe irensteko daukan erraztasuna edo zailtasuna izango da beti azken muga. Horregatik gero eta garrantzitsuagoa izango da zentzu kritikoa lantzea eta informazioarekiko harreman osasuntsuak eraikitzea.