IA y Deepfakes: un dúo peligroso en las manos equivocadas

AI eta Deepfakes: okerreko eskuetan dagoen bikote arriskutsua

Celia Catalán



Adimen Artifizialaren hazkundeari esker, medikuntza, ekonomia, energia sektorea edo garraioa bezalako funtsezko sektoreak eraldatzea ahalbidetu du. Gaur egungo egoeran, Adimen Artifizialak gizarte hobeago bat eraikitzeko potentzial izugarria du. Hala ere, AI ertz biko tresna indartsua da, non helburu negatiboak edo gaiztoak dituzten irtenbideak garatzeko ustiatu daitekeen.

Zibersegurtasun mailan, Adimen Artifizialak ingeniaritza sozialeko tekniken bilakaera eta hobekuntza ahalbidetu du, zibereraso kanpaina eraginkorragoak eta detektatzeko zailagoak gauzatzea erraztuz. 

Testuinguru honetan, IAk bultzatutako iruzur berriak garatu dira, batez ere deepfake-ak sortzea dakarrena.

Zer da deepfakea?

Deepfake terminoa Deep Learning eta faltsu terminoaren konbinaziotik sortzen da. Horrela, termino honek Deep Learning bezalako Adimen Artifizialaren algoritmo konplexuak erabiliz ikus-entzunezko edukiak manipulatzen dituen teknikari egiten dio erreferentzia, oso efektu errealista emanez. Ezaugarri horrek esan nahi du gizakiaren ohiko pertzepzioaren arabera, kontsumitzen den ikus-entzunezko edukia egia ala gezurra den zehaztea oso zaila dela. 

Testuinguru honetan, identitate lapurretarako deepfake teknologia plataforma digital guztietara eta komunikazio pertsonalaren esparrura, zinema industriara, baita korporazio eta gobernu sektorera ere zabaltzea lortu du. Eduki digitalen ekoizpenean sormenerako eta berrikuntzarako aukerak zabaltzen dituen arren, pribatutasunerako eta segurtasunerako arrisku handiak ere sortzen ditu.

Deepface eta deepvoice deepfake-n oso ezagunak ez diren arren, bereizita azal ditzakegu zibersegurtasunaren munduan dauden aplikazioak ulertzeko:

  • Deepfaces: Errealismo maila handiko irudiak hutsetik sortzean datza, baina guztiz fikziozkoak izanik. 
  • Deepvoices: teknologia honek testu idatzitik oso naturalak diren giza ahots sintetikoak sortzeko aukera ematen digu. Ahotsa hutsetik sortzeaz gain, benetako pertsona baten ahotsa faltsutzea posible da AI benetako ahotsaren laginekin entrenatuz. Pertsona baten ahotsaren minutu batzuk entzunda, edozein erabiltzailek bere ahotsa klonatu eta segurtasuna eta pribatutasuna arriskuan jar ditzake.


Deepfake eta AI erasoen benetako kasuak

Irudiak, audioak eta bideoak deepfake edo faltsuen aldaketa eta sorkuntza kasu ezagun batzuk hauek dira:

  • Vladimir Putin eta Donald Trump-en deepfake: 2019an, Vladimir Putin eta Donald Trump irudikatzen zituen deepfake bideo bat partekatu zen sarean, non bi buruzagi politikoak gai serioak eztabaidatzeko agertu ziren, hala nola armen kontrola eta nazioarteko politika. Eduki mota honek nabarmentzen du nola deepfake-ak erabil daitezkeen iritzi publikoak gaizki informatzeko eta manipulatzeko.
  • Film pornografikoetako aktoreen deepfakea: deepfakeen erabilerarik eztabaidagarrienetako bat famatuak eta publikoak eszena arriskutsuetan erakusten dituzten bideo pornografiko faltsuak sortzea izan da, Emma Watson, Rosalía edo Taylor Swift-en kasua bezala. Eduki mota honek pribatutasunari eta baimenari buruzko kezka legalak eta etikoak sortu ditu. 
  • Barack Obama Deepfake: 2018an, Barack Obama AEBetako presidente ohiaren bideo deepfake bat sortu zuen Jordan Peeleren Monkeypaw Productions-ek. Bideoan, Obamak ezohiko adierazpenak eta deepfakeen arriskuei buruz ohartarazten ari dela dirudi, teknologia honi eta balizko erabilera gaiztoei buruz kontzientziatzeko egin zena. Bideoa YouTuben dago eskuragarri hurrengo estekan .
  • Ahotsaren faltsioaren kasu aipagarrietako bat 2019ko martxoan Britainia Handiko energia-enpresa bateko zuzendari nagusiarena da. Gertaera honetan, iruzurgileek adimen artifiziala erabili zuten CEOaren ahotsa imitatzeko. Goi-zuzendari honek bere ustezko nagusiaren telefono dei bat jaso zuen eta bertan 220.000 euroko transferentzia kanpoko banku-kontu batera egiteko agindu zioten. CEOak transferentzia egin zuen bere nagusiaren nortasuna egiaztatu gabe, hain ahots errealista duen telefono dei baten sinesgarritasuna ikusita.


Deepfake-n urrats bat gehiago...

Ohiko deepfakeen sofistikazioaren aurrerapenak hain dira nabarmenak, non, gaur egun, deepfake ariketak bideo-dei baten testuinguruan egin dira, eta horrek esan nahi du zuzeneko deian zehar norbanakoaren itxura eta ahotsa denbora errealean aldatzeko gaitasuna. 

Egoera honetan arazo handi bat sortzen da, iruzur mota hau detektatzeko zailtasuna handitzen baita eskala handian. Pertsonalizazio-ariketekin oraindik kontzientzia gutxi dagoen arren, litekeena da azken urteotan hedabideetako deepfake kasuak ikusita, Interneteko erabiltzaile batek ezohiko edukia islatzen duten bideo edo irudietan mesfidatzea, edo goi-kudeatzaile batek zalantza gehiago hartzea. jarrera zure nagusiaren dei baten aurrean, berriro ere, ezohiko gauzak eskatzeko. Hala ere, denbora errealeko deepfake-ek gaur egun erronka handia suposatzen dute horiek identifikatzeko zailtasuna dela eta. Eta zuk... zalantzan jarriko al zenuke denbora errealean pantailaren beste aldean ikusten eta entzuten ari zaren pertsonaren identitateaz?

Hala ere, teknika honek oraindik akats txikiak ditu buruaren mugimenduan eta perspektiban. 90º-ko modeloan buruaren biraketa edo eskuak aurpegiaren aurrean deepfake-ak oraindik modu guztiz errealistan errepikatu ez dituen pertsona baten ohiko ekintzak dira. Hori dela eta, eraso mota honetako detekzio teknikak garatu eta hobetzen diren bitartean, baliagarria izan daiteke deepfake-ak detektatzea, bideo-deia egiten ari zaren pertsonari burua mugitzeko edo besoa altxatzeko eskatuz (nahiz eta ez den gomendagarriena konponbidea!!).

Deepfakea guztion eskura dago

Deepfake-ren alderdi kezkagarrienetako bat bere irisgarritasuna da. Gaur egun, doako edo oso kostu baxuko software aukera eta aplikazio asko daude erabiltzaileei deepfake-ak erraztasun erlatiboarekin sortzeko.

Plataformak daude, esaterako https://thispersonnotexist.org/, benetako pertsonen irudiak diruditen arren guztiz faltsuak diren pertsonen erretratuak sortzen dituztenak.

Ikusizko edukia aldatzeko beste tresna ezagun batzuk myEdit edo PowerDirector dira. Tresna hauek, Vidnoz bezalako ahots-klonatzaileei gehituta, konbinazio ezin hobea dira esparru digitalean, baina baita gobernu-esparruetan ere identitateak faltsutu eta ordezkatzeko prest dauden ziberkriminalentzat.

Azkenik, DeepFaceLive DeepFaceLab software ezagunaren denbora errealeko deepfake bertsioa da.
Deepfake baliabideen bilaketa sinple batek sareko ehunka baliabide erakusten ditu konfigurazio eta hoaxe berriak erraz sortzeko.

Beste gauza bat…

Duela bi urte, multinazional txinatar batek deepfake teknologian oinarritutako eraso bat jasan zuen, non 26 milioi dolar iruzur egin zituzten. 

Eraso honek izan zuen hedabideen eragina ikusita, eta sortzen ari diren mehatxu digitalen kontzientzia pizteko borrokan, Zerolynx-ek aukera izan zuen Teams bideo-deietan deepfake-ari buruzko kontzeptu froga bat garatzeko. Javier Martín , Álvaro Caseiro eta Daniel Rico katamotzek , edozein internautarentzat eskura daitezkeen tresnak erabiliz, suplantazio ariketa bat egin zuten ingurune seguru eta kontrolatu batean, enpresa exekutibo bateko goi kargudunentzako sentsibilizazio kanpaina gisa.

Zuzenean eta bideo-dei batean zuzendari nagusiaren nortasuna ordezkatzea langileengan mesfidantza eragiten duen gertaera bat da, gertakari susmagarriak edo ezohikoak gertatzen badira, hala nola faktura berriak onartzea, aginte karguak eskuordetzea edo hornitzaileen edo bezeroen datuen aldaketak. CEOa egotea edo ez egotea espero den bilera, goi-zuzendaritzaren segurtasun-kontzientzia probatzeko aukera ona da, eta, aldi berean, gero eta ohikoagoak izango diren arriskuei buruz dauden guztiak trebatzeko.

Alba Vara , Zerolynxeko zibersegurtasun analista .


Itzuli blogera

Utzi iruzkin bat

Kontuan izan iruzkinak argitaratu aurretik onartu behar direla.