Login to your account

Username *
Password *

Kai praėjusį kovą Ukrainos viešojoje erdvėje pasklidusiame vaizdo įraše šalies prezidentas paragino piliečius sudėti ginklus ir pasiduoti Rusijai, daugeliui abejonių nekilo. Tai tebuvo prastos kokybės gilioji klastotė (angl. deepfake), kurią išdavė prastai atkartotas tonas ir nenatūralūs judesiai. Tačiau suklastoti vaizdo įrašai tobulėja ir pamažu tampa kasdienio mūsų informacinio fono dalimi, tad juos atpažinti darosi gyvybiškai svarbu.

Dirbtinio intelekto (DI) komunikacijos kompanija „DeepMedia“ prognozuoja, jog vien šiemet socialiniuose tinkluose bus pasidalinta 500 tūkstančių video ir balso klastočių, o ateinančiais metais šis skaičius turėtų augti bent keletu kartų.

„Dar praėjusių metų pradžioje, norint nuklonuoti tam tikro asmens balsą, būtų reikėję pakloti maždaug 10 tūkstančių eurų už tam reikalingus serverio pajėgumus ir DI algoritmus. Šiandien įvairūs startuoliai šią paslaugą siūlo vos už keletą eurų, todėl ilgainiui turėsime susitaikyti su giliųjų klastočių egzistavimu ir išmokti neužkibti ant jų kabliuko. Didžiosios bendrovės jų atpažinimui siekia panaudoti kraujagyslių skenavimą ir kitus pažangius būdus, bet kol kas prastesnes klastotes dar galime pastebėti atkreipę dėmesį į išsiliejusias detales, nenatūralius lūpų judesius ir ją platinantį šaltinį“, – teigia „Telia“ Skaitmeninės pažangos centro dirbtinio intelekto ekspertas prof. Paulius Pakutinskas. 

Klastotės jokiu būdu nėra nauji reiškiniai, jos gali būti vertinamos kaip nauja senesnės technologijos išraiška. „Deepfake“ technologija turi rimtų pasekmių visos audiovizualinės medžiagos patikimumui, o tai gali sukelti daug įvairių galimų socialinių ir finansinių nuostolių, taip pat manipuliavimą demokratiniais procesais ir finansų, teisingumo ir mokslo sistemomis.  Tad garso ir grafiniai įrodymai turės būti vertinami su didesniu skepticizmu ir atitikti aukštesnius standartus.

Nuo šantažo iki sugadintos karjeros

P. Pakutinskas atkreipia dėmesį, kad giliosios klastotės gali turėti įtakos ir kasdieniame žmonių gyvenime. Sukčiai jau naudojasi jomis, siekdami išvilioti pinigus už tariamai avarijoje nukentėjusius artimuosius. Bandydami įrodyti apgaulę, nusikaltėliai suklastoja vaizdo įrašą iš įvykio vietos ar šantažuoja sukurtomis kompromituojančiomis nuotraukomis su žmonių veidais.

„Giliosioms klastotėms skverbiantis į mūsų kasdienybę, žmonės gali atsidurti situacijose, kuriose tikrai nenorėtų būti. Pavyzdžiui, pornografinio pobūdžio nuotraukose panaudojamas žmogaus veidas, o tyčia pabloginus kokybę tampa beveik neįmanoma atskirti, ar tai yra klastotė. Taip žmonės yra šantažuojami, siekiant finansinės naudos ar kitų savanaudiškų paskatų“, – atskleidžia P. Pakutinskas.

Tokios klastotės gali turėti neigiamos įtakos ir žmonių karjerai, ypač darbo vietose, kuriose yra reikalinga nepriekaištinga reputacija. Nuotraukoms pasklidus internete, jas gali pamatyti ir darbdaviai, ir klientai, o tai gali padaryti nepataisomą žalą ir sugadinti žmogaus gyvenimą.

Skaitmeninės pažangos centro ekspertas pabrėžia, kad kuo suklastotos nuotraukos ar vaizdo įrašo kokybė prastesnė, tuo sunkiau gali būti ją identifikuoti, todėl žmonės turėtų būti itin budrūs tokiose situacijose ir aklai nepasitikėti visa pamatoma skaitmeninės erdvės informacija. Svarbu nuolat ją patikrinti kelis kartus ir keliuose patikimuose šaltiniuose.

Išduoda kraujotaka ir akys

Giliosios klastotės savo vardą pelnė dėl jų kūrimui naudojamos giliojo mokymosi technologijos, kuri, pasitelkdama DI algoritmus ir didžiulius duomenų kiekius, „išmoksta“, kaip mums reikalingo asmens veidas atrodo iš skirtingų kampų, ir jį paverčia savotiška skaitmenine kauke. Taip atsiranda galimybė pastarąją „uždėti“ kokiame nors kitame vaizdo įraše nufilmuotam asmeniui, apgavystę papildant DI taip pat išmoktu protagonisto balsu.

Kol visa tai mėgėjiškai naudojama vienų garsių aktorių pakeitimu kitais populiarių filmų scenose ar satyriniams Tomo Kruzo klipams, kuriuose pastarasis įkūnijamas į valytoją, didelės grėsmės nėra. Deja, analitikai baiminasi, kad šie technologiniai sprendimai gali būti panaudoti, pavyzdžiui per kitąmet vyksiančius JAV prezidento rinkimus, kaip priemonė skleisti dezinformaciją apie kandidatus. Tokios priemonės gali būti pasitelktos ir kitose situacijose kada norima iškreipti, suklastoti realybę, dezinformuoti žmones.

„Siekiant kuo greičiau iš socialinių tinklų pašalinti tokias klastotes, tampa vis aktualiau jas greitai ir patikimai atpažinti. Kompiuterių inžinerijos  milžinė „Intel“ šį procesą ketina palengvinti naudodama Fotopletizmografijos technologiją, kuri vaizdo įraše aptiks jame rodomo asmens veido kraujotaką. Bendrovės mokslininkai pastebėjo, jog priešingai, nei autentiškuose klipuose kalbančių žmonių, DI „kaukių“ veido kraujagyslės nesusitraukinėja. Be to, šiai sistemai padeda ir tai, kad „deepfake“ akys nebūna sukoncentravusios žvilgsnio ir juda atskirai viena nuo kitos“, – atskleidžia P. Pakutinskas. 

„Intel“ teigimu, „FakeCatcher“ pakrikštyta sistema pasižymi net 96 proc. klastočių atpažinimo efektyvumu, tačiau ją išbandę BBC atstovai pastebėjo, jog tokius puikius rezultatus pasiekti pavyksta tik turint pakankamai geros kokybės vaizdo įrašus.

Kol kas pakanka pastabumo

Nors „Intel“ sistemos testai rodo didelį potencialą, „Telia“ Skaitmeninės pažangos centro atstovo teigimu, kol kas didžiąją dalį giliųjų klastočių gali padėti atskirti elementarus pastabumas. Pastebėjus įtartiną vaizdo įrašą socialinėje erdvėje, pirmiausia reikėtų įvertinti, ar jis nėra paskelbtas iš įtartino bei jokios kitos asmeninės informacijos neturinčio profilio. Pastarieji įprastai sukuriami būtent dezinformacijos skleidimui, todėl tai aptikus mintyse iškart turėtų užsidegti raudona lemputė.

„Po to dėmesį vertėtų nukreipti į kalbantįjį. DI kol kas dar nesugeba idealiai atkartoti odos reljefo, todėl patartina įsižiūrėti, ar skruostų ir kaktos odos amžius nesiskiria – ar oda nėra per raukšlėta, o gal kaip tik pernelyg lygi, ar ji sutampa su kitų kūno dalių oda. Algoritmams kyla sunkumų ir su apgamais, barzda bei kitomis mažesnėmis detalėmis, todėl vaizdo įrašai gali atrodyti lyg susilieję ir neryškūs. Visgi klastotojams dažniausiai koją pakiša nenatūrali kūno kalba, tam asmeniui nebūdingas mirksėjimo dažnis ir, žinoma, lūpų judesiai, vis dar neretai atrodantys, kaip primontuoti nuo kito žmogaus“, – giliųjų klastočių atpažinimo būdus vardina pašnekovas.

Vis dėlto specialistas prognozuoja, jog šie paprasti metodai gali nebeveikti jau po poros metų. Piktų kėslų turintys asmenys puikiai supranta dabartinius technologijų ribotumus, todėl investuoja į DI algoritmų tobulinimą ir bando ištaisyti visas jų spragas. 

Ateityje – neišvengiamas reguliavimas

Pasak „Telia“ Skaitmeninės pažangos centro eksperto, stebint spartų DI technologijų vystymąsi, neatmestina, kad jau po trejų-ketverių metų viešojoje erdvėje galėtų sklisti plika akimi nuo tikrovės neatskiriamos klastotės, kas kelia didelį pavojų net nacionaliniam saugumui ir visuomenėje vykstantiems procesams. Nenuostabu, kad pasaulyje vis labiau linkstama į griežtesnį „deepfake“ teisinį reguliavimą.

„Pirmoji šiuo keliu žengė Kinija, dar šių metų pradžioje įpareigojusi giliųjų klastočių kūrimo paslaugas teikiančias bendroves gauti naudotojų tapatybes. Ši šalis taip pat nusprendė privalomai ženklinti visą su šia technologija susijusį turinį. Giliųjų klastočių grėsmių neignoruoti nusprendė ir Kanada, be visuomenės švietimo ir investicijų į „deepfake“ aptikimo sprendimus, nusprendusi kurti blogais tikslais platinamas klastotes draudžiančius teisės aktus“, – užsienio praktika dalinasi ekspertas.

„Deepfake“ keliamų rizikų klausimus Europos Sąjunga sprendžia net keliuose svarbiuose teisės norminiuose aktuose, priimtas atskiras ES kovos su dezinformacija praktikos kodeksas bei Skaitmeninių paslaugų aktas, kurie galės daryti žymią įtaką ir didžiausioms technologijų kompanijoms, jų valdomoms socialinių tinklų platformoms.

Europos Sąjunga siekia sistemiškai reguliuoti ir valdyti galimas DI rizikas skirstydama DI sprendimus pagal jų galimai keliamą riziką. Sprendimus prieštaraujančius ES vertybėms ir pažeidžiančius žmogaus teises visiškai drausti, o aukštos rizikos sprendimus griežtai reguliuoti ir kovoti ne tik su pasekmėmis, bet ir taikyti išankstinį reguliavimą, todėl priėmus Dirbtinio Intelekto Aktą galime tikėtis naujų griežtų teisinių priemonių kovojant ir su „deepfake“.

Per pastaruosius kelis dešimtmečius dirbtinis intelektas sparčiai vystėsi – dabar jis pritaikomas ir teikia naudą įvairiose srityse, tačiau kibernetinių nusikaltėlių rankose jis gali pridaryti nemažai žalos. Šia technologija paremtos giliųjų klastočių (angl. „deepfake“) apgaulės kelia grėsmę vartotojų ir įmonių saugumui internete. Svarbu žinoti ne tik kaip veikia ši virtuali apgaulė, bet ir gebėti atpažinti ją išduodančius ženklus.

Itin tikroviškai suklastotas vaizdinis arba garsinis turinys gali lengvai suklaidinti vartotojus. Žinojimas, kaip veikia ši technologija ir kokie ženklai signalizuoja apie padirbtą turinį, leidžia žmonėms atskirti šio tipo atakas bei nuo jų apsisaugoti“, – teigia Mantas Užupis, „Tele2“ IT saugumo ekspertas.

Vaizdo ir garso turinio padirbimas

Giliosios klastotės, geriau žinomos kaip „deepfake“ apgaulės, yra apibūdinamos kaip vaizdo ar garso padirbimas, naudojant dirbtinį intelektą ir mašininį mokymąsi. Giluminės klastotės imituoja žmonių veidus, judesius ir balsus taip tiksliai, kad dažnai iš pirmo žvilgsnio jų neįmanoma atskirti nuo tikrų.

Dėl itin sudėtingų mašininio mokymosi algoritmų galima manipuliuoti biometriniais duomenimis, pavyzdžiui, veido išraiškomis ir žmogaus balso tembru. Taip siekiama sukurti tikroviškus, niekada neįvykusių įvykių ar pasisakymų, atvaizdus. Viena vertus, technologijos potencialas keisti garsą ir vaizdo įrašus teikia naudą filmų, garso inžinierių ir reklamos agentūrų veiklose, tačiau šios technologijos kelia grėsmę, nes yra naudojamos apgaulei bei neteisingos informacijos skleidimui.

Naudojamos technologijos

Giliosios klastotės remiasi dirbtinio intelekto kompiuterinėmis sistemomis, vadinamomis dirbtiniais neuronų tinklais. Norint sukurti „deepfake“ turinį, kūrėjas šiam neuronų tinklui turi pateikti didžiulį kiekį tikros medžiagos, kad apmokytų kompiuterį atpažinti detalias žmogaus savybes. Tai padeda algoritmui realiai suprasti, kaip asmuo atrodo iš skirtingų kampų.

Apmokytas neuronų tinklas sujungiamas su kompiuterinės grafikos metodais, kad reali medžiaga būtų uždengta dirbtinio intelekto sintetintais veido ir kalbos modeliais. Nors manoma, kad giluminei klastotei reikia sudėtingų įrankių ir ekspertinių įgūdžių, tai nėra tiesa – ją galima sukurti ir turint elementarias kompiuterinės grafikos žinias. Kadangi internete gausu laisvai prieinamo vaizdo ir garso turinio – kibernetiniai nusikaltėliai turi puikias sąlygas jį panaudoti giliųjų klastočių kūrimui bei skleidimui socialiniuose tinkluose.

Apgaulės atpažinimas

Nors vaizdo ir garso klastotės neretai būna itin įtikinamos, visgi keli požymiai gali įspėti vartotojus apie šio tipo ataką. Pirmasis ir svarbiausias žingsnis – atidžiau pažvelgti į įrašo šaltinį, kokybę ir detales, kurios išduoda apie turinio suklastojimą.

Nenatūralus kalbos ritmas. Kuriant „deepfake“ turinį siekiama padaryti vaizdo įrašą kuo tikroviškesnį, tačiau jo garsui nėra skiriama labai daug dėmesio. Todėl padirbtuose įrašuose žmonės gali kalbėti su itin monotonišku balsu, neteisingai ar keistai tarti žodžius, gali būti girdimas foninis triukšmas arba aidas. Palyginę kelis to paties kalbėtojo įrašus tarpusavyje, vartotojai gali įsitikinti, ar balsas ir kalbėjimo tonas sutampa.

Nenatūralus mirksėjimas ar judesiai. Žmogus paprastai mirksi kas 2-8 sekundes, tačiau „deepfake“ technologija dar neįvaldė tokio gebėjimo. Jeigu abejojama vaizdo įrašo originalumu, vertėtų pastebėti akių judesius – klastotėse žmonės mirksi nenatūraliai arba nemirksi visai. Kadangi technologija vis dar tobulinama, perėjimai nuo vienos veido išraiškos prie kitos taip pat atrodo nenatūraliai. Padirbtuose įrašuose kalbantys asmenys paprastai atrodo taip, tarsi šiek tiek persistengtų. Be to, jų burnos judesiai nėra visiškai sinchronizuoti su kalba, pastebimi trūkčiojantys kūno judesiai.

Apšvietimo pokyčiai. Klastojant vaizdo įrašą daug dėmesio skiriama veido perėjimui tarp kadrų, tačiau neretai pamirštamas skiriamojo objekto ir jo aplinkos apšvietimo sureguliavimas. Jeigu pastebimas netaisyklingas šviesos šaltinio pasikeitimas arba jeigu objekto ryškumas kadruose akivaizdžiai skiriasi – įrašas gali būti suklastotas.

Odos spalva. Vienas geriausių būdų nustatyti, ar įrašas suklastotas – ieškoti odos spalvos pokyčių ir nenatūralių linijų ant veido, žyminčių dviejų odos atspalvių pasikeitimą. Pastebėjus, kad perėjimas tarp odos atspalvių yra netolygus ir mirguliuoja kraštuose, galima įtarti, jog vaizdo įrašas sukurtas naudojant „deepfake“ technologiją.

Kelios lyderiaujančios technologijų bendrovės jau kuria savo sprendimus, kaip kovoti su „deepfake“. „Microsoft“ ir „Google“ teikia duomenų rinkinius, kuriais naudodamiesi kūrėjai gali mokyti savo sistemas aptikti gilumines klastotes. Bendrovė „Facebook“ kartu su „Microsoft“, „Amazon Web Services“ ir pirmaujančiais pasaulio universitetais paskelbė „Deepfake Detection Challenge“, kurio tikslas – sukurti suklastotų vaizdo įrašų aptikimo sprendimus.

 „Samsung“ užmezgė partnerystę su jauniausia šių metų Lietuvos olimpiete – pasaulio čempione Dominika Banevič

Įvardijo, kokias didžiausias klaidas daro keliautojai: nepasitikrinę ryšio nustatymų, galite būti nepasiekiami

Prie ekranų vaikai praleidžia ilgiau, nei manote: įveikti tėvų kontrolės nustatymus jiems – juokų darbas

Masyvūs žemi dažniai. „Sony“ pristato naują garsiakalbių ir ausinių seriją ULT POWER SOUND

Paprastai ir aiškiai: kodėl įspėjamuosius pranešimus kartais gauna ne visi gyventojai?

Geros žinios „Facebook“ senbuviams: sugrąžinta naudotojų itin mėgta sena funkcija

Paaiškino, ką daryti, jei stringa mėgstamiausias kompiuterinis žaidimas 

Logitech G pristato PRO X 60 žaidimų klaviatūrą su Keycontrol technologija – kompaktiška ir sukurta laimėti

Kibernetiniai išpuoliai: „fintech“ ekspertai pataria, kaip apsisaugoti ne tik jums, bet ir kokių priemonių imtis versle

Ar muzikos per ausines klausotės saugiu garsu? Kelios klaidos gali lemti suprastėjusią klausą

„Samsung“ pristatė naujus populiariosios „Galaxy A“ serijos telefonus: ryškesnė naktinė fotografija ir flagmanų lygio duomenų sauga

Mobilų telefoną naudojo net kelis dešimtmečius: kaip padidinti įrenginio ilgaamžiškumą?

Išlaisvinkite žaidimų galią su epiniu AOC 44,5 colių OLED monitoriumi

„404“ klaida: nuo konspiracijos teorijų iki interaktyvių žaidimų pasiklydusiems internete

Pasitikrinkite dar kartą: primena, kaip telefone įsijungti saugos pranešimus

Naujausias tyrimas: nutekinti 77 mln. slapukų iš Lietuvos