Išmanių ir klimatui neutralių kompetencijų centras
Išmanių ir klimatui neutralių kompetencijų centro naujienos
VILNIUS TECH mokslininkai kuria dirbtinio intelekto technologijomis paremtą sprendimą, kuris padės atpažinti išmaniąsias vaizdo klastotes
2023-05-26
VILNIUS TECH mokslininkai kuria dirbtinio intelekto technologijomis paremtą sprendimą, kuris padės atpažinti išmaniąsias vaizdo klastotes
Tekstą parengė Liudvikas Vilimas
Generatyvinio dirbtinio intelekto (angl. Generative Artificial Intelligence) proveržis atvėrė daug naujų galimybių, vis dėlto šiandien vis garsiau kalbama ir apie grėsmes. Socialinių tinklų erdvę jau užplūdo DI programomis sugeneruotas vaizdinis turinys, kuris naudojamas dezinformacijai skleisti. Neseniai internetą apskriejo vaizdo klastotė – sprogimų šalia Pentagono nuotraukos, kurios, būdamos akivaizdžiai fiktyvios, turi kitą paskirtį – šiais įvaizdžiais siekiama psichologiškai paveikti žmones, o kas, jeigu šis melas būtų tiesa? Informacinio karo mūšio laukas visada buvo ir yra žmonių protai. Fiktyvios nuotraukos visų pirma pasirodė socialiniame tinkle „Facebook“, vėliau išplito į tinklą „Twitter“ ir nors netrukus buvo pašalintos, bet padarė įtaką net akcijų biržos kritimui, praneša „The New York Times“ ir „Bloomberg“. DI sugeneruotas turinys tampa dar vienu informacinio karo įrankiu.
Vienas geriausių pasaulyje vaizdinio turinio kūrimo ir redagavimo programinės įrangos gamintojų „Adobe“ neseniai pristatė naują technologinį sprendimą „Firefly“, kuris papildys ir populiariąją programą „Photoshop“ įrankiu „Generative AI Fill“. „Adobe“ jau daugybę metų kuria pažangius DI sprendimus darbui su vaizdo medžiaga, tokie įrankiai kaip „Content-Aware Fill“ palengvindavo darbą vaizdinio turinio kūrėjams, bet naujasis generatyvinio DI sprendimas ne tik atvers erdves kūrybinei išraiškai, bet ir ženkliai pagreitins darbą. Ir nebereikia profesionalių įgūdžių, kai DI viską padaro už tave. Vaizdo klastojimui tai taip pat naujas etapas, nes lengviau ir greičiau. Nekalbant apie gerėjančius įrankius, kaip „Midjourney“ ar „Stable Diffusion“.
Manipuliavimas vaizdu, pavyzdžiui, nuotraukų manipuliacijos, agresoriaus naudojamos jau daugiau nei šimtą metų. Šiais laikais vis plačiau naudojamos išmaniosios vaizdo klastotės (angl. Deep Fake). Galima sugeneruoti bet kurio žmogaus veidą, balsą ir įkelti suklastotą asmenį į tiesiogiai socialiniuose tinkluose transliuojamą vaizdo įrašą. Sukurti įtikinamą vaizdo klastotę laiko ir įgūdžių reikalaujantis procesas – taip prieš daugybę metų sakydavo Vilniaus Gedimino technikos universiteto (VILNIUS TECH) Multimedijos ir kompiuterinio dizaino studentai, bet šiandienos technologijos leidžia tai padaryti per penkiolika minučių.
Pasak pažangių DI technologijų kūrėjo, VILNIUS TECH mokslininko ir Elektroninių sistemų katedros vedėjo prof. dr. Artūro Serackio, net aukščiausios kokybės išmaniąją vaizdo klastotę atpažinti įmanoma, ypač jei veidas juda vaizdo įraše, iššūkis – atpažinti ją realiu laiku. Mokslininkas kartu su komanda kuria inovatyvų sprendimą – kurio visų veikimo principų ir naudojamų technologijų neatskleidžia – leisiantį identifikuoti vaizdo klastotę akimirksniu, ypač jei tai DI sugeneruotas vaizdas.
„Pavyzdžiui, pakalbėkime apie suklastotą veidą. Mūsų kuriamas sprendimas, naudojantis vaizdo atpažinimo technologijas, geba nustatyti ir analizuoti itin didelį kiekį veido taškų – stebime veido raumenų judesių, mimikos, net akies vyzdžio pokyčių seką (skaitmeninis vaizdas yra skaičių seka, savaime suprantama) ir galime identifikuoti, ar šie pokyčiai yra sugeneruoti. Kitąmet rinkimai, kalbu ne apie JAV prezidento rinkimus, bet apie Europos Parlamento rinkimus, tad mūsų technologija yra itin aktuali, nes galėtų užkirsti kelią manipuliacijoms vaizdu informacinėje erdvėje per rinkimų laikotarpį“, – sako mokslininkas.
Sprendimų ėmėsi ir didžiosios technologijų įmonės. Gegužės pradžioje Baltuosiuose rūmuose vyko didžiųjų DI technologijas kuriančių įmonių vadovų, tokių kaip „Alphabet“ (įmonė valdanti „Google“), „Microsoft“, „OpenAI“, „Anthropic“, susitikimas su JAV administracija, kurio metu buvo kalbama ne tik apie DI galimybes, bet ir grėsmes, apie saugų DI. Prieš savaitę Tokijuje vykusiame G7 viršūnių susitikime taip pat buvo aptartos grėsmės, kurias kelia DI, o susitikimo dalyvė Europos Sąjunga siekia įteisinti pirmąjį pasaulyje DI reguliuojantį teisės aktą „AI Act“. Tuo metu „Google“ jau anksčiau ėmėsi veiksmų kovai su vaizdo manipuliacijomis ir vasarą į savo atnaujinamą paieškos sistemą įtrauks funkciją „About this image“, kuri leis nuspėti, ar paveikslėlis yra klastotė (kada buvo pradėtas indeksuoti, ar juo pasidalino patikimi naujienų šaltiniai), taip pat skelbs ar jis buvo sugeneruotas su DI.
„Pasaulio lyderiai ir didžiosios technologijų įmonės gali kalbėti apie saugų DI ir reguliavimą, bet nepriklausomi atviros prieigos (ir atvirojo kodo) įrankiai yra kita tema. VILNIUS TECH studentai paskaitos metu patys gali sukurti puikius DI įrankius. O mums priešiškose valstybėse informacinių technologijų ir elektronikos studentai, kaip manote, ar domisi DI reguliavimo gairėmis? Jokiu būdu nestabdydami šios technologinės pažangos, turime rasti sprendimų, kurie užkirstų kelią tokioms grėsmėms, kaip dezinformacija – mes koncepciją išmaniųjų vaizdo klastočių atpažinimui realiu laiku turime ir ją tikimės su partneriais „Acrux Cyber Services“ bei „Debunk EU“ įgyvendinti siekdami apsaugoti ne tik Europos ir NATO, bet ir viso laisvojo pasaulio informacinę erdvę. Kartu su partneriais plėtojame ir kitas DI technologijas, skirtas kovai su dezinformacija“, – sako mokslininkas.
Mokslininkas taip pat atkreipia dėmesį, kad turėtume nenustoti ugdyti visų visuomenės narių, bet ypač jaunosios kartos, kritinį mąstymą. „Ne DI technologijos, bet sancta simplicitas, naivumas, yra ir visais laikais buvo problema. Ugdykime kritinį mąstymą, tai geriausias būdas apsiginti ne tik nuo sumanių kibernetinių nusikaltėlių, bet ir nuo agresoriaus, informaciniame kare naudojančio psichologinio teroro metodus“, – teigia prof. dr. A. Serackis.
Su profesoriaus moksliniais tyrimais galite susipažinti čia.
Generatyvinio dirbtinio intelekto (angl. Generative Artificial Intelligence) proveržis atvėrė daug naujų galimybių, vis dėlto šiandien vis garsiau kalbama ir apie grėsmes. Socialinių tinklų erdvę jau užplūdo DI programomis sugeneruotas vaizdinis turinys, kuris naudojamas dezinformacijai skleisti. Neseniai internetą apskriejo vaizdo klastotė – sprogimų šalia Pentagono nuotraukos, kurios, būdamos akivaizdžiai fiktyvios, turi kitą paskirtį – šiais įvaizdžiais siekiama psichologiškai paveikti žmones, o kas, jeigu šis melas būtų tiesa? Informacinio karo mūšio laukas visada buvo ir yra žmonių protai. Fiktyvios nuotraukos visų pirma pasirodė socialiniame tinkle „Facebook“, vėliau išplito į tinklą „Twitter“ ir nors netrukus buvo pašalintos, bet padarė įtaką net akcijų biržos kritimui, praneša „The New York Times“ ir „Bloomberg“. DI sugeneruotas turinys tampa dar vienu informacinio karo įrankiu.
Vienas geriausių pasaulyje vaizdinio turinio kūrimo ir redagavimo programinės įrangos gamintojų „Adobe“ neseniai pristatė naują technologinį sprendimą „Firefly“, kuris papildys ir populiariąją programą „Photoshop“ įrankiu „Generative AI Fill“. „Adobe“ jau daugybę metų kuria pažangius DI sprendimus darbui su vaizdo medžiaga, tokie įrankiai kaip „Content-Aware Fill“ palengvindavo darbą vaizdinio turinio kūrėjams, bet naujasis generatyvinio DI sprendimas ne tik atvers erdves kūrybinei išraiškai, bet ir ženkliai pagreitins darbą. Ir nebereikia profesionalių įgūdžių, kai DI viską padaro už tave. Vaizdo klastojimui tai taip pat naujas etapas, nes lengviau ir greičiau. Nekalbant apie gerėjančius įrankius, kaip „Midjourney“ ar „Stable Diffusion“.
Manipuliavimas vaizdu, pavyzdžiui, nuotraukų manipuliacijos, agresoriaus naudojamos jau daugiau nei šimtą metų. Šiais laikais vis plačiau naudojamos išmaniosios vaizdo klastotės (angl. Deep Fake). Galima sugeneruoti bet kurio žmogaus veidą, balsą ir įkelti suklastotą asmenį į tiesiogiai socialiniuose tinkluose transliuojamą vaizdo įrašą. Sukurti įtikinamą vaizdo klastotę laiko ir įgūdžių reikalaujantis procesas – taip prieš daugybę metų sakydavo Vilniaus Gedimino technikos universiteto (VILNIUS TECH) Multimedijos ir kompiuterinio dizaino studentai, bet šiandienos technologijos leidžia tai padaryti per penkiolika minučių.
Pasak pažangių DI technologijų kūrėjo, VILNIUS TECH mokslininko ir Elektroninių sistemų katedros vedėjo prof. dr. Artūro Serackio, net aukščiausios kokybės išmaniąją vaizdo klastotę atpažinti įmanoma, ypač jei veidas juda vaizdo įraše, iššūkis – atpažinti ją realiu laiku. Mokslininkas kartu su komanda kuria inovatyvų sprendimą – kurio visų veikimo principų ir naudojamų technologijų neatskleidžia – leisiantį identifikuoti vaizdo klastotę akimirksniu, ypač jei tai DI sugeneruotas vaizdas.
„Pavyzdžiui, pakalbėkime apie suklastotą veidą. Mūsų kuriamas sprendimas, naudojantis vaizdo atpažinimo technologijas, geba nustatyti ir analizuoti itin didelį kiekį veido taškų – stebime veido raumenų judesių, mimikos, net akies vyzdžio pokyčių seką (skaitmeninis vaizdas yra skaičių seka, savaime suprantama) ir galime identifikuoti, ar šie pokyčiai yra sugeneruoti. Kitąmet rinkimai, kalbu ne apie JAV prezidento rinkimus, bet apie Europos Parlamento rinkimus, tad mūsų technologija yra itin aktuali, nes galėtų užkirsti kelią manipuliacijoms vaizdu informacinėje erdvėje per rinkimų laikotarpį“, – sako mokslininkas.
Sprendimų ėmėsi ir didžiosios technologijų įmonės. Gegužės pradžioje Baltuosiuose rūmuose vyko didžiųjų DI technologijas kuriančių įmonių vadovų, tokių kaip „Alphabet“ (įmonė valdanti „Google“), „Microsoft“, „OpenAI“, „Anthropic“, susitikimas su JAV administracija, kurio metu buvo kalbama ne tik apie DI galimybes, bet ir grėsmes, apie saugų DI. Prieš savaitę Tokijuje vykusiame G7 viršūnių susitikime taip pat buvo aptartos grėsmės, kurias kelia DI, o susitikimo dalyvė Europos Sąjunga siekia įteisinti pirmąjį pasaulyje DI reguliuojantį teisės aktą „AI Act“. Tuo metu „Google“ jau anksčiau ėmėsi veiksmų kovai su vaizdo manipuliacijomis ir vasarą į savo atnaujinamą paieškos sistemą įtrauks funkciją „About this image“, kuri leis nuspėti, ar paveikslėlis yra klastotė (kada buvo pradėtas indeksuoti, ar juo pasidalino patikimi naujienų šaltiniai), taip pat skelbs ar jis buvo sugeneruotas su DI.
„Pasaulio lyderiai ir didžiosios technologijų įmonės gali kalbėti apie saugų DI ir reguliavimą, bet nepriklausomi atviros prieigos (ir atvirojo kodo) įrankiai yra kita tema. VILNIUS TECH studentai paskaitos metu patys gali sukurti puikius DI įrankius. O mums priešiškose valstybėse informacinių technologijų ir elektronikos studentai, kaip manote, ar domisi DI reguliavimo gairėmis? Jokiu būdu nestabdydami šios technologinės pažangos, turime rasti sprendimų, kurie užkirstų kelią tokioms grėsmėms, kaip dezinformacija – mes koncepciją išmaniųjų vaizdo klastočių atpažinimui realiu laiku turime ir ją tikimės su partneriais „Acrux Cyber Services“ bei „Debunk EU“ įgyvendinti siekdami apsaugoti ne tik Europos ir NATO, bet ir viso laisvojo pasaulio informacinę erdvę. Kartu su partneriais plėtojame ir kitas DI technologijas, skirtas kovai su dezinformacija“, – sako mokslininkas.
Mokslininkas taip pat atkreipia dėmesį, kad turėtume nenustoti ugdyti visų visuomenės narių, bet ypač jaunosios kartos, kritinį mąstymą. „Ne DI technologijos, bet sancta simplicitas, naivumas, yra ir visais laikais buvo problema. Ugdykime kritinį mąstymą, tai geriausias būdas apsiginti ne tik nuo sumanių kibernetinių nusikaltėlių, bet ir nuo agresoriaus, informaciniame kare naudojančio psichologinio teroro metodus“, – teigia prof. dr. A. Serackis.
Su profesoriaus moksliniais tyrimais galite susipažinti čia.