Читај ми!

Да ли је човекова борба са дипфејком унапред осуђена на пропаст

Знаци да је слика или видео-снимак дело генеративне вештачке интелигенције постају све мање приметни како се технологија побољшава. Иако ВИ напредује вртоглавом брзином, стручњаци се боре да дођу до нових метода за сузбијање оваквих врста дезинформација.

Да ли је човекова борба са дипфејком унапред осуђена на пропаст Да ли је човекова борба са дипфејком унапред осуђена на пропаст

Са више од 4.000 дељења, 20.000 коментара и 100.000 реакција на Фејсбуку, фотографија старије жене, која седи иза домаће торте за 122. рођендан, обишла је свет. „Почела сам да украшавам торте од своје пете године“, наводи се у пратећем натпису.

Слика је несумњиво лажна. Да је нису одале свећа која као да лебди у ваздуху или чудне аморфне мрље на торти у првом плану, онда би свакако било сумњиво што за слављеницу нисмо чули као најстарију особу на свету и то чак пет година старију од актуелног носиоца титуле тог рекорда.

Срећом, нема много оних који су разочарани због тога што нису успели да пронађу суперстогодишњу декоратерку торти. То је добро, јер како генеративна вештачка интелигенција постаје све боља и боља, сигурни знаци за откривање лажног садржаја све су ређи. Због тога смо ушли у трку с временом можемо ли смислити друге начине да уочимо лажни садржај пре него што он постане толико уверљив да га не можемо разликовати од стварности?

„Понестаје нам времена у којем смо у могућности да вршимо ручно откривање. Модели засновани на вештачкој интелигиенцији развијају се брзином и темпом који је, са техничке тачке гледишта, невероватан и прилично алармантан“, упозорио је Мајк Спирс консултант за ВИ који ради на борби против дезинформација.

Према његовим речима, постоје разне врсте „ручних техника“ за уочавање лажних слика од погрешно написаних речи, до неприкладно глатке или наборане коже.

„Руке су класика, а и очи прилично добро откривају 'лажњаке'. Али чак и данас, то одузима много времена и то није нешто што можемо да убрзамо. А време истиче – модели постају све бољи и бољи“, објашњава Спирс.

Од 2021. године када је „ОпенАИ“ представио алат "Dall-E" за генерисање слика, објављене су три верзије, од којих је свака радикално боља од претходне. Инди конкурент "Midjourney" објавио је шест верзија у истом периоду, док је модел "Stable Diffusion" бесплатног и отвореног кода достигао своју трећу верзију, а „Гуглов“ „Џемини“ се такође придружио у неком моменту.

Како је технологија постајала моћнија, постајала је и лакша за коришћење. Најновија верзија "Dall-E"-ја уграђена је у моделе "ChatGPT" и „Бинг“, док „Гугл“ корисницима нуди своје алате бесплатно.

Технолошке компаније почеле су да реагују на поплаву генерисаних медија. Коалиција за порекло и аутентичност садржаја, чији су чланови, између осталих, Би-Би-Си, „Гугл“, „Мајкрософт“ и „Сони“, прописала је стандарде који се односе на водени жиг (watermark) и етикетирање, а у фебруару је „ОпенАИ“ најавио да ће их усвојити за верзију алата за генерисање слика "Dall-E 3".

Сада, слике које генерише овај алат имају ознаку да су настале уз помоћ ВИ и машински читљив водени жиг. Компанија „Мета“ је такође почела да додаје сопствене ознаке садржају који је генерисан уз употребу ВИ и каже да ће уклонити објаве без ознаке.

Такве политике могу помоћи у решавању неких од највируснијих облика ширења дезинформација, попут шала или сатире која се шири изван свог првобитног контекста.

Замке означавања садржаја који је генерисан уз помоћ ВИ

Међутим, присуство ознака такође може створити лажни осећај сигурности, каже Спирс: „Ако се јавност навикне да види слике које је генерисала ВИ са ознаком на себи, да ли то значи да треба да верују у веродостојност било које слике без жига?“.

То може да се развије у проблем, пошто означавање никако није универзално нити ће бити, највероватније. Велике компаније попут „ОпенАИ“ би могле да пристану да означавају своје креације, али старт-апи као што је "Midjourney" немају капацитет да одвоје додатно време својих инжењера за рад на овом проблему.

А тек код пројеката отвореног кода, као што је "Stable Diffusion", немогуће је кориснике натерати на примену воденог жига, пошто је прављење сопственог модела увек опција.

Уз то уочавање воденог жига не мора нужно имати ефекат који би неко желео, каже Хенри Паркер, шеф владиних послова у групи за проверу чињеница „Лоџикал“.

Компанија користи и ручне и аутоматске методе за проверу садржаја, наводи Паркер, али означавање може бити само делимично успешно.

„Ако некоме кажете да гледа дипфејк (deepfake) садржај пре него што га уопште погледа, социјална психологија гледања тог клипа је толико моћна да ће га и даље доживљавати као чињеницу. Дакле, једино што можете да урадите је да питате како можемо да смањимо време током којег је овај садржај у оптицају“, објашњава Паркер.

Победити детекторе није циљ само злонамерних

На крају крајева, то ће захтевати аутоматско проналажење и уклањање садржаја генерисаног вештачком интелигенцијом.

Али то је веома тешко, поручује Паркер: „Већ пет година радимо на овоме, покушавамо и прилично смо искрени у вези са чињеницом да смо дошли до око 70 одсто, у смислу тачности коју можемо да постигнемо. Краткорочно гледано, проблем је трка између откривања и стварања: чак и генератори слика који немају зле намере ће желети да покушају да победе детекторе, јер је крајњи циљ да створе нешто тако истинито као што је фотографија“.

У групи „Лоџикали“ мисле да је одговор да се посматрају ствари око слике. „Како заправо покушавате да сагледате начин на који се понашају актери дезинформација“, пита Паркер и додаје да то значи да треба пратити разговоре на интернети како би они који имају зле намере били ухваћени у фази планирања на сајтовима као што су 4chan и Редит.

Ипак, уз то и уз надзор сумњивих налога, проблем лажних позитивних резултата био би присутан. 

Други су оптимистичнији. Бен Колман, извршни директор старт-апа "Reality Defender", на пример сматра да ће увек постојати могућност откривања да слика није права.

Довољно је, како каже, доћи до закључка да постоји могућност да је нешто лажно, без дефинитивне потврде.

Ти знаци могу бити било шта, од трагова финих филтера који су су довели до превише глатких објеката, па све до видео-садржаја у којем није могуће пронаћи невидљиво, али за прецизније алате уочљиво црвенило које се  показује на лицу са сваким откуцајем срца.

Технологија је, наравно, само део решења, али је место одакле треба почети. Јер ако људи заиста верују да је фотографија 122-годишње жене са тортом коју је сама испекла аутентична, онда неће бити потребни најсавременији генератори слика да их преваре да поверују у друге, далеко штетније ствари.

недеља, 24. новембар 2024.
5° C

Коментари

Bravo
Шта је све (не)дозвољено да се једе када имате повишен холестерол
Krusevac
Преминуо новинар Драган Бабић
Omiljeni režiser
Луис Буњуел – редитељ који нам је показао да ово није најбољи од свих могућих светова
Posle toliko vremena..
Репер Диди најбогатији међу славнима, Ђоковић на 68. месту
Zdravlje
Редовно коришћење аспирина узрокује хиљаде смрти годишње