Вештачка интелигенција и људска права, може ли се до безбеднијег света без нових технологија
Технологије за препознавање лица кроз неселективни надзор јавних простора, укључујући контролу граница, треба забранити, наводи се у Извештају о вештачкој интелигенцији у кривичном праву, који је Европски парламент усвојио већином гласова. Технологија за препознавање лица кроз неселективни надзор јавних простора јесте добра и напредна, али није безгрешна и мора да постоји људски фактор одлуке, каже за РТС Владимир Зарић из Института за дигиталне комуникације.
Гостујући у Јутарњем програму Зарић објашњава да је селектовани надзор јасно дефинисан простор над којим се врши надзор, као што су аеродроми, и неке јаве институције, а да је све остало - неселективно.
ЕУ парламент је за забрану масовног биометријског надзора. Тражи се проглашење мораторијума на примену система за препознавање лица, изузев за идентификацију жртава кривичног дела, све док не буду испуњени јасно дефинисани услови.
Према речима Владимира Зарића, у Забрани се пре свега позивају на основна људска права и право приватности, али ту се такође помиње и вештачка интелигенција.
„Ти системи функционишу мање-више без надзора људи, односно на основу биометријских података које камере снимају. Камера сама снима и препознаје, доноси неке одлуке, да ли је понашање неке особе која је на снимку уобичајено или ризично", истиче Зарић.
Додаје да Србија има законе који дефинишу употребу камера за надзор и камера које имају могућност биометријског препознавања, односно чијом употребом се препознаје облик лица, отисак прста, рожњача.
„Тренутно такве системе и надзоре може да постави само Министарство унутрашњих послова и њиховим процедурама је дефинисано у којим случајевима се користе информације са таквог система, ко има надлежност приступа таквим подацима и ко има могућност обраде таквих података", наглашава Владимир Зарић.
Истиче да су, поред министарстава унутрашњих послова различитих земаља, те системе користиле и приватне компаније у својим пословим зградама.
„Оно што јесте суштина је да та технологија јесте добра и напредна је али није безгрешна и мора да постоји људски фактор одлуке. Показало се у пракси да постоје велики проблеми и да систем није 100 посто прецизан", каже Зарић.
Према његовим речима постоје проблеми са етничким групама, јер њих системи не препознају добро, а такође, системи вештачке интелигенције за препознавање лица нису увек сигурни када доносе одлуке о женским лицима.
„За разлику од класичног видео надзора где имате оператера који прегледа снимке, узима неке одређене кадрове, системи који су потпомогнути вештачком интелигенцијом то сами раде. Они сами извлаче податке, добијете листу имена који су имали приступ неком простору и ту може да дође до грешке", сматра Владимир Зарић.
Истиче да ти системи, развијени од стране приватних компанија, нису били довољно отворени и зато се позива на демократизацију, односно Европски парламент сматра да је потребно да софтвер који покреће то препознавање лица буде оpen-source.
„То су програми чији је начин функционисања доступан свима, да видите како ради алгоритам, који су параметри који се читају и обрађују, да бисте, ако дође до судског спора или било каквог доказивања кривице, ви имали аргументовану расправу. Ако се борите пртив система видео надзора који је направила приватна компанија, и која је заштитила свој патент, ви не знате како он функционише а узимате његов резултат као нешто што је 100 посто тачно и валидно - онда настаје проблем", поручује Владимир Зарић из Института за дигиталне комуникације.
Коментари