Вештачка интелигенција, технолошка ренесанса из које вребају многе претње
Велике технолошке компаније улажу пуно новца у развој вештачке интелигенције. Прошле године, приватни сектор уложио је више од сто милијарди долара. „Мајкрософт“ за Опен АИ иницијативу око 10 милијарди. Поред бројних предности, вребају и многе опасности. Корисници, са много мањим буџетом, једним кликом се излажу опасностима попут превараната и „фишинга“, јер нам је, примера ради, нигеријски принц тражио податке.
Брзина којом технологија мења свет око нас је фасцинантна, па поједини стручњаци кажу да је ово време хуманизма и ренесансе 2.0, у којем човек у сагласју са технологијом може да буде најбоља верзија себе.
„Технологија сама по себи нити је добра, нити је лоша, зависи само од особе која је користи. Што се тиче самих четботова постоје различите врсте четботова од тога да 'decision 3' да заправо имате унапред припремљене податке па да бирате само одговоре заправо постоји контекстуални четбот и на крају е-power четботови. Ако причамо о трећој генерацији четботова, заиста може да буде креативно, под знацима навода да 'халуцинира', тј. да сам измишља одговоре. Да може да буде опасно уколико људи заиста здраво за готово примењују те одговоре“, каже директор "Data-Universe", Александар Линц-Ђорђевић.
„На пример шта може бити злоупотребљено. Ако модел обучи на основу неких великих количина података текстова нешто, може да утиче на јавно мњење, може ширити неки говор мржње, затим неки лажни садржај који може бити испостављен. Не само текстуални садржај у виду неких вести на друштвеним мрежама, већ и аудиовизуелни садржај. Значи, може бити микс вас у неком видео фајлу где никад нисте били или на неком месту на коме нисте били“, наводи доц. др Дражен Драшковић са катедре за рачунарску технику и информатику ЕТФ-а.
Стиче се утисак да бисмо радо окривили вештачку интелигенцију за сајбер нападе. Савремена технологија је у ствари у морално сивој зони и зависи од начина на који је користимо.
„Генерално ако причамо о ChatGPT, имате тамо услове коришћења, и заправо ви сте власник свега тога. Значи није власник четбот. Уколико сте ви особа, која је користила ChatGPT да превари неку другу особу, ви сте особа која је одговорна. Уколико нека компанија није искрена у својим намерама, она ће подлећи традиционалним законским оквирима“, истиче Александар Линц-Ђорђевић.
„Алгоритми вештачке интелигенције су све напреднији. Они прикупљају велике количине података, то су сада чешће не само текстуални подаци, већ су и аудио и видео-подаци, 3Д модели, и обучавају се мреже, тренирају на основу свих тих великих количина података. Наравно ту можемо имати и корист, а можемо имати и штету. Све зависи од људи, људи који стварају те моделе, и људи који користе“, наводи доц. др Дражен Драшковић.
Нема разлога за панику. Како бисмо се заштитили, потребно је да будемо обазриви и да се што више едукујемо.
„Где највише да се сачувају корисници? Па рекао бих да не остављају никакве податке личне природе, попут јединственог матичног броја, неких личних примања, кредитних картица и подаци у њима. Значи, гледајте да све те податке не чувате и да не, такорећи похрањујете те моделе, јер ће они на неки начин можда сутра злоупотребити то“, упозорава Драшковић.
„Ако вам неко каже да нигеријски принц тражи новац, колико знате нигеријских принчева? Нема их милион. И вероватно да сте ви неки потомак је јако мала. С друге стране, ако вам неко каже, пошаље вам неки линк компаније и каже кликни и остави неке податке, ту сада долазимо до тога шта заправо подаци, школовани као такви могу да ураде. Да се заправо припреми неко окружење где људи могу да разумеју на који начин могу сами да се заштите преко тога“, каже Александар Линц-Ђорђевић.
Као дигитални асистент, вештачка интелигенција је преузела простије, понављајуће задатке који захтевају време. Ипак, и код ње су могуће грешке, па зато није носилац јединствене истине.
Коментари