понедељак, 10.04.2023, 20:10 -> 20:16
Извор: РТС
Аутор: Александра Трајковић Арсић и Душан Милетић
Шаховска игра са четботовима, може ли вештачка интелигенција да победи човека
Лажне фотографије председника Русије и Украјине у "братском" загрљају, које круже друштвеним мрежама, пример су како се вештачка интелигенција може користити за ширење дезинформација. То је само једна од опасности, упозорава Сем Алтман, творац најпознатијег четбота. Тврди да је уплашен и позива регулаторе да се укључе како би се избегле злоупотребе. ЕУ припрема законски оквир за примену вештачке интелигенције, а до тада важе етичке смернице. Један такав документ недавно је усвојила и Влада Србије. Истраживали смо какве опасности носи масовно коришћење четботова.
Ако на интернету желите да купите шпорет, телевизор или платите рачун, у дну екрана појавиће се лични асистент - са питањем: "Како вам могу помоћи?". Услуге четбота је, према статистици, користило 80 одсто онлајн купаца. Од шаблонског одговарања на уобичајена питања - до писања песама, домаћих задатака, кодова за прављење сајтова - системи засновани на вештачкој интелигенцији увукли су се у готово све индустрије. Зато је све гласније питање: "Шта ако падну у погрешне руке?".
"Ми људи се природно бојимо ствари које не познајемо и тај страх који постоји да ће вештачка интелигенција бити злоупотребљавана је потпуно неоправдан јер опет и она ће бити регулисана одређеним законским нормама и оне компаније које буду правиле производе и пуштала у јавност нека АИ решења која нису у складу са законским регулативама сносиће одређене последице", каже др Дејан Мирчетић са Института за вештачку интелигенцију.
Колико компанија развија четботове није познато. Најпопуларнији Chat GPT и кинески конкурент Ерни углавном прате законска и етичка начела простора са којих долазе.
На питање о осетљивим стварима за Кину, Ерни ће предложити да промените тему. На питање како направити бомбу, Chat GPT ће покушати да вас одврати од тога. Оваква ограничења неки други можда неће постављати, упозорава Сем Алтман, творац Chat GPT-а. Стручњаци кажу: Тржиште се захуктава. Алтман не страхује, већ лобира за своју компанију.
"Ми данас имамо рецимо на нивоу ЕУ јако важну легислативну иницијативу која се зове Акт о вештачкој интелигенцији и очекује се да би он прописао те нивое ризика различитих система вештачке интелигенције, у смислу који су забрањени јер представљају одређену опасност по друштво, а који су високо ризични и морају да имају одређене безбедносне мере прописане тим законом, за чије кршење би биле прописане велике казне као што је то ситуација са општом уредбом о заштити података о личности на нивоу ЕУ", истиче Бојан Перков из Фондације "Шер".
А управо је Chat GPT направио пропуст код заштите података, свега неколико дана након Алтмановог упозорења. Због грешке у систему - поједини корисници могли су да виде наслове туђих преписки. Четботови нису имуни на хакере, кажу стручњаци. Већ се користе у сајбер нападима.
"Један од начина је прикупљање информација, и то може да се ради путем вештачке интелигенције, па и четбота, слањем одређених мејлова, тзв. фишинг мејлова. Следећи корак је продор у систем. Тада нападач или група практично црта трајекторију, путању којом може да уђе у систем и ту вештачка интелигенција јако добро налази свој пут. Као што и Гугл мапс каже куда да идете - лево, десно, куда је најближе", објашњава стручњак за ИТ безбедност др Горан Куњадић.
Иако вештачка интелигенција повећава капацитете за сајбер криминал, прогнозе нису мрачне. Регулатива каска за технологијом, али је системи одбране прате у стопу.
"И системи одбране се заснивају на вештачкој интелигенцији, тако да и ту имамо контрамере. Значи, није све тако црно. Ипак je то стална игра између напада и одбране која за сада, и мислим да у будуће, неће имати победника", поручује Куњадић.
Победник би могла да буде суперинтелигенција - на коју је упозорио Бил Гејтс. Међутим, стање у којем би технологија, уместо за интересе човека, радила за сопствене интересе, није ни близу.
Коментари