Има капацитет да побољша, али и да угрози човечанство – шта још (не) знамо о вештачкој интелигенцији
Нема сумње да је ГПТ-4, најновије унапређење мотора вештачке интелигенције који је креирала компанија ОпенАИ, иновативан и пре свега у тренду. Може да напише песму у стилу било ког песника, наведе прогресију акорда и временски потпис за једноставну мелодију, обезбеди рецепт у седам корака за сендвич од кикирикија, путера и желеа и напише политички водвиљ у два чина. Па ипак, све што нуди је наш одраз, посредовано алгоритмима који су добили огромне количине материјала које су креирала људска бића.
Акроним ГПТ значи „генеративни унапред обучени трансформатор”. Користећи све врсте дигитализованог садржаја преузетог са интернета, ГПТ користи технике дубоког учења да пронађе обрасце, укључујући речи које ће се вероватно појавити заједно, усваја чињенице, упија граматику и учи рудиментарну логику.
„Обучен сам за велики скуп података текста, што ми омогућава да генеришем људске одговоре на основу уноса који примам”, његове су речи.
Међутим, нити разуме шта ти одговори значе, нити учи из искуства, а његова база знања се зауставља у септембру 2021. године (па је тако абортус и даље уставно право у САД).
Заводљивац пун самопоуздања и омашки
Једна од најуочљивијих карактеристика ГПТ-4 је самопоуздање са којим одговара на упите. Ово је и карактеристика и грешка. Као што програмери ГПТ-4 истичу у техничком извештају који је пратио његово издање „понекад може направити једноставне грешке у расуђивању које изгледа да нису у складу са компетенцијом у толико много домена, или је превише лаковеран у прихватању очигледно лажних изјава корисника и може сигурно погрешити у својим предвиђањима”.
Када је Дин Буономано, неуронаучник са Универзитета у Лос Анђелесу упитао ГПТ-4 „Која је трећа реч ове реченице?”, одговор је био „трећа”. Ови примери могу изгледати тривијално, али когнитивни научник Гери Маркус написао је на Твитеру да „не могу да замислим како би требало да постигнемо етичко и безбедносно ‘усклађивање’ са системом који не може да разуме реч ‘трећи’ чак ни са милијардама примера”.
Претходник ГПТ-4, ГПТ-3, био је обучен на 45 терабајта текстуалних података, што је, према његовом наследнику, еквивалент броја речи за око деведесет милиона романа.
То је укључивало уносе на Википедији, чланке из новина и часописа, упутства за употребу, дискусије и постове са друштвених мрежа, књиге и било који други текст који су његови програмери могли да прибаве, обично без обавештавања аутора или компензације.
Нејасно је колико је још терабајта података коришћено за ГПТ-4, или одакле су они дошли, јер ОпенАИ, упркос свом називу, само у техничком извештају каже да је ГПТ-4 претходно обучен „коришћењем података са интернета и подацима лиценцираним од добављача трећих страна”.
Овај извештај не садржи даље детаље о архитектури, хардверу, конструкцији скупа података, методу обуке и слично.
„Посебно сам забринут да би ови модели могли да се користе за дезинформације великих размера. Сада када постају све бољи у писању компјутерског кода, могли би да се користе за офанзивне сајбернападе. Постојаће и други људи који не постављају неке од безбедносних ограничења које ми постављамо. Друштво има ограничено време да смисли како да реагује на то, како да то регулише, како да се носим са тим”, рекао је недавно за Еј-Би-Си њуз један од директора ОпенАИ Сем Алтман.
Ни величина скупа података за обуку вештачке интелигенције (АИ) не спречава га да избацује садржај мржње. Метин АИ четбот „Галактика”, требало је да буде у стању да „сумира академске радове, решава математичке проблеме, генерише чланке са Википедије, пише научни код, бележи молекуле и протеине и још много тога”.
Али два дана након што је демо лансиран, компанија је била принуђена да га уклони, јер су истраживачи могли да искористе „Галактику” да креирају уносе у Википедију који промовишу антисемитизам и величају самоубиство, као и лажне научне чланке, укључујући и онај који се залаже за предности исхране смрвљеним стаклом. Слично, ГПТ-3, када је то био затражено, имао је тенденцију да понуди расистичке и сексистичке коментаре. Све то зато што су многи подаци унети са дискусија на друштвеним мрежама и ставова који су тамо изнети.
Како би избегао овај проблем, према писању Тајма, ОпенАИ је ангажовао компанију за спољне послове која је ангажовала извођаче у Кенији да етикетирају подли, увредљиви и потенцијално илегални материјал који би затим био укључен у податке о обуци како би компанија могла да направи алат за откривање токсичних информација пре него што стигне до корисника.
Тајм је известио да су неки од материјала „са сликовитим детаљима описивали ситуације као што су сексуално злостављање деце, убиство, самоубиство, мучење, самоповређивање и инцест”.
Извођачи су рекли да је требало да прочитају и обележе између 150 и 250 пасуса текста у смени од девет сати. Били су плаћени не више од два долара на сат и понуђена им је групна терапија како би им се помогло да се изборе са психолошким притиском коју је посао носио. Аутсорсинг компанија је оспорила те податке, али је посао био толико узнемирујући да је уговор раскинут осам месеци раније.
Гутачи енергије, еколошки неоправдани
Према повељи ОпенАИ-а, његова мисија је „да обезбеди да вештачка општа интелигенција (АГИ), под тим подразумевамо високо аутономне системе који надмашују људе у већини економски вредних послова, од користи целом човечанству”.
Остављајући по страни питање да ли је АГИ остварив, да ли ће преношење рада машинама користити целом човечанству, јасно је да АИ прави штету читавом човечанству управо сада. Према чланку објављеном у једном научном часопису вештачка интелигенција захтева тоне енергије која емитује угљеник.
„Док је људско биће одговорно за пет тона угљен-диоксида (CO2) годишње, обука великог неуралног језичког модела кошта 284 тоне. Поред тога, пошто је рачунарска снага потребна за обуку највећих модела порасла 300.000 пута за шест година, можемо само очекивати да ће се последице ових модела на животну средину повећати”, стоји у чланку.
Мета, Гугл и мноштво мањих технолошких компанија такође су у насумичној трци да изграде сопствени модел вештачке интелигенције. Гуглов нови АИ четбот, објављен прошле недеље делимично је обучен за приватне е-поруке корисника г-мејла. Гугл је то демантовао и рекао да је у току рани експеримент. У међувремену, Мајкрософт, који је наводно уложио десет милијарди долара у ОпенАИ и користи ГПТ-4 у свом претраживачу а сада га додаје у ворд и ексел, недавно је отпустио цео тим за АИ-етику. То су били људи који су били одговорни да осигурају да АИ гради одговорно.
Лако је бити заведен вештачком интелигенцијом ГПТ-4. Може да положи испит, зна да кодира, ускоро ће моћи да погледа фотографију садржаја вашег фрижидера и предложи рецепте. Али ускоро ће такође моћи да генерише беспрекорне „лажњаке” и креира слике од текста укључујући и оне сексуалног злостављања деце. То је моћна, сеизмичка технологија која има капацитет да побољша наш живот али и да га умањи. Без заштитних ограда и надзора, његове штете могу лако да се умноже.
Коментари