Читај ми!

Шта каже струка, да ли Гуглов четбот расуђује као људско биће, како тврди суспендовани инжењер

Компјутерски четбот ЛаМДА (Language Model for Dialog Applications) размишља и расуђује као људско биће, тврди суспендовани „Гуглов“ инжењер. То тврди и робот, а да ли је то могуће објашњава др Јелена Митровић, старији истраживач у Институту за вештачку интелигенцију Србије и вођа истраживачке групе Обрада природног говора.

Блејк Лемоан, инжењер у „Гугловом“ сектору Одговорне вештачке интелигенције, описао је систем ЛаМДА на којем је радио од прошле јесени као разуман, са перцепцијом и способношћу да изрази мисли и осећања као дете.

Докторка Јелена Митровић наглашава да је важно имати у виду да је у последњих шест месеци објављено бар пет језичких модела, а о овом моделу се толико расправља само због тога што је инжењер изашао у јавност са тако „епохалном“ изјавом да је модел разуман.

„Имала сам прилику, сасвим случајно, да можда минут пошто се његова објава појавила на друштвеној мрежи Твитер, видим много коментара професора из моје области и да је кренула јако жива расправа. Али надам се да ћу успети да објасним да то и није тако епохално откриће“, додаје Митровићева.

ЛаМДА је, у ствари, комбинација великог броја језичких неуронских модела који су искомбиновани на начин који омогућава да тај модел води дијалог. Осмишљено је да ЛаМДА буде систем за отворени дијалог, односно да може да води конверзацију на било коју тему.

„Дакле, можете са њим да разговарате о филму, музици, а можете да разговарате и о неким личним темама као што је показано на овом примеру. ЛаМДА јесте врста вештачке интелигенције, алгоритам који се користи у вештачкој интелигенцији“, напомиње Јелена Митровић.

Модел има особине личности особе на чијим je текстовима трениран

Дешава се да модел показује неке особине личности особe на чијим је текстовима и транскриптима разговора био трениран, и то се виђа у тако великим моделима, додаје Митровићева.

Језички модел је, у ствари, нека врста статистичке машине. Неопходно је да се модел тренира на огромној количини података, а у случају компаније „Гугл“, зна се да они имају приступ свим и историјским и тренутним подацима на интернету. Имају могућности и рачунарску моћ да прикупе и чувају те податке и зато могу да направе моделе као што је ЛаМДА.

„Суштина је да научимо модел да размишља као човек на основу текстова који су му дати као тренинг. Овај модел је добар зато што има велику базу података на којима је трениран. Све те текстове са друштвених медија, транскрипте дијалога, затим сценарија из филмова. Имамо научнофантастичне филмове на којима је трениран и зато су неки од одговора заправо личили на мало застрашујуће сцене из тих филмова, а то је само зато што је он имао приступ тим подацима. Све оно што нам даје као излаз дешава се на основу статистичке вероватноће коју је сам модел прорачунао, да ако унесемо неки текст, највероватније ће бити да ће излаз бити неки други текст“, објашњава др Митровић.

Из транскрипта разговора Блејка Лемоана са Ламдом могли смо да видимо да је некада у питању само једна реченица, а некада цео пасус, у зависности од тога шта је било тражено.

Да ли неуронске мреже корачају ка свести

Потпредседник „Гугла“ председник Гуглове организације за вештачку интелигенцију одбацили су тврдњу да је ЛаМДА разуман, али и потврдили да неуронске мреже које опонашају људски мозак полако корачају ка свести.

Блејк Лемоан није радио на овом моделу, већ је био део тима од педесетак инжењера који је имао задатак да провери да ли ЛаМДА даје неке дискриминаторне одговоре и изјаве, да ли избацује говор мржње и да ли постоје неки етички проблеми.

„Гугл се труди да избегне такве ситуације и ова тренутна прича за њих није добра, јер се они, као и све велике компаније, труде да детаљно истестирају, јер већина тих модела је доступна јавно“, истиче докторка.

На пример, на Институту за вештачку интелигенцију у Србији се већ неколико година ради нешто слично за српски језик на моделу који је јавно доступан.

„Могуће је да ћемо у неком тренутку имати сценарио у коме ће алгоритам постати у неку руку свестан, али за сада, мислим да смо доста далеко од тога“, сматра др Јелена Митровић.

Етика у вештачкој интелигенцији

Прошле године, 25. новембра Унеско је донео препоруке о етици у вештачкој интелигенцији, а Република Србија је једна од земаља која је прихватила те препоруке и свакако ће их се придржавати.

Лемоан каже да нема научног оквира за тврдњу да је ЛаМДА систем разуман и да „Гугл“ није ни дозволио да се изгради тај оквир. Он је као веома религиозна особа желео да добије додатан новац од компаније и тим који ће истраживати овај модел и његове могућности.

„То да не постоји оквир је веома тачно, зато што ни у једној науци – филозофији, когнитивним наукама, медицини, рачунарским наукама – немамо јасну дефиницију нити доказ шта је тачно свест, не знамо зашто постоји и како настаје. Док не будемо знали, у смислу физиологије, у смислу људског бића како свест настаје и зашто постоји, нећемо моћи ни да тестирамо на системима вештачке интелигенције, и то је оно на шта се овде мислило“, закључује др Јелена Митровић, старији истраживач у Институту за вештачку интелигенцију Србије.

Број коментара 1

Пошаљи коментар

Упутство

Коментари који садрже вређање, непристојан говор, непроверене оптужбе, расну и националну мржњу као и нетолеранцију било какве врсте неће бити објављени. Говор мржње је забрањен на овом порталу. Коментари се морају односити на тему чланка. Предност ће имати коментари граматички и правописно исправно написани. Коментаре писане великим словима нећемо објављивати. Задржавамо право избора и краћења коментара који ће бити објављени. Коментаре који се односе на уређивачку политику можете послати на адресу webdesk@rts.rs. Поља обележена звездицом обавезно попуните.

уторак, 26. новембар 2024.
15° C

Коментари

Bravo
Шта је све (не)дозвољено да се једе када имате повишен холестерол
Krusevac
Преминуо новинар Драган Бабић
Omiljeni režiser
Луис Буњуел – редитељ који нам је показао да ово није најбољи од свих могућих светова
Posle toliko vremena..
Репер Диди најбогатији међу славнима, Ђоковић на 68. месту
Zdravlje
Редовно коришћење аспирина узрокује хиљаде смрти годишње