среда, 26.07.2023, 17:16 -> 17:35
Извор: РТС, Guardian
Gugl, Majkrosoft, Open Ej-Aj i Antropik formirali grupu za regulaciju razvoja veštačke inteligencije
Četiri najuticajnije kompanije u oblasti veštačke inteligencije formirale su grupu koja će na nivou čitave industrije nadgledati siguran razvoj najnaprednijih modela. Pravila bezbednog i odgovornog razvoja graničnih modela veštačke inteligencije, u početku, diktiraće „Gugl“, „Majkrosoft“, „Open Ej-Aj“ i „Antropik“.
Organizaciju "Frontier Model Forum" formirali su kompanija „Open Ej-Aj“ koja stoji iza čet-bota ChatGPT, zatim „Antropik“, „Majkrosoft“ i „Gugl“, vlasnik kompanije „Dip majnd“ sa sedištem u Velikoj Britaniji.
Predstavnici ove grupe kažu da će fokus biti na „bezbednom i odgovornom“ razvoju graničnih modela veštačke inteligencije, misleći pritom na tehnologiju zasnovanu na veštačkoj inteligenciji koja je čak naprednija od alata koji su trenutno dostupni.
„Kompanije koje razvijaju tehnologiju zasnovanu na veštačkoj inteligenciji odgovorne su za stvaranje bezbednog proizvoda koji mora ostati pod kontrolom čoveka“, rekao je Bred Smit, predsednik „Majkrosofta“.
Prema njegovim rečima, ova inicijativa je ključni korak za zbližavanje tehnološkog sektora na polju odgovornog unapređenja veštačke inteligencije i pri suočavanju sa izazovima tako da celo čovečanstvo od tog napretka ima koristi, a ne štetu.
Članovi foruma navode da su njihovi glavni ciljevi promovisanje istraživanja bezbednosti veštačke inteligencije, kao što je razvoj standarda za procenu modela; podsticanje odgovorne primene naprednih modela zasnovanih na veštačkoj inteligenciji; razmatranje bezbednosnih rizika i poverenja u veštačku inteligenciju sa političarima i stručnjacima; podrška razvoja pozitivnih upotreba veštačke inteligencije kao što je borba protiv klimatske krize i rano otkrivanje raka.
Dodali su da je članstvo u grupi otvoreno za organizacije koje razvijaju granične modele, koji su definisani kao „veliki modeli mašinskog učenja koji prevazilaze mogućnosti koje su trenutno prisutne u najnaprednijim postojećim modelima, i mogu da obavljaju širok spektar zadataka“ .
Najava o osnivanju ove grupe stiže u trenutku kada sa se ubrzava regulisanje tehnologije.
U petak su tehnološke kompanije – uključujući članice grupe "Frontier Model Forum" – pristale na nove zaštitne mere u vezi sa veštačkom inteligencijom posle sastanka sa Džozefom Bajdenom u Beloj kući.
Obaveze usvojene na sastanku uključuju označavanje sadržaja koji proizvode alati zasnovani na veštačkoj inteligenciji, kako bi se olakšalo uočavanje obmanjujućih materijala (poput takozvanih deepfakes) i omogućavanje nezavisnim stručnjacima da testiraju modele koji koriste VI.
Saopštenje Bele kuće naišlo je na skepticizam od strane nekih aktivista koji ocenjuju da je tehnološka industrija poznata po nepoštovanja pravila o samoregulaciji.
Prošlonedeljnu najavu „Mete“ da će objaviti model veštačke inteligencije jedan stručnjak je opisao kao „davanje ljudima šablona za pravljenje nuklearne bombe“.
Grupa "Frontier Model Forum "ističe da su „važan doprinos“ bezbednosti dala tela poput vlade Ujedinjenog Kraljevstva, koja je sazvala globalni samit o bezbednosti u oblasti veštačke inteligencije, i EU, koja uvodi zakon o veštačkoj inteligenciji koji predstavlja najozbiljniji zakonodavni pokušaj da se reguliše tehnologija zasnovana na mašinskom učenju.
Упутство
Коментари који садрже вређање, непристојан говор, непроверене оптужбе, расну и националну мржњу као и нетолеранцију било какве врсте неће бити објављени. Говор мржње је забрањен на овом порталу. Коментари се морају односити на тему чланка. Предност ће имати коментари граматички и правописно исправно написани. Коментаре писане великим словима нећемо објављивати. Задржавамо право избора и краћења коментара који ће бити објављени. Коментаре који се односе на уређивачку политику можете послати на адресу webdesk@rts.rs. Поља обележена звездицом обавезно попуните.
Број коментара 0
Пошаљи коментар