Читај ми!

Давање здравствених података четботу је ужасна идеја

Четботови све чешће постају они којима се људи обраћају за здравствене савете. Међутим, за разлику од лекара и болница, технолошке компаније не подлежу истим правилима када је реч о заштити медицинских података. При употреби алата "ChatGPT Health" компанија обећава приватност. Међутим, све што имамо је реч "OpenAI"-а.

Давање здравствених података четботу је ужасна идеја Давање здравствених података четботу је ужасна идеја

Сваке недеље, више од 230 милиона људи тражи од ChatGPT-ја савете о здрављу и благостању, показују подаци компаније "OpenAI". У компанији кажу да многи виде четбота као „савезника“ који ће им помоћи да се снађу при плаћању или остваривању осигурања, подношењу разних захтева и да се оспособе да се изборе за своја права. Заузврат, компанија се нада да ћете веровати њеном четботу и открити му детаље о вашим дијагнозама, лековима, резултатима тестова и другим приватним медицинским информацијама.

Иако разговор са четботом може почети да личи на онај из лекарске ординације, он то никако није. Технолошке компаније не подлежу истим законима као медицински пружаоци услуга. Стручњаци кажу за сајт The Verge да би било мудро да пажљиво размотрите да ли желите да предате свој картон вештачкој интелигенцији на увид.

Здравље и рад на себи у циљу унапређења физичког и менталног стања убрзано се издвајају као кључно бојно поље за лабораторије вештачке интелигенције и главни тест колико су корисници спремни да пусте ове системе у своје животе.

Четбот не сме да буде изабрани лекар

Прошлог месеца, неки од највећих играча у индустрији која развија вештачку интелигенцију отворено су покушали да се пробију на терен медицине.

"OpenAI" је представио ChatGPT Health, посебан одељак у оквиру бота ChatGPT, дизајниран тако да корисници постављају питања у вези са здрављем у, како наводе, безбеднијем и персонализованијем окружењу. "Anthropic" је представио Claude for Healthcare, производ за који кажу да га могу користити болнице, здравствени радници и потрошачи.

Приметно је да је одсутан „Гугл“, чији је четбот Gemini један од најкомпетентнијих и најшире коришћених AI алата на свету, иако је компанија најавила ажурирање свог MedGemma медицинског модела за програмере заснованог на ВИ.

"OpenAI" активно подстиче кориснике да деле осетљиве информације попут садржаја медицинских картона, лабораторијских резултата и података о здрављу и физичкој кондицији из апликација као што су Apple Health, Peloton, Weight Watchers и MyFitnessPal са алатом ChatGPT Health у замену за дубљи увид.

Експлицитно се наводи да ће здравствени подаци корисника бити поверљиви и да се неће користити за обуку модела заснованог на ВИ, и да су предузети кораци да се подаци обезбеде и заштити приватност. "OpenAI" каже да ће се ChatGPT Health разговори такође одржавати у посебном делу апликације, а корисници ће моћи да виде или обришу Health „историју“ у било ком тренутку.

Алати засновани на ВИ могу да помогну и лекарима и пацијентима

Уверавања компаније "OpenAI" да ће чувати осетљиве податке корисника у великој мери су подржане покретањем идентичног производа са строжим безбедносним протоколима готово истовремено када и ChatGPT Health.

Алат, ChatGPT for Healthcare (ChatGPT за здравствену добробит), део је ширег асортимана производа који су намењени подршци предузећима, болницама и клиникама који директно раде са пацијентима.

Функционалности које "OpenAI" предлаже укључују поједностављивање административних послова попут израде извештаја лекара специјалиста и отпусних листа, као и помоћ лекарима у прикупљању најновијих медицинских достигнућа како би се побољшала нега пацијената.

Као и када су у питању други производи намењени за пословну употребу који су у понуди компаније "OpenAI", обезбеђен је већи степен заштите него што је то случај са општим потрошачима и посебно са корисницима бесплатних модела. Такође, "OpenAI" каже да су производи дизајнирани тако да поштују правила о приватности које се захтевају у медицинском сектору.

С обзиром на слична имена и датуме лансирања – ChatGPT for Healthcare је најављен дан након ChatGPT Health-а – лако је помешати ова два производа и претпоставити да производ намењен потрошачима има исти ниво заштите као и онај који је за клинике.

Међутим, коју год гаранцију безбедности од две наведене да погледамо, она је далеко од непогрешиве. Корисници алата попут ChatGPT Health често су недовољно заштићени од кршења регулатива или неовлашћене употребе без обзира на оно што је наведено у условима коришћења и политикама приватности, кажу стручњаци за портал The Verge.

Пошто већина држава није усвојила свеобухватне законе о приватности, заштита података за алате засноване на вештачкој интелигенцији попут ChatGPT Health-а „у великој мери зависи од тога шта компаније обећавају у својим политикама приватности и условима коришћења“, каже Сара Герке, професорка права на Универзитету Илиноис у региону Урбана-Шампејн.

Све што имате је реч "OpenAI"-ја

Чак и ако верујете обећању компаније да ће заштитити ваше податке, а OpenAI каже да подразумевано шифрује здравствене податке, компанија би могла да се предомисли.

„Иако ChatGPT у важећим условима коришћења наводи да ће ове податке чувати поверљивим и да их неће користити за тренирање својих модела, нисте заштићени законом и дозвољено је да се услови коришћења мењају током времена“, објашњава Хана ван Колфшутен, истраживачица дигиталног здравственог права на Универзитету у Базелу у Швајцарској. „Мораћете да верујете да ChatGPT то не чини.“

Кармел Шахар, асистенткиња клиничког професора права на Правном факултету Харвард, истиче да постоји веома ограничена заштита: „Део тога је њихова реч, али увек могу да промене политику приватности“.

Уверавања да је производ у складу са законима о заштити података који регулишу сектор здравствене заштите, као што је Закон о преносивости и одговорности здравственог осигурања (Health Insurance Portability and Accountability Act – HIPAA), такође не би требало да нуде много утехе, каже Шахар.

Иако су ти закони одлични као нека врста водича, мало ће помоћи ако компанија која се добровољно придржава прописа то не учини, објашњава Шахарова и додаје да добровољно није исто што и обавезно поштовање прописа.

Када је реч о оваквим подацима, у питању је више од саме приватности. Постоји разлог зашто је медицина строго регулисана област – грешке могу бити опасне, чак и смртоносне. Има безброј примера који показују да четботови самоуверено износе лажне или обмањујуће здравствене информације, као када је човек развио ретко стање након што је питао ChatGPT о уклањању соли из исхране, а четбот му је предложио да со замени натријум бромидом, који се некада користио као седатив.

Или када је „Гуглова“ функција Google AI Overviews погрешно саветовала људима са раком панкреаса да избегавају храну са високим садржајем масти, што је управо супротно од онога што би требало да раде.

"OpenAI" експлицитно наводи да је њихов алат намењен потрошачима дизајниран тако да је потребна блиска сарадња са лекарима и да никако није намењен за успостављање дијагнозе и спровођења лечења. Алати намењени за дијагнозу и лечење означени су као медицински уређаји и подлежу много строжим прописима, као што су клиничка испитивања како би се доказало да раде онако како је произвођач описао и праћење безбедности примене.

Да ли је потребна регулатива као за медицинске уређаје

Иако су у "OpenAI"-у потпуно свесни и отворени да се ChatGPT много користи за тражење информација о здрављу и благостању корисника (сетимо се 230 милиона људи који сваке недеље траже савет), тврдња компаније да није намењен да се користи као медицински уређај има велику тежину код регулатора, објашњава професорка Герке.

„Наведена намена произвођача је кључни фактор у класификацији медицинских уређаја“, каже професорка, што значи да ће компаније које кажу да алати нису за медицинску употребу у великој мери избећи надзор чак и ако се производи користе у медицинске сврхе. То доводи у фокус изазове које регулаторна тела могу да имају са технологијом попут четботова.

За сада, макар, овакво декларисање производа са негирањем потребе за одговорношћу држи ChatGPT Health ван делокруга регулатора попут Управе за храну и лекове, али Хана ван Колфшутен каже да је сасвим разумно питати се да ли би алати попут овог заиста требало да буду класификовани као медицински уређаји и регулисани као такви.

Важно је пороучити како се производ користи, као и шта компанија говори, објашњава Ван Колфшутен. Када је најавио производ, "OpenAI" је предложио да се ChatGPT Health користи за тумачење лабораторијских резултата, праћење здравственог понашања или као помоћ при доношењу одлука о лечењу. Ако производ то ради, могло би се разумно тврдити да би могао да потпадне под америчку дефиницију медицинског уређаја, каже истраживачица, сугеришући да би јачи регулаторни оквир могао бити разлог зашто још није доступан у Европи.

Упркос тврдњи да ChatGPT није предвиђен за постављање дијагноза или предлагање лечења, "OpenAI" је уложио много труда да докаже да је четбот прилично способан медицински уређај, као и да подстакне кориснике да га користе за здравствене упите. Компанија је истакла здравље као главну област употребе приликом покретања верзије GPT-5, а извршни директор Сем Алтман је чак позвао пацијенткињу оболелу од рака и њеног мужа на сцену да говоре о томе како јој је алат помогао да разуме своју дијагнозу.

Компанија каже да процењује медицинску способност ChatGPT-ја у односу на стандард који је сама развила са више од 260 лекара из десетина специјализација, алат HealthBench, који „тестира колико добро модели вештачке интелигенције функционишу у реалним здравственим сценаријима“, иако критичари напомињу да није баш транспарентан.

Друге студије – често мале, ограничене или оне које спроводи сама компанија – такође наговештавају медицински потенцијал ChatGPT-ја, показујући да у неким случајевима може да положи испите за медицинску лиценцу, боље комуницира са пацијентима и да може да надмаши лекаре у дијагностиковању болести, као и да помогне лекарима да праве мање грешака када га користе као алат.

Када ћемо имати поверења у четботове као у домове здравља

Напори "OpenAI"-а да представи ChatGPT Health као ауторитативан извор здравствених информација такође би могли да поткопају све покушаје да скине одговорност са себе који укључују саветовање корисника да алат не употребљавају у медицинске сврхе, каже Ван Колфшутен. „Када систем оставља утисак персонализованог и има ову ауру ауторитета, тврдње компаније да алат није намењен у медицинске сврхе неће нужно довести у питање поверење људи у систем.“

Компаније попут "OpenAI"-а и „Антропика“ надају се да ће имати то поверење док се боре за истакнуто место на ономе што виде као следеће велико тржиште за вештачку интелигенцију. Бројке, које показују колико људи већ користи четботове за питања о здрављу, сугеришу да су ВИ компаније можда на правом путу, а с обзиром на велике неједнакости у здравству и тешкоће са којима се многи суочавају у приступу чак и основној нези, ово би могла да буде добра ствар.

Барем би могла бити, ако је то поверење добро утемељено. Поверавамо своје приватне податке здравственим установама јер је та професија заслужила то поверење.

Још није јасно да ли је индустрија са репутацијом брзог кретања и лажног развоја заслужила исто.

понедељак, 09. март 2026.
9° C

Коментари

Da, ali...
Како преживети прва три дана катастрофе у Србији, и за шта нас припрема ЕУ
Dvojnik mog oca
Вероватно свако од нас има свог двојника са којим дели и сличну ДНК
Nemogućnost tusiranja
Не туширате се сваког дана – не стидите се, то је здраво
Cestitke za uspeh
Да ли сте знали да се најбоље грамофонске ручице производе у Србији
Re: Eh...
Лесковачка спржа – производ са заштићеним географским пореклом