OpenAI je nedavno unio velike promene u pravila korišćenja, kojima se zvanično ograničava upotreba ČetGPT-ja u oblastima kao što su medicina, pravo i finansije.

Izvor: Glas Srpske Foto: Pixabay/Ilustracija
To znači da vještačka inteligencija više ne smije da pruža personalizovane savjete u bilo kojoj oblasti koja zahtijeva licencu ili formalno obrazovanje – uključujući postavljanje medicinskih dijagnoza, tumačenje zakona ili davanje prijedloga oko upravljanja novcem.
Prema novim smjernicama, ČetGPT može objasniti opšte principe ili pojmove, ali ne smije da djeluje kao zamjena za stručnjaka. Na primjer, ako korisnik pita kako da liječi konkretan simptom bolesti, model smije da opiše šta taj simptom uopšteno može da znači, ali će uvijek preporučiti korisniku da za konkretan savjet pita ljekara.
Slično važi i za pravne ili finansijske teme: ČetGPT će reći kako funkcioniše porez ili šta sadrži testament, ali ne može da savjetuje šta da potpišete ili u šta da uložite novac.
Razlog za promjene je jednostavan: OpenAI želi da se zaštiti od pravnih rizika i istovremeno ograniči zloupotrebu tehnologije koja potencijalno može nanijeti štetu. Na zvaničnom sajtu kompanije stoji da je cilj ove mjere „zaštita ljudi od potencijalnih posljedica zbog dijeljenja pogrešnih ili neprovjerenih informacija“.
Drugim riječima, ČetGPT više neće „glumiti doktora, advokata ili finansijskog savjetnika“, jer ti poslovi podrazumijevaju odgovornost koju AI algoritam ne može da preuzme. Kompanija posebno naglašava da se njeni modeli ne smiju koristiti u kontekstima koji mogu direktno uticati na zdravlje, bezbjednost ili finansijsku stabilnost ljudi. To uključuje, pored ostalog, dijagnozu bolesti, procjenu rizika za kredite, pravne odluke ili tumačenje ugovora.
U dijelu „Zabranjene primjene“ OpenAI izričito navodi da je zabranjeno koristiti modele za:
- pružanje medicinskih savjeta, uključujući dijagnozu i liječenje;
 - pripremu ili pregled pravnih dokumenata bez licenciranog advokata;
 - davanje finansijskih ili investicionih preporuka;
 - simuliranje profesionalaca u bilo kojoj oblasti u kojoj bi greška mogla imati posljedice po život ili imovinu.
 
OpenAI ujedno podsjeća da se svi razgovori sa ČetGPT-jem mogu koristiti za „poboljšanje modela“, što znači da podaci koje korisnici dijele nisu potpuno privatni. Zbog toga nova pravila idu ruku pod ruku sa preporukom da se nikada ne unose lični, finansijski ili medicinski podaci, kao što su medicinski nalazi ili podaci o bankovnim računima.
U suštini, ČetGPT se sada tretira kao obrazovni i informativni alat, ne kao zamjena za profesionalca. Može da pomogne u razumijevanju složenih pojmova, da ponudi pregled istraživanja ili pojasni pravne termine, ali ne smije da preporučuje, propisuje ili odlučuje u ime korisnika. To je dio šire strategije kojom OpenAI želi da pokaže da njegovi modeli mogu biti bezbjedniji, transparentniji i odgovorniji, prenosi „Internešnal biznis tajms“.
Ove promjene su odgovor na sve učestalije kritike da su ljudi počeli da se previše oslanjaju na vještačku inteligenciju kao na nepogrešiv izvor činjenica. OpenAI sada želi da podvuče granicu između korisnog alata za učenje i opasnog izvora netačnih informacija, a novi sistem zabrana i upozorenja upravo služi tome – da podsjeti korisnike da ČetGPT nije ni ljekar, ni advokat, ni finansijski savjetnik, već samo dobro obučen pisac koji ume da sastavi uvjerljiv odgovor, ali ne i da garantuje da je tačan.


