Petek, 29. marec 2024

namizje v4.2.1

Root NationНовиниIT noviceNa tisoče ljudi je prejelo terapevtsko pomoč AI brez njihove privolitve

Na tisoče ljudi je prejelo terapevtsko pomoč AI brez njihove privolitve

-

V petek je soustanovitelj Koko Rob Morris objavil na Twitter, da je njegovo podjetje izvedlo eksperiment za zagotavljanje nasvetov o duševnem zdravju, napisanih z AI, 4 ljudem brez predhodnega obvestila, poroča The Verge. Kritiki so eksperiment označili za zelo neetičnega, ker Koko ni pridobil informiranega soglasja ljudi, ki so iskali nasvet. Koko je neprofitna platforma za duševno zdravje, ki povezuje najstnike in odrasle, ki potrebujejo duševno oskrbo, s prostovoljci prek aplikacij za sporočanje, kot je Telegram in Discord.

Na Discordu se uporabniki prijavijo v strežnik Koko Cares in pošljejo neposredna sporočila botu Koko, ki postavlja vrsto vprašanj z več možnimi odgovori (npr. "Katera je najbolj črna misel, ki jo imaš o tem?"). Nato anonimno deli zaskrbljenost osebe, zabeleženo kot nekaj stavkov besedila, z nekom drugim na strežniku, ki lahko anonimno odgovori s svojim kratkim sporočilom.

https://twitter.com/RobertRMorris/status/1611450197707464706?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1611450197707464706%7Ctwgr%5Ea36b67a72ef02f3601dfae160441f1250a68dc2a%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Farstechnica.com%2Finformation-technology%2F2023%2F01%2Fcontoversy-erupts-over-non-consensual-ai-mental-health-experiment%2F

V eksperimentu z umetno inteligenco (AI), ki je vključeval približno 30 sporočil, je Morris dejal, da so imeli prostovoljci, ki so pomagali drugim, možnost, da uporabijo odgovor, ki ga samodejno ustvari veliki jezikovni model OpenAI GPT-3, namesto da ga napišejo neodvisno (GPT-3 je tehnologija, ki stoji za tem nedavno priljubljen chatbot ChatGPT). V svojem tvitu Morris ugotavlja, da so ljudje hvalili odgovore, ki jih je ustvarila umetna inteligenca, dokler niso izvedeli, da jih je napisala umetna inteligenca, kar kaže na ključno pomanjkanje informirane privolitve v vsaj eni fazi eksperimenta:

»Sporočila, ki jih je sestavila umetna inteligenca (in jih nadzirajo ljudje), so bila ocenjena znatno višje od tistih, ki so jih napisali ljudje sami. Odzivni čas zmanjšan za 50 % na manj kot minuto. Pa vendar ... to funkcijo smo precej hitro odstranili z naše platforme. Zakaj? Ko so ljudje ugotovili, da so bila sporočila strojno ustvarjena, je prenehalo delovati. Simulirano sočutje se zdi čudno, prazno."

Koko

V uvodu strežnika administratorji pišejo: »Koko te poveže z resničnimi ljudmi, ki te res razumejo. Ne terapevti, ne svetovalci, samo ljudje, kot ste vi." Kmalu po tem, ko je Morris objavil sporočilo, je prejel številne odzive, ki so kritizirali poskus kot neetičnega, pri čemer so navajali pomisleke glede pomanjkanja informiranega soglasja in se spraševali, ali je eksperiment odobril Institucionalni revizijski odbor (IRB). V Združenih državah je prepovedano izvajati raziskave na ljudeh brez pravno veljavne informirane privolitve, razen če IRB odloči, da se je privolitvi mogoče odpovedati.

Morris je v tvitu v odgovor dejal, da je bil poskus "izvzet" iz zahtev po informiranem soglasju, ker ni nameraval objaviti rezultatov, kar je sprožilo parado ogorčenja.

Zamisel o uporabi umetne inteligence kot terapevta še zdaleč ni nova, toda tisto, zaradi česar se Kokov eksperiment razlikuje od tipičnih terapevtskih pristopov z umetno inteligenco, je, da pacienti ponavadi vedo, da se ne pogovarjajo z živo osebo. V primeru Koko je platforma vključevala hibridni pristop, pri katerem je človeški posrednik lahko pregledal sporočilo, preden ga je poslal, namesto neposredne oblike klepeta. Vendar pa kritiki trdijo, da je Koko brez informiranega soglasja kršil etična pravila, namenjena zaščiti ranljivih ljudi pred škodljivimi ali krutimi raziskovalnimi praksami.

V ponedeljek je Morris objavil objavo, v kateri se je odzval na polemiko in razložil Kokovo pot do GPT-3 in AI na splošno: »Kritike, pomisleke in vprašanja o tem delu sprejemam z empatijo in odprtostjo. Zavezani smo k zagotavljanju, da je vsaka uporaba umetne inteligence občutljiva, pri čemer globoko skrbimo za zasebnost, preglednost in zmanjševanje tveganja. Naš klinični svetovalni odbor se sestaja, da razpravlja o smernicah za prihodnje delo, vključno z odobritvijo IRB."

Lahko pomagate Ukrajini v boju proti ruskim okupatorjem. Najboljši način za to je donacija sredstev oboroženim silam Ukrajine prek Savelife ali preko uradne strani NBU.

Preberite tudi:

Prijavite se
Obvesti o
gost

0 Komentarji
Vdelana mnenja
Prikaži vse komentarje
Drugi članki
Naročite se na posodobitve

Nedavni komentarji

Popularno zdaj
0
Všeč so nam vaše misli, komentirajte.x