Venerdì 29 marzo 2024

desktop v4.2.1

Root NationНовиниGiornale informaticoMigliaia di persone hanno ricevuto aiuto terapeutico da AI senza il loro consenso

Migliaia di persone hanno ricevuto aiuto terapeutico da AI senza il loro consenso

-

Venerdì, il co-fondatore di Koko, Rob Morris, ha annunciato a Twitter, che la sua azienda ha condotto un esperimento per fornire consigli sulla salute mentale scritti dall'intelligenza artificiale a 4 persone senza preavviso, riporta The Verge. I critici hanno definito l'esperimento profondamente immorale perché Koko non ha ottenuto il consenso informato dalle persone che hanno chiesto consiglio. Koko è una piattaforma di salute mentale senza scopo di lucro che mette in contatto adolescenti e adulti bisognosi di cure per la salute mentale con volontari attraverso app di messaggistica come Telegram e Discordia.

Su Discord, gli utenti accedono al server Koko Cares e inviano messaggi diretti al bot Koko, che pone una serie di domande a scelta multipla (ad esempio, "Qual è il pensiero più oscuro che hai su questo?"). Quindi condivide anonimamente la preoccupazione della persona, registrata come poche frasi di testo, con qualcun altro sul server, che può rispondere in modo anonimo con un proprio breve messaggio.

https://twitter.com/RobertRMorris/status/1611450197707464706?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1611450197707464706%7Ctwgr%5Ea36b67a72ef02f3601dfae160441f1250a68dc2a%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Farstechnica.com%2Finformation-technology%2F2023%2F01%2Fcontoversy-erupts-over-non-consensual-ai-mental-health-experiment%2F

In un esperimento di intelligenza artificiale (AI) che ha coinvolto circa 30 messaggi, ha affermato Morris, i volontari che aiutano gli altri hanno avuto la possibilità di utilizzare una risposta generata automaticamente dal modello di linguaggio di grandi dimensioni GPT-3 di OpenAI invece di scriverla in modo indipendente (GPT-3 è la tecnologia alla base il chatbot ChatGPT recentemente popolare). Nel suo tweet, Morris osserva che le persone hanno elogiato le risposte generate dall'IA fino a quando non hanno appreso che erano state scritte dall'IA, suggerendo una mancanza fondamentale di consenso informato in almeno una fase dell'esperimento:

“I messaggi composti dall'intelligenza artificiale (e controllati dagli umani) sono stati valutati significativamente più alti di quelli scritti dagli stessi umani. Tempo di risposta ridotto del 50% a meno di un minuto. Eppure... abbiamo rimosso questa funzione dalla nostra piattaforma abbastanza rapidamente. Come mai? Una volta che le persone hanno scoperto che i messaggi erano stati generati da una macchina, ha smesso di funzionare. La simpatia simulata sembra strana, vuota."

Koko

Nell'introduzione al server, gli amministratori scrivono: “Koko ti mette in contatto con persone reali che ti capiscono davvero. Non terapisti, non consulenti, solo persone come te". Subito dopo che Morris ha pubblicato il messaggio, ha ricevuto molte risposte che criticavano l'esperimento come non etico, citando preoccupazioni per la mancanza di consenso informato e chiedendosi se l'esperimento fosse stato approvato dall'Institutional Review Board (IRB). Negli Stati Uniti è illegale condurre ricerche su soggetti umani senza un consenso informato legalmente effettivo, a meno che l'IRB non stabilisca che il consenso può essere revocato.

In un tweet in risposta, Morris ha affermato che l'esperimento era "esente" dai requisiti del consenso informato perché non aveva intenzione di pubblicare i risultati, scatenando una parata di indignazione.

L'idea di utilizzare l'IA come terapista è tutt'altro che nuova, ma ciò che rende l'esperimento di Koko diverso dai tipici approcci di terapia dell'IA è che i pazienti tendono a sapere che non stanno parlando con una persona dal vivo. Nel caso di Koko, la piattaforma prevedeva un approccio ibrido in cui un intermediario umano poteva rivedere un messaggio prima di inviarlo, invece di un semplice formato di chat. Tuttavia, senza il consenso informato, i critici affermano che Koko ha violato le regole etiche progettate per proteggere le persone vulnerabili da pratiche di ricerca dannose o crudeli.

Lunedì, Morris ha pubblicato un post in risposta alla controversia e spiegando il viaggio di Koko verso GPT-3 e AI in generale: “Ricevo critiche, preoccupazioni e domande su questo lavoro con empatia e apertura. Ci impegniamo a garantire che qualsiasi utilizzo dell'IA sia sensibile, con una profonda preoccupazione per la privacy, la trasparenza e la mitigazione del rischio. Il nostro comitato consultivo clinico si riunisce per discutere le linee guida per il lavoro futuro, inclusa l'approvazione dell'IRB".

Puoi aiutare l'Ucraina a combattere contro gli invasori russi. Il modo migliore per farlo è donare fondi alle forze armate ucraine attraverso Salva Vita o tramite la pagina ufficiale NBU.

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti
Altri articoli
Iscriviti per gli aggiornamenti

Commenti recenti

Popolare ora
0
Adoriamo i tuoi pensieri, per favore commenta.x