Sexta-feira, 29º de março de 2024

área de trabalho v4.2.1

Root NationНовиниnotícias de TIMilhares de pessoas receberam ajuda terapêutica da IA ​​sem seu consentimento

Milhares de pessoas receberam ajuda terapêutica da IA ​​sem seu consentimento

-

Na sexta-feira, o co-fundador da Koko, Rob Morris, anunciou na Twitter, que sua empresa conduziu um experimento para fornecer conselhos de saúde mental escritos por IA para 4 pessoas sem notificação prévia, relata The Verge. Os críticos consideraram o experimento profundamente antiético porque Koko não obteve o consentimento informado das pessoas que buscaram o conselho. Koko é uma plataforma de saúde mental sem fins lucrativos que conecta adolescentes e adultos que precisam de cuidados de saúde mental com voluntários por meio de aplicativos de mensagens como Telegram e Discórdia.

No Discord, os usuários fazem login no servidor Koko Cares e enviam mensagens diretas para o bot Koko, que faz uma série de perguntas de múltipla escolha (por exemplo, "Qual é o pensamento mais sombrio que você tem sobre isso?"). Em seguida, ele compartilha anonimamente a preocupação da pessoa, registrada como algumas frases de texto, com outra pessoa no servidor, que pode responder anonimamente com uma mensagem curta.

https://twitter.com/RobertRMorris/status/1611450197707464706?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1611450197707464706%7Ctwgr%5Ea36b67a72ef02f3601dfae160441f1250a68dc2a%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Farstechnica.com%2Finformation-technology%2F2023%2F01%2Fcontoversy-erupts-over-non-consensual-ai-mental-health-experiment%2F

Em um experimento de inteligência artificial (IA) envolvendo cerca de 30 mensagens, disse Morris, os voluntários que ajudaram os outros tiveram a opção de usar uma resposta gerada automaticamente pelo modelo de linguagem grande GPT-3 da OpenAI em vez de escrevê-la independentemente (GPT-3 é a tecnologia por trás o recentemente popular chatbot ChatGPT). Em seu tweet, Morris observa que as pessoas elogiaram as respostas geradas pela IA até descobrirem que foram escritas pela IA, sugerindo uma falta fundamental de consentimento informado em pelo menos uma fase do experimento:

“Mensagens compostas por IA (e controladas por humanos) foram avaliadas significativamente mais altas do que aquelas escritas pelos próprios humanos. Tempo de resposta reduzido em 50% para menos de um minuto. E ainda… removemos esse recurso de nossa plataforma rapidamente. Porque? Depois que as pessoas descobriram que as mensagens eram geradas por máquina, ele parou de funcionar. Simpatia simulada parece estranha, vazia."

Koko

Na introdução ao servidor, os administradores escrevem: “Koko conecta você com pessoas reais que realmente entendem você. Nem terapeutas, nem conselheiros, apenas pessoas como você." Logo depois que Morris postou a mensagem, ele recebeu muitas respostas criticando o experimento como antiético, citando preocupações sobre a falta de consentimento informado e questionando se o experimento havia sido aprovado pelo Conselho de Revisão Institucional (IRB). Nos Estados Unidos, é ilegal realizar pesquisas em seres humanos sem consentimento informado legalmente efetivo, a menos que o IRB determine que o consentimento pode ser dispensado.

Em um tweet em resposta, Morris disse que o experimento estava "isento" dos requisitos de consentimento informado porque ele não tinha planos de publicar os resultados, provocando uma onda de indignação.

A ideia de usar IA como terapeuta está longe de ser nova, mas o que torna o experimento de Koko diferente das abordagens típicas de terapia de IA é que os pacientes tendem a saber que não estão falando com uma pessoa viva. No caso da Koko, a plataforma envolveu uma abordagem híbrida em que um intermediário humano poderia revisar uma mensagem antes de enviá-la, em vez de um formato de chat direto. No entanto, sem consentimento informado, os críticos dizem que Koko violou regras éticas destinadas a proteger pessoas vulneráveis ​​de práticas de pesquisa prejudiciais ou cruéis.

Na segunda-feira, Morris postou uma postagem respondendo à polêmica e explicando a jornada de Koko para GPT-3 e IA em geral: “Recebo críticas, preocupações e perguntas sobre este trabalho com empatia e franqueza. Estamos comprometidos em garantir que qualquer uso de IA seja sensível, com uma profunda preocupação com privacidade, transparência e mitigação de riscos. Nosso Conselho Consultivo Clínico está se reunindo para discutir diretrizes para trabalhos futuros, incluindo a aprovação do IRB.”

Você pode ajudar a Ucrânia a lutar contra os invasores russos. A melhor maneira de fazer isso é doar fundos para as Forças Armadas da Ucrânia através Salva vida ou através da página oficial NBU.

Leia também:

DzhereloArstechnica
Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários
Outros artigos
Inscreva-se para atualizações

Comentários recentes

Popular agora
0
Nós amamos seus pensamentos, por favor, comente.x