หมวดหมู่: ข่าวไอที

ผู้คนหลายพันคนได้รับความช่วยเหลือด้านการรักษาจาก AI โดยไม่ได้รับความยินยอมจากพวกเขา

เมื่อวันศุกร์ที่ผ่านมา Rob Morris ผู้ร่วมก่อตั้ง Koko ได้ประกาศเมื่อ Twitterว่าบริษัทของเขาได้ทำการทดลองเพื่อให้คำแนะนำด้านสุขภาพจิตที่เขียนด้วย AI แก่ผู้คน 4 คนโดยไม่ต้องแจ้งให้ทราบล่วงหน้า The Verge รายงาน นักวิจารณ์เรียกการทดลองนี้ว่าผิดจรรยาบรรณอย่างยิ่ง เพราะ Koko ไม่ได้รับการยินยอมจากผู้ที่ขอคำแนะนำ Koko เป็นแพลตฟอร์มสุขภาพจิตที่ไม่แสวงหาผลกำไรที่เชื่อมโยงวัยรุ่นและผู้ใหญ่ที่ต้องการการดูแลสุขภาพจิตกับอาสาสมัครผ่านแอพส่งข้อความเช่น Telegram และความไม่ลงรอยกัน

ใน Discord ผู้ใช้จะเข้าสู่ระบบเซิร์ฟเวอร์ Koko Cares และส่งข้อความโดยตรงไปยัง Koko bot ซึ่งจะถามคำถามแบบปรนัย (เช่น "คุณมีความคิดที่มืดมนที่สุดเกี่ยวกับเรื่องนี้อย่างไร") จากนั้นจะแบ่งปันความกังวลของบุคคลนั้นโดยไม่เปิดเผยตัวตน โดยบันทึกเป็นข้อความสองสามประโยคกับบุคคลอื่นบนเซิร์ฟเวอร์ ซึ่งสามารถตอบกลับโดยไม่เปิดเผยตัวตนด้วยข้อความสั้นๆ ของพวกเขาเอง

ในการทดลองปัญญาประดิษฐ์ (AI) ที่เกี่ยวข้องกับข้อความประมาณ 30 ข้อความ มอร์ริสกล่าวว่าอาสาสมัครที่ช่วยเหลือผู้อื่นมีทางเลือกที่จะใช้การตอบสนองที่สร้างโดยอัตโนมัติโดยโมเดลภาษาขนาดใหญ่ GPT-3 ของ OpenAI แทนที่จะเขียนเอง (GPT-3 เป็นเทคโนโลยีที่อยู่เบื้องหลัง แชทบอท ChatGPT ที่ได้รับความนิยมล่าสุด) ในทวีตของเขา Morris ตั้งข้อสังเกตว่าผู้คนชื่นชมคำตอบที่สร้างโดย AI จนกว่าพวกเขาจะรู้ว่าคำตอบนั้นเขียนโดย AI ซึ่งบ่งบอกว่าขาดความยินยอมที่ได้รับการบอกกล่าวที่สำคัญในอย่างน้อยหนึ่งช่วงของการทดลอง:

“ข้อความที่แต่งโดย AI (และควบคุมโดยมนุษย์) ได้รับการจัดอันดับสูงกว่าข้อความที่เขียนโดยมนุษย์เองอย่างมาก เวลาตอบสนองลดลง 50% เหลือน้อยกว่าหนึ่งนาที และถึงกระนั้น… เราลบฟีเจอร์นี้ออกจากแพลตฟอร์มของเราอย่างรวดเร็ว ทำไม เมื่อผู้คนพบว่าข้อความดังกล่าวถูกสร้างขึ้นโดยเครื่อง มันก็หยุดทำงาน ความเห็นอกเห็นใจจำลองดูแปลก ๆ ว่างเปล่า "

ในบทนำของเซิร์ฟเวอร์ ผู้ดูแลระบบเขียนว่า: “Koko เชื่อมต่อคุณกับคนจริงๆ ที่เข้าใจคุณจริงๆ ไม่ใช่นักบำบัด ไม่ใช่ที่ปรึกษา แค่คนอย่างคุณ" ไม่นานหลังจากที่มอร์ริสโพสต์ข้อความ เขาได้รับคำตอบมากมายที่วิจารณ์การทดลองว่าผิดจริยธรรม โดยอ้างถึงความกังวลเกี่ยวกับการขาดความยินยอมที่ได้รับการบอกกล่าว และตั้งคำถามว่าการทดลองได้รับการอนุมัติจากคณะกรรมการพิจารณาของสถาบัน (IRB) หรือไม่ ในสหรัฐอเมริกา การดำเนินการวิจัยในมนุษย์โดยปราศจากความยินยอมที่มีผลบังคับใช้ตามกฎหมายถือเป็นเรื่องผิดกฎหมาย เว้นแต่ IRB จะพิจารณาว่าสามารถสละความยินยอมได้

ในทวีตตอบกลับ มอร์ริสกล่าวว่าการทดลองนี้ "ได้รับการยกเว้น" จากข้อกำหนดการยินยอมที่ได้รับการบอกกล่าว เนื่องจากเขาไม่มีแผนที่จะเผยแพร่ผลการทดลอง ซึ่งจุดชนวนให้เกิดความไม่พอใจ

แนวคิดของการใช้ AI เป็นนักบำบัดนั้นไม่ใช่เรื่องใหม่ แต่สิ่งที่ทำให้การทดลองของ Koko แตกต่างจากแนวทางการบำบัดด้วย AI ทั่วไปก็คือ ผู้ป่วยมักจะรู้ว่าพวกเขาไม่ได้กำลังพูดคุยกับคนที่มีชีวิตอยู่ ในกรณีของ Koko แพลตฟอร์มนี้เกี่ยวข้องกับวิธีการแบบผสมผสานที่ตัวกลางที่เป็นมนุษย์สามารถตรวจสอบข้อความก่อนที่จะส่ง แทนที่จะใช้รูปแบบการแชทโดยตรง อย่างไรก็ตาม หากไม่ได้รับความยินยอม ผู้วิจารณ์กล่าวว่า Koko ละเมิดกฎจริยธรรมที่ออกแบบมาเพื่อปกป้องผู้ที่อ่อนแอจากการวิจัยที่เป็นอันตรายหรือโหดร้าย

เมื่อวันจันทร์ที่ผ่านมา มอร์ริสได้โพสต์ตอบข้อโต้แย้งและอธิบายการเดินทางของ Koko สู่ GPT-3 และ AI โดยทั่วไปว่า “ฉันรับคำวิจารณ์ ความกังวล และคำถามเกี่ยวกับงานนี้ด้วยความเห็นอกเห็นใจและเปิดเผย เรามุ่งมั่นที่จะสร้างความมั่นใจว่าการใช้ AI ใดๆ นั้นเป็นเรื่องละเอียดอ่อน โดยคำนึงถึงความเป็นส่วนตัว ความโปร่งใส และการลดความเสี่ยง คณะกรรมการที่ปรึกษาทางคลินิกของเรากำลังประชุมเพื่อหารือเกี่ยวกับแนวทางการทำงานในอนาคต รวมทั้งการอนุมัติจาก IRB”

คุณสามารถช่วยยูเครนต่อสู้กับผู้รุกรานรัสเซีย วิธีที่ดีที่สุดคือบริจาคเงินให้กับกองทัพยูเครนผ่าน เซฟไลฟ์ หรือทางเพจอย่างเป็นทางการ NBU.

อ่าน:

Share
Julia Alexandrova

คอฟฟี่แมน. ช่างภาพ. ฉันเขียนเกี่ยวกับวิทยาศาสตร์และอวกาศ ฉันคิดว่ามันเร็วเกินไปที่เราจะได้พบกับมนุษย์ต่างดาว ฉันติดตามการพัฒนาหุ่นยนต์ ในกรณีที่ ...

เขียนความเห็น

ที่อยู่อีเมลของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมาย*