
บริการแทรกแซงวิกฤตมีความกังวลเกี่ยวกับอนาคตทางการเงิน แต่ทำผิดพลาดครั้งใหญ่
หลายปีหลังจากที่ Nancy Lublin ก่อตั้ง Crisis Text Line ในปี 2013 เธอได้เข้าพบคณะกรรมการพร้อมกับโอกาส : จะเกิดอะไรขึ้นหากพวกเขาแปลงข้อมูลผู้ใช้และข้อมูลเชิงลึกขององค์กรที่ไม่แสวงหากำไรให้เป็นโปรแกรมการฝึกอบรมองค์กรที่เน้นความเห็นอกเห็นใจ กลยุทธ์ทางธุรกิจสามารถใช้ประโยชน์จากการรวบรวมและวิเคราะห์ข้อมูลที่น่าประทับใจ ของ Crisis Text Line พร้อมด้วยบทเรียนเกี่ยวกับวิธีการสนทนาอย่างดีที่สุด และด้วยเหตุนี้จึงสร้างกระแสรายได้ที่จำเป็นสำหรับองค์กรที่เพิ่งเริ่มต้นที่ดำเนินงานด้านสุขภาพจิตที่ขาดแคลนทุนทรัพย์
บริการแทรกแซงวิกฤตกำลังไปได้ดีในขณะนี้ สร้างราย ได้49 ล้านดอลลาร์สหรัฐในปี 2020จากการสนับสนุนที่เพิ่มขึ้นจากผู้สนับสนุนองค์กรเพื่อตอบสนองความต้องการและการขยายตัวที่เกี่ยวข้องกับการแพร่ระบาด รวมถึงการระดมทุนเพื่อการกุศลรอบใหม่ แต่ในปี 2560 รายได้ของ Crisis Text Line นั้น น้อยมากเพียง 2.6 ล้านเหรียญสหรัฐ เมื่อ Lublin เสนอบริษัทที่แสวงหาผลกำไร คณะกรรมการขององค์กรมีความกังวลเกี่ยวกับความยั่งยืนในระยะยาวของ Crisis Text Line ตามบัญชีที่เผยแพร่เมื่อเร็วๆ นี้โดย Danah Boyd สมาชิกคณะกรรมการผู้ก่อตั้ง
แนวคิดในการแยกองค์กรที่แสวงหาผลกำไรออกจาก Crisis Text Line ทำให้เกิดคำถามเชิงจริยธรรมที่ซับซ้อนว่าผู้ส่งข้อความยินยอมให้สร้างรายได้จากการสนทนาที่ใกล้ชิดและเปราะบางกับที่ปรึกษาหรือไม่ แต่คณะกรรมการอนุมัติข้อตกลง บริษัทใหม่นี้มีชื่อว่า Loris ซึ่งเปิดตัวในปี 2561โดยมีเป้าหมายเพื่อให้การฝึกอบรม “ทักษะด้านอารมณ์” ที่ไม่เหมือนใครแก่บริษัทต่างๆ
อย่างไรก็ตาม ไม่ชัดเจนนักว่า Crisis Text Line มีข้อตกลงในการแบ่งปันข้อมูลกับ Loris ซึ่งทำให้บริษัทสามารถเข้าถึงข้อความผู้ใช้ที่ถูกขัดถูและไม่ระบุชื่อ ซึ่งเป็นข้อเท็จจริงที่ Politico รายงานเมื่อสัปดาห์ที่แล้ว เรื่องราวยังมีข้อมูลเกี่ยวกับรูปแบบธุรกิจของลอริส ซึ่งขายซอฟต์แวร์ระดับองค์กรให้กับบริษัทต่างๆ เพื่อวัตถุประสงค์ในการเพิ่มประสิทธิภาพการบริการลูกค้า เมื่อวันจันทร์ กรรมาธิการด้านการสื่อสารแห่งสหพันธรัฐร้องขอให้องค์กรไม่แสวงหาผลกำไรยุติความสัมพันธ์ในการแบ่งปันข้อมูล โดยเรียกข้อตกลงดังกล่าวว่า “ดิสโทเปียอย่างน่ารำคาญ” ในจดหมายถึง Crisis Text Line และผู้นำลอริส ในวันเดียวกันนั้นCrisis Text Line ประกาศว่าได้ตัดสินใจยุติข้อตกลงและขอให้ลอริสลบข้อมูลที่ได้รับก่อนหน้านี้
“การตัดสินใจครั้งนี้หนักใจกับฉัน แต่ฉันโหวตเห็นด้วย” บอยด์เขียนเกี่ยวกับการอนุญาตให้ Lublin หา Loris “ถ้ารู้สิ่งที่ฉันรู้ตอนนี้ฉันจะไม่ได้ แต่การมองย้อนกลับไปนั้นชัดเจนกว่าเสมอ”
แม้ว่ารายได้จาก Loris ควรจะนำไปสนับสนุน Crisis Text Line แต่บริษัทก็ไม่มีบทบาทใดๆ ในรายได้ที่เพิ่มขึ้นขององค์กรไม่แสวงหาผลกำไรในปี 2020 ตามคำกล่าวของ Shawn Rodriguez รองประธานและที่ปรึกษาทั่วไปของ Crisis Text Line ถึงกระนั้น ข้อโต้แย้งเกี่ยวกับการตัดสินใจของ Crisis Text Line ในการสร้างรายได้จากข้อมูลที่สร้างขึ้นโดยผู้คนที่ต้องการความช่วยเหลือในขณะที่ประสบกับความทุกข์ทางจิตใจหรืออารมณ์อย่างรุนแรงได้กลายเป็นกรณีศึกษาในจริยธรรมของข้อมูลขนาดใหญ่ เมื่ออัลกอริทึมไปทำงานกับชุดข้อมูลขนาดใหญ่ พวกมันสามารถให้ข้อมูลเชิงลึกที่แปลกใหม่ ซึ่งบางอัลกอริทึมสามารถช่วยชีวิตคนได้อย่างแท้จริง ท้ายที่สุดแล้ว Crisis Text Line ได้ใช้ AI เพื่อระบุว่าข้อความใดมีความเสี่ยงมากกว่า จากนั้นจึงวางข้อความเหล่านั้นให้อยู่ในลำดับที่สูงกว่า
แต่คำมั่นสัญญาของความก้าวหน้าดังกล่าวมักจะบดบังความเสี่ยงของการใช้ข้อมูลในทางที่ผิดหรือในทางที่ผิด หากไม่มีกฎระเบียบหรือคำแนะนำจากรัฐบาลที่เข้มงวด องค์กรการกุศลและบริษัทต่างๆ เช่น Crisis Text Line และ Loris จะถูกปล่อยให้ปรับปรุงกรอบจริยธรรมของตนเอง ค่าใช้จ่ายนั้นชัดเจนในสัปดาห์นี้จากการตำหนิของ FCC และความรู้สึกที่ว่า Crisis Text Line หักหลังผู้ใช้และผู้สนับสนุนในท้ายที่สุด
ใช้ประโยชน์จากความเห็นอกเห็นใจ
เมื่อ Loris เปิดตัวครั้งแรก Lublin อธิบายความทะเยอทะยานที่ดูเหมือนมีคุณธรรมต่อ Mashable ว่า “เป้าหมายของเราคือการทำให้มนุษย์เป็นมนุษย์ที่ดีขึ้น”
ในการสัมภาษณ์ Lublin ได้เน้นย้ำถึงการแปลบทเรียนของการฝึกอบรมผู้ให้คำปรึกษาที่เอาใจใส่และขับเคลื่อนด้วยข้อมูลของ Crisis Text Line ในสถานที่ทำงาน ซึ่งช่วยให้ผู้คนพัฒนาทักษะการสนทนาที่สำคัญ นี่ดูเหมือนเป็นผลพลอยได้ตามธรรมชาติของงานขององค์กรไม่แสวงหากำไร ไม่ชัดเจนว่า Lublin รู้ในขณะนั้นหรือไม่ แต่ไม่ได้ระบุอย่างชัดแจ้งว่า Loris จะสามารถเข้าถึงข้อมูลผู้ใช้ Crisis Text Line ที่ไม่เปิดเผยชื่อ หรือหากการเข้าถึงของบริษัทเปลี่ยนแปลงหลังจากเปิดตัว
“หากองค์กรอื่นสามารถฝึกผู้คนให้มากขึ้นเพื่อพัฒนาทักษะที่ที่ปรึกษาด้านวิกฤตของเรากำลังพัฒนา บางทีความจำเป็นในการใช้ Crisis Line ก็อาจลดลงได้” บอยด์เขียน ซึ่งส่งต่อคำถามของ Mashable เกี่ยวกับประสบการณ์ของเธอไปยัง Crisis Text Line “หากเราสามารถสร้างเครื่องมือที่ต่อสู้กับวงจรแห่งความเจ็บปวดและความทุกข์ทรมาน เราก็สามารถตอบแทนสิ่งที่เราเรียนรู้จากคนที่เรารับใช้ได้ ฉันต้องการช่วยผู้อื่นในการพัฒนาและใช้ประโยชน์จากการเอาใจใส่”
“ฉันต้องการช่วยให้ผู้อื่นพัฒนาและใช้ประโยชน์จากการเอาใจใส่”
แต่เมื่อถึงจุดหนึ่ง Loris ก็หันเหออกจากภารกิจ แต่เริ่มเสนอบริการเพื่อช่วยให้บริษัทเพิ่มประสิทธิภาพการบริการลูกค้า ใน LinkedIn บริษัทอ้างถึง “ประสบการณ์ที่กว้างขวางในการทำงานผ่านการสนทนาที่ท้าทายที่สุดในพื้นที่วิกฤต” และตั้งข้อสังเกตว่าซอฟต์แวร์การฝึกสอนสด “ช่วยให้ทีมดูแลลูกค้าทำให้ลูกค้ามีความสุขมากขึ้นและแบรนด์โดดเด่นท่ามกลางฝูงชน”
ในขณะที่การแยก Loris ออกจาก Crisis Text Line อาจเป็นความคิดที่ไม่ดีตั้งแต่เริ่มต้น การนำข้อมูลผู้ใช้ไปใช้ในเชิงพาณิชย์ของ Loris เพื่อช่วยให้บริษัทต่างๆ ปรับปรุงผลกำไรของตน รู้สึกไม่สบายใจอย่างมากจากบทบาทขององค์กรไม่แสวงหาผลกำไรในการป้องกันการฆ่าตัวตายและการแทรกแซงวิกฤต
“ความล้มเหลวที่กว้างขึ้น”
John Basl รองผู้อำนวยการ AI และ Data Ethics Initiatives ที่ Ethics Institute of Northeastern University กล่าวว่าข้อพิพาทนี้เป็นอีกตัวอย่างหนึ่งของ “ความล้มเหลวในวงกว้าง” ในด้านปัญญาประดิษฐ์
ในขณะที่ Basl เชื่อว่าเป็นไปได้ที่ AI จะเป็นประโยชน์ต่อสาธารณะอย่างชัดเจน แต่เขากล่าวว่าสาขานี้ขาด “ระบบนิเวศทางจริยธรรม” ที่จะช่วยให้นักเทคโนโลยีและผู้ประกอบการต่อสู้กับปัญหาทางจริยธรรมที่ Crisis Text Line พยายามแก้ไขภายใน ตัวอย่างเช่น ในการวิจัยทางชีวการแพทย์และทางคลินิก กฎหมายของรัฐบาลกลางควบคุมวิธีดำเนินการวิจัย กรณีศึกษาหลายทศวรรษให้ข้อมูลเชิงลึกเกี่ยวกับความผิดพลาดในอดีต และผู้เชี่ยวชาญด้านสหวิทยาการ เช่น นักชีวจริยธรรมช่วยไกล่เกลี่ยการโต้วาทีครั้งใหม่หรือที่กำลังดำเนินอยู่
“ในพื้นที่ AI เราแค่ยังไม่มี” เขากล่าว
รัฐบาลกลางเข้าใจความหมายของปัญญาประดิษฐ์ การพิจารณากรอบการกำกับดูแลอุปกรณ์การแพทย์ AI ของสำนักงานคณะกรรมการอาหารและยาเป็นตัวอย่างหนึ่ง แต่ Basl กล่าวว่าภาคสนามกำลังมีปัญหาในการพิจารณาความท้าทายที่เกิดจาก AI ในกรณีที่ไม่มีความพยายามของรัฐบาลกลางที่สำคัญในการสร้างระบบนิเวศทางจริยธรรม เขาสามารถจินตนาการถึงหน่วยงานของรัฐบาลกลางที่อุทิศให้กับการควบคุมปัญญาประดิษฐ์ หรืออย่างน้อยก็หน่วยงานย่อยในหน่วยงานหลักที่มีอยู่ เช่น สถาบันสุขภาพแห่งชาติ สำนักงานคุ้มครองสิ่งแวดล้อม และองค์การอาหารและยา
Basl ซึ่งไม่ได้เกี่ยวข้องกับ Loris หรือ Crisis Text Line ยังกล่าวด้วยว่าแรงจูงใจนั้นแตกต่างกันไปในองค์กรและบริษัทต่างๆ ที่ใช้ AI บางคนดูเหมือนจะต้องการใช้เทคโนโลยีอย่างมีจริยธรรมอย่างแท้จริง ในขณะที่บางคนต้องการผลกำไรมากกว่า
นักวิจารณ์เรื่องการแบ่งปันข้อมูลระหว่าง Loris และ Crisis Text Line โต้แย้งว่าการปกป้องความเป็นส่วนตัวของผู้ใช้ควรเป็นสิ่งสำคัญยิ่ง เบรนแดน คาร์ กรรมาธิการของ FCC ยอมรับความกลัวว่าแม้แต่บันทึกของผู้ใช้ที่ถูกขัดและไม่ระบุตัวตนก็อาจมีรายละเอียดที่ระบุตัวตนได้ และกล่าวว่ามี “คำถามร้ายแรง” เกี่ยวกับการที่ผู้ส่งข้อความได้ให้ “ความยินยอมที่มีความหมาย” เพื่อสร้างรายได้จากการสื่อสารของพวกเขากับ Crisis Text Line หรือไม่
Rodriguez กล่าวในแถลงการณ์ต่อ Mashable ว่า “องค์กรและคณะกรรมการมุ่งมั่นที่จะพัฒนาและปรับปรุงวิธีที่เราขอความยินยอมเสมอมา เพื่อให้เราเพิ่มการสนับสนุนด้านสุขภาพจิตสูงสุดอย่างต่อเนื่องสำหรับความต้องการเฉพาะของผู้ส่งข้อความของเราในภาวะวิกฤต” เขาเสริมว่า Crisis Text Line กำลังทำการเปลี่ยนแปลงเพื่อเพิ่มความโปร่งใสให้กับผู้ใช้ ซึ่งรวมถึงการเพิ่มสัญลักษณ์แสดงหัวข้อย่อยที่ด้านบนของข้อกำหนดในการให้บริการ
“คุณกำลังรวบรวมข้อมูลเกี่ยวกับคนที่อ่อนแอที่สุด แล้วนำไปใช้ในการฝึกทางเศรษฐกิจ”
แต่ธรรมชาติของสิ่งที่ Loris กลายเป็นเนื้อหาทำให้ข้อตกลงนี้เสียไปอย่างมีจริยธรรม
บอยด์เขียนว่าเธอเข้าใจว่าทำไมนักวิจารณ์ถึงรู้สึก “โกรธและขยะแขยง”
เธอจบบัญชีที่ยืดเยื้อของเธอด้วยการโพสต์รายการคำถามถึงนักวิจารณ์เหล่านั้น รวมถึง: “วิธีใดคือวิธีที่ดีที่สุดในการสร้างความสมดุลระหว่างความยินยอมโดยปริยายของผู้ใช้ในภาวะวิกฤตกับการใช้ข้อมูลที่เป็นประโยชน์อื่นๆ ซึ่งพวกเขาอาจไม่ได้ยินยอมโดยเจตนา สามารถช่วยพวกเขาหรือคนอื่น ๆ ได้หรือไม่”
เมื่อบอยด์โพสต์ภาพหน้าจอของคำถามเหล่านั้นลงในบัญชี Twitter ของเธอคำตอบกลับเป็นลบอย่างท่วมท้น โดยผู้ตอบหลายคนเรียกร้องให้เธอและสมาชิกคณะกรรมการคนอื่นๆ ลาออก หลายคนมีความรู้สึกว่าความไว้วางใจที่มีต่อ Crisis Text Line นั้นสูญสิ้นไปแล้ว
มีแนวโน้มว่า Crisis Text Line และ Loris จะกลายเป็นเรื่องเตือนใจเกี่ยวกับการใช้ปัญญาประดิษฐ์อย่างมีจริยธรรม: คนที่ครุ่นคิดที่พยายามใช้เทคโนโลยีเพื่อประโยชน์ที่ดียังคงทำผิดพลาดร้ายแรง
“คุณกำลังรวบรวมข้อมูลเกี่ยวกับคนที่อ่อนแอที่สุดและใช้มันเพื่อการออกกำลังกายทางเศรษฐกิจ ซึ่งดูเหมือนจะไม่ถือว่าพวกเขาเป็นบุคคล ในแง่หนึ่ง” Basl กล่าว
หากคุณต้องการพูดคุยกับใครสักคนหรือกำลังประสบกับความคิดฆ่าตัวตาย โปรดโทรไปที่National Suicide Prevention Lifelineที่หมายเลข 1-800-273-8255 ติดต่อสายด่วน NAMIที่ 1-800-950-NAMI วันจันทร์ถึงวันศุกร์ เวลา 10.00 – 22.00 น. ET หรืออีเมล info@nami.org นี่คือรายการทรัพยากรระหว่างประเทศ