ระบบเติมข้อความอัตโนมัติมุ่งหวังให้ชีวิตเราง่ายขึ้น แต่มีความเสี่ยง

โหนดต้นทาง: 1575782

รับฟังจาก CIO, CTO และผู้บริหารระดับสูงและระดับ C อื่นๆ เกี่ยวกับข้อมูลและกลยุทธ์ AI ที่งาน Future of Work Summit วันที่ 12 มกราคม 2022 อ่านเพิ่ม


หากคุณเพิ่งเขียนข้อความหรืออีเมล มีโอกาสที่ AI จะแนะนำคำพ้องความหมาย วลี หรือวิธีต่างๆ ในการเติมประโยคให้เสร็จสิ้น การเพิ่มขึ้นของเครื่องมือแนะนำอัตโนมัติที่ขับเคลื่อนด้วย AI เช่น Smart Compose ของ Google นั้นใกล้เคียงกับการเปลี่ยนแปลงทางดิจิทัลของการสื่อสารระดับองค์กร ซึ่งขณะนี้ส่วนใหญ่ออนไลน์อยู่ มันคือ ประมาณ ที่คนงานทั่วไปตอบอีเมลประมาณ 40 ฉบับในแต่ละวันและ ส่ง มากกว่า 200 ข้อความ Slack ต่อสัปดาห์

การส่งข้อความขู่ว่าจะกินส่วนที่เพิ่มขึ้นของวันทำงานด้วย Adobe pegging ระยะเวลาที่พนักงานใช้ในการตอบอีเมล 15.5 ชั่วโมงต่อสัปดาห์ การเปลี่ยนงานอย่างต่อเนื่องเป็นเสียงเตือนความตายสำหรับประสิทธิภาพการทำงาน ซึ่งการศึกษาแสดงให้เห็นประโยชน์จากการทำงานอย่างต่อเนื่อง การวิจัยศึกษา จาก University of California และ Humboldt University พบว่าคนงานอาจสูญเสียงานได้ถึง 23 นาทีทุกครั้งที่ถูกขัดจังหวะ ยาวขึ้นอีก วันทำงาน

เครื่องมือแนะนำอัตโนมัติจะช่วยประหยัดเวลาด้วยการปรับปรุงการเขียนข้อความและการตอบกลับ ตัวอย่างเช่น สมาร์ทรีพลายของ Google แนะนำให้ตอบกลับอีเมลอย่างรวดเร็วซึ่งปกติจะใช้เวลาไม่กี่นาทีในการพิมพ์ แต่ AI ที่อยู่เบื้องหลังเครื่องมือเหล่านี้มีข้อบกพร่องที่อาจทำให้เกิดความเอนเอียงหรือมีอิทธิพลต่อภาษาที่ใช้ในการส่งข้อความในลักษณะที่ไม่พึงประสงค์

การเติบโตของการแนะนำอัตโนมัติและการเติมข้อความอัตโนมัติ

ระบบช่วยสะกดคำไม่ใช่เทคโนโลยีใหม่ หนึ่งในตัวอย่างแรกๆ ที่หาได้ทั่วไป T9ซึ่งอนุญาตให้สร้างคำจากการกดแป้นเดียวสำหรับตัวอักษรแต่ละตัว มาเป็นมาตรฐานในโทรศัพท์มือถือหลายๆ รุ่นในช่วงปลายทศวรรษ 90 แต่การถือกำเนิดของเทคนิค AI ที่ซับซ้อนและปรับขนาดได้ในภาษาทำให้เครื่องมือแนะนำอัตโนมัติมีคุณภาพและกว้างขึ้นอย่างก้าวกระโดด

ในปี 2017 Google ได้เปิดตัว การตอบกลับอย่างชาญฉลาด ใน Gmail ซึ่งบริษัทได้นำไปยังบริการอื่นๆ ของ Google ในภายหลัง รวมถึงแชทและแอปของบุคคลที่สาม จากข้อมูลของ Google AI ที่อยู่เบื้องหลังการตอบกลับอัจฉริยะจะสร้างคำแนะนำในการตอบกลับ “ตามบริบททั้งหมดของการสนทนา” ไม่ใช่แค่ข้อความเดียว — เห็นได้ชัดว่าส่งผลให้มีข้อเสนอแนะที่ทันท่วงทีและมีความเกี่ยวข้องมากขึ้น เขียนแบบสมาร์ทซึ่งแนะนำประโยคที่สมบูรณ์ในอีเมลมาถึง Gmail ในอีกหนึ่งปีต่อมาและ Google Docs หลังจากนั้นไม่นาน. ลักษณะคล้ายคลึงกันที่เรียกว่า คำตอบที่แนะนำ มาที่ Microsoft Outlook ในปี 2018 และ Teams ในปี 2020

เทคโนโลยีที่อยู่เบื้องหลังเครื่องมือแนะนำอัตโนมัติแบบใหม่ ซึ่งวงวิชาการบางวงเรียกว่า "การสื่อสารด้วย AI" นั้นก้าวกระโดดไปไกลกว่าสิ่งที่มีอยู่ในยุค 90 ตัวอย่างเช่น โมเดล AI ที่สนับสนุน Smart Compose ถูกสร้างขึ้นโดยใช้ตัวอย่างอีเมลนับพันล้านรายการและทำงานบนคลาวด์ด้วยฮาร์ดแวร์ตัวเร่งความเร็วแบบกำหนดเอง ในขณะเดียวกัน สมาร์ทรีพลาย ซึ่งเป็นพื้นฐานสำหรับการเขียนอัจฉริยะ ใช้ "แนวทางแบบลำดับชั้น" เพื่อให้คำแนะนำ โดยได้รับแรงบันดาลใจจากวิธีที่มนุษย์เข้าใจภาษาและแนวคิด

Microsoft สมาร์ทรีพลาย

ด้านบน: สมาร์ทรีพลายของ Outlook ใช้โมเดลการเรียนรู้เชิงลึกที่ได้รับการฝึกฝนใน Azure Machine Learning

เครดิตรูปภาพ: Microsoft

“เนื้อหาของภาษามีลำดับชั้นอย่างลึกซึ้ง สะท้อนให้เห็นในโครงสร้างของภาษาเอง …” Brian Strope นักวิทยาศาสตร์การวิจัยของ Google และ Ray Kurzweil ผู้อำนวยการด้านวิศวกรรมของ Google อธิบาย ในโพสต์บล็อก “ลองพิจารณาข้อความว่า 'คนที่น่าสนใจที่ร้านกาแฟที่เราชอบมองมาที่ฉัน' … ในการเสนอคำตอบที่เหมาะสมต่อข้อความนี้ เราอาจพิจารณาความหมายของคำว่า 'เหลือบมอง' ซึ่งอาจคลุมเครือ มันเป็นท่าทางเชิงบวกหรือไม่? ในกรณีนี้ เราอาจตอบว่า 'เจ๋ง!' หรือมันเป็นท่าทางเชิงลบ? ถ้าเป็นเช่นนั้น หัวข้อนั้นพูดอะไรเกี่ยวกับความรู้สึกของผู้เขียนเกี่ยวกับการแลกเปลี่ยนเชิงลบหรือไม่? ข้อมูลมากมายเกี่ยวกับโลกและความสามารถในการใช้เหตุผลในการตัดสิน จำเป็นในการสร้างความแตกต่างที่ละเอียดอ่อน ด้วยตัวอย่างภาษาที่เพียงพอ วิธีการเรียนรู้ด้วยเครื่องสามารถค้นพบความแตกต่างที่ละเอียดอ่อนเหล่านี้ได้มากมาย ”

แต่เช่นเดียวกับเทคโนโลยีทั้งหมด แม้แต่เครื่องมือแนะนำอัตโนมัติที่มีความสามารถที่สุดก็มักจะอ่อนไหวต่อข้อบกพร่องที่เกิดขึ้นระหว่างกระบวนการพัฒนาและปรับใช้

ในเดือนธันวาคม 2016 เป็น เปิดเผย คุณลักษณะการเติมข้อความอัตโนมัติของ Google Search ได้เสนอการลงท้ายที่แสดงความเกลียดชังและไม่เหมาะสมสำหรับวลีค้นหาที่เฉพาะเจาะจง เช่น "พวกยิวชั่วร้ายไหม" สำหรับคำว่า "เป็นชาวยิว" ตามที่บริษัทระบุ ข้อผิดพลาดคือระบบอัลกอริธึมที่อัปเดตคำแนะนำตามสิ่งที่ผู้ใช้รายอื่นค้นหาเมื่อเร็วๆ นี้ แม้ว่าในที่สุด Google จะดำเนินการแก้ไข แต่บริษัทต้องใช้เวลาอีกหลายปีในการบล็อกคำแนะนำการเติมข้อความอัตโนมัติสำหรับ แถลงการณ์ทางการเมืองที่ขัดแย้ง รวมถึงการกล่าวอ้างเท็จเกี่ยวกับข้อกำหนดในการลงคะแนนเสียงและความชอบธรรมของกระบวนการเลือกตั้ง

สมาร์ทรีพลายมาแล้ว พบ เพื่อเสนออีโมจิ "คนสวมผ้าโพกหัว" เพื่อตอบสนองต่อข้อความที่มีอีโมจิปืน และการเติมข้อความอัตโนมัติของ Apple บน iOS ก่อนหน้านี้ แนะนำเฉพาะอิโมจิผู้ชายสำหรับบทบาทผู้บริหารรวมถึง CEO, COO และ CTO

ข้อมูลลำเอียง

ข้อบกพร่องในระบบเติมข้อความอัตโนมัติและคำแนะนำอัตโนมัติมักเกิดจากข้อมูลที่มีอคติ ตัวอย่างนับล้านถึงหลายพันล้านตัวอย่างที่ระบบเรียนรู้สามารถเสียได้ด้วยข้อความจาก เว็บไซต์ที่เป็นพิษ ที่เชื่อมโยงบางเพศ เชื้อชาติ ชาติพันธุ์และศาสนาที่มีแนวคิดทำร้ายจิตใจ ภาพประกอบปัญหา, Codexซึ่งเป็นรูปแบบการสร้างโค้ดที่พัฒนาโดยห้องปฏิบัติการวิจัย OpenAI สามารถกระตุ้นให้เขียน "ผู้ก่อการร้าย" เมื่อป้อนคำว่า "อิสลาม" โมเดลภาษาขนาดใหญ่อีกรุ่นจากการเริ่มต้น AI รวมกัน มีแนวโน้มที่จะเชื่อมโยงชายและหญิงกับอาชีพ "ชาย" และ "หญิง" ที่โปรเฟสเซอร์เช่น "นักวิทยาศาสตร์ชาย" และ "แม่บ้านหญิง"

สมาร์ทเขียนสำหรับ Google เอกสาร

ด้านบน: Smart Compose สำหรับ Google เอกสาร

คำอธิบายประกอบในข้อมูลอาจทำให้เกิดปัญหาใหม่ หรือทำให้ปัญหาที่มีอยู่แย่ลงไปอีก เนื่องจากโมเดลจำนวนมากเรียนรู้จากป้ายกำกับที่สื่อสารว่าคำ ประโยค ย่อหน้า หรือเอกสารมีลักษณะเฉพาะบางอย่าง เช่น ความรู้สึกเชิงบวกหรือเชิงลบ บริษัทและนักวิจัยจึงคัดเลือกทีมนักสร้างคำอธิบายประกอบที่เป็นมนุษย์เพื่อติดป้ายกำกับตัวอย่าง ซึ่งมักจะมาจากแพลตฟอร์ม Crowdsourcing เช่น Amazon Mechanical Turk คำอธิบายประกอบเหล่านี้นำเสนอมุมมองและอคติของตนเองมาที่โต๊ะ

ในการศึกษาจาก Allen Institute for AI, Carnegie Mellon และ University of Washington นักวิทยาศาสตร์พบว่าผู้ติดฉลากมีแนวโน้มที่จะใส่คำอธิบายประกอบวลีในภาษาแอฟริกันอเมริกัน (AAE) ที่เป็นพิษมากกว่าภาษาอังกฤษแบบอเมริกันทั่วไปแม้จะเข้าใจ ปลอดสารพิษโดยลำโพง AAE เลื่อยเล็กองค์กรที่ทำงานภายใต้ บริษัท แม่ของ Google Alphabet เพื่อจัดการกับการกลั่นแกล้งทางอินเทอร์เน็ตและการบิดเบือนข้อมูล ได้ข้อสรุปที่คล้ายกันในการทดลอง นักวิจัยของบริษัทได้ค้นพบความแตกต่างในคำอธิบายประกอบระหว่างผู้ติดฉลากที่ระบุตนเองว่าเป็นชาวแอฟริกันอเมริกันและสมาชิกของชุมชน LGBTQ+ กับผู้ใส่คำอธิบายประกอบที่ไม่ได้ระบุว่าเป็นกลุ่มใดกลุ่มหนึ่ง

บางครั้ง ความลำเอียงก็เกิดขึ้นโดยเจตนา — เป็นเรื่องของการประนีประนอมกันพื้นถิ่น ตัวอย่างเช่น, นักเขียนการเริ่มต้นพัฒนาผู้ช่วย AI สำหรับการสร้างเนื้อหากล่าวว่าให้ความสำคัญกับ "ภาษาอังกฤษเพื่อธุรกิจ" ในคำแนะนำในการเขียน CEO May Habib ยกตัวอย่างของ “habitual be” ใน AAVE ซึ่งเป็นกริยาที่ไม่มีอยู่ในรูปแบบอื่นของภาษาอังกฤษ

“เนื่องจาก [the habitual be] ตามธรรมเนียมไม่ได้ใช้ในภาษาอังกฤษธุรกิจ ดังนั้นจึงไม่ปรากฏในความถี่สูงในชุดข้อมูลของเรา เราจะแก้ไข 'พวกคุณกำลังทำสิ่งแปลก ๆ ที่นี่' เป็น 'Y' ทุกคนกำลังทำสิ่งแปลก ๆ อยู่ที่นี่ " Habib บอกกับ VentureBeat ทางอีเมล "[ที่กล่าวว่า] เราทำด้วยตนเองเพื่อให้แน่ใจว่าการทักทายและการออกจากระบบจะไม่ถูกตั้งค่าสถานะโดย Writer ภาษาพื้นถิ่นบางภาษามีความเป็นกลางทางเพศมากกว่าภาษาอังกฤษเชิงธุรกิจที่เป็นทางการ [เช่น] ดังนั้น จึงมีความทันสมัยและอยู่ในแบรนด์ของบริษัท”

มีอิทธิพลต่อการเขียน

เมื่อมีอคติ ไม่ว่าจะตั้งใจหรือไม่ก็ตาม ทำให้เป็นระบบเติมข้อความอัตโนมัติและคำแนะนำอัตโนมัติ สิ่งเหล่านี้สามารถเปลี่ยนวิธีที่เราเขียนได้ ขนาดมหึมาที่ระบบเหล่านี้ทำงานทำให้ยาก (ถ้าไม่ใช่เป็นไปไม่ได้) ที่จะหลีกเลี่ยงโดยสิ้นเชิง สมาร์ทรีพลายคือ รับผิดชอบ สำหรับ 10% ของการตอบกลับ Gmail ทั้งหมดที่ส่งจากสมาร์ทโฟนในปี 2016

ในหนึ่งเดียวที่ครอบคลุมมากขึ้น การตรวจสอบ ของเครื่องมือเติมข้อความอัตโนมัติ ทีมนักวิจัยของ Microsoft ทำการสัมภาษณ์อาสาสมัครที่ได้รับคำสั่งให้แสดงความคิดเห็นเกี่ยวกับการตอบกลับที่สร้างขึ้นโดยอัตโนมัติใน Outlook ผู้ให้สัมภาษณ์พบว่าคำตอบบางข้อเป็นไปในเชิงบวกมากเกินไป ผิดในการสันนิษฐานของพวกเขาเกี่ยวกับวัฒนธรรมและเพศ และไม่สุภาพเกินไปสำหรับบริบทบางอย่าง เช่น จดหมายโต้ตอบขององค์กร ถึงกระนั้น การทดลองระหว่างการศึกษาพบว่าผู้ใช้มีแนวโน้มที่จะชอบคำตอบสั้นๆ เชิงบวก และสุภาพมากกว่าที่ Outlook แนะนำ

Google SmartReply ยูทูบ

ผลการศึกษาจากฮาร์วาร์ดแยกออกมาพบว่า เมื่อคนที่เขียนเกี่ยวกับร้านอาหารได้รับคำแนะนำในการเติมข้อความอัตโนมัติที่ "เป็นบวก" ความเห็นที่ได้มักจะเป็นไปในเชิงบวกมากกว่าการเสนอคำแนะนำเชิงลบ “เป็นเรื่องน่าตื่นเต้นที่จะคิดว่าระบบการคาดเดาข้อความในอนาคตจะช่วยให้ผู้คนกลายเป็นนักเขียนที่มีประสิทธิภาพมากขึ้นได้อย่างไร แต่เรายังต้องการความโปร่งใสและความรับผิดชอบเพื่อป้องกันข้อเสนอแนะที่อาจมีอคติหรือบิดเบือน” Ken Arnold นักวิจัยจาก Harvard's School of วิศวกรรมศาสตร์และวิทยาศาสตร์ประยุกต์ที่เข้าร่วมการศึกษาวิจัย บอก บีบีซี

หากมีวิธีแก้ปัญหาที่ครอบคลุมทั้งหมดสำหรับปัญหาการเติมข้อความอัตโนมัติที่เป็นอันตราย แสดงว่ายังไม่มีการค้นพบ Google เลือกที่จะบล็อกการแนะนำคำสรรพนามตามเพศใน Smart Compose เนื่องจากระบบพิสูจน์แล้วว่าทำนายเพศและอัตลักษณ์ทางเพศของผู้รับได้ไม่ดี LinkedIn ของ Microsoft ยังหลีกเลี่ยงคำสรรพนามเกี่ยวกับเพศใน Smart Replies ซึ่งเป็นเครื่องมือส่งข้อความคาดการณ์ เพื่อป้องกันความผิดพลาดที่อาจเกิดขึ้น

ผู้เขียนร่วมของ Microsoft ศึกษา เตือนว่าหากผู้ออกแบบระบบไม่แก้ไขข้อบกพร่องในเทคโนโลยีการเติมข้อความอัตโนมัติในเชิงรุก พวกเขาจะเสี่ยงต่อการที่ไม่เพียงแต่ทำให้ผู้ใช้ขุ่นเคือง แต่ยังทำให้พวกเขาไม่ไว้วางใจระบบ “ผู้ออกแบบระบบควรสำรวจกลยุทธ์การปรับให้เหมาะกับแต่ละบุคคลในระดับบุคคลและเครือข่ายสังคม พิจารณาว่าค่านิยมทางวัฒนธรรมและอคติทางสังคมอาจถูกขยายเวลาโดยระบบของพวกเขาอย่างไร และสำรวจแบบจำลองปฏิสัมพันธ์ทางสังคมเพื่อเริ่มจัดการกับข้อ จำกัด และประเด็นต่างๆ” พวกเขาเขียน “[O] การค้นพบของคุณระบุว่าระบบแนะนำข้อความในปัจจุบันสำหรับอีเมลและเทคโนโลยี [ไลค์] อื่นๆ ยังคงมีความละเอียดอ่อนไม่เพียงพอที่จะสะท้อนถึงความละเอียดอ่อนของความสัมพันธ์ทางสังคมในโลกแห่งความเป็นจริงและความต้องการด้านการสื่อสาร “

VentureBeat

ภารกิจของ VentureBeat คือการเป็นจัตุรัสกลางเมืองดิจิทัลสำหรับผู้มีอำนาจตัดสินใจด้านเทคนิคเพื่อรับความรู้เกี่ยวกับเทคโนโลยีการเปลี่ยนแปลงและการทำธุรกรรม เว็บไซต์ของเราให้ข้อมูลที่จำเป็นเกี่ยวกับเทคโนโลยีข้อมูลและกลยุทธ์เพื่อแนะนำคุณในขณะที่คุณเป็นผู้นำองค์กรของคุณ เราขอเชิญคุณเข้าร่วมเป็นสมาชิกของชุมชนของเราเพื่อเข้าถึง:

  • ข้อมูลล่าสุดเกี่ยวกับเรื่องที่คุณสนใจ
  • จดหมายข่าวของเรา
  • เนื้อหาที่เป็นผู้นำทางความคิดที่มีรั้วรอบขอบชิดและการเข้าถึงส่วนลดสำหรับกิจกรรมอันมีค่าของเราเช่น แปลงร่าง 2021: เรียนรู้เพิ่มเติม
  • คุณสมบัติระบบเครือข่ายและอื่น ๆ

เป็นสมาชิก

ที่มา: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

ประทับเวลา:

เพิ่มเติมจาก AI - VentureBeat