คุณสามารถไว้วางใจ AI เพื่อปกป้อง AI ได้หรือไม่?

โหนดต้นทาง: 1884060

เข้าร่วมผู้บริหารชั้นนำของวันนี้ทางออนไลน์ที่ Data Summit ในวันที่ 9 มีนาคม ลงทะเบียน โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม.


ขณะนี้ AI กำลังเข้าสู่กระแสหลักของสถาปัตยกรรมไอที การแข่งขันกำลังดำเนินต่อไปเพื่อให้แน่ใจว่ายังคงปลอดภัยเมื่อสัมผัสกับแหล่งข้อมูลที่อยู่นอกเหนือการควบคุมขององค์กร ตั้งแต่ดาต้าเซ็นเตอร์ไปจนถึงคลาวด์ไปจนถึงเอดจ์ AI จะต้องต่อสู้กับช่องโหว่ที่หลากหลายและภัยคุกคามที่ซับซ้อนมากขึ้นเรื่อยๆ ซึ่งเกือบทั้งหมดขับเคลื่อนโดย AI เอง

ในขณะเดียวกัน เงินเดิมพันจะสูงขึ้นเรื่อยๆ เนื่องจาก AI มีแนวโน้มที่จะเป็นแกนหลักของการดูแลสุขภาพ การขนส่ง การเงิน และภาคส่วนอื่นๆ ที่มีความสำคัญต่อการสนับสนุนวิถีชีวิตสมัยใหม่ของเรา ดังนั้น ก่อนที่องค์กรจะเริ่มผลักดัน AI เข้าสู่สถาปัตยกรรมแบบกระจายเหล่านี้อย่างลึกซึ้งเกินไป อาจช่วยหยุดชั่วขณะหนึ่งเพื่อให้แน่ใจว่าสามารถป้องกันได้อย่างเพียงพอ

ความน่าเชื่อถือและความโปร่งใส

ในการให้สัมภาษณ์ล่าสุดกับ VentureBeat Seth Dobrin หัวหน้าเจ้าหน้าที่ AI ของ IBM ตั้งข้อสังเกตว่าอาคาร ความไว้วางใจและความโปร่งใสในห่วงโซ่ข้อมูล AI ทั้งหมด เป็นสิ่งสำคัญหากองค์กรหวังว่าจะได้รับมูลค่าสูงสุดจากการลงทุน ต่างจากสถาปัตยกรรมแบบดั้งเดิมที่สามารถปิดหรือขโมยข้อมูลได้เมื่อถูกโจมตีโดยไวรัสและมัลแวร์ อันตรายของ AI นั้นยิ่งใหญ่กว่ามากเพราะสามารถสอนให้ฝึกตัวเองใหม่จากข้อมูลที่ได้รับจากปลายทางได้

“ปลายทางคือ REST API ที่รวบรวมข้อมูล” Dobrin กล่าว “เราจำเป็นต้องปกป้อง AI จากพิษ เราต้องตรวจสอบให้แน่ใจว่าอุปกรณ์ปลายทางของ AI นั้นปลอดภัยและได้รับการตรวจสอบอย่างต่อเนื่อง ไม่ใช่แค่เพื่อประสิทธิภาพเท่านั้น แต่สำหรับอคติด้วย”

ในการทำเช่นนี้ Dobrin กล่าวว่า IBM กำลังดำเนินการจัดตั้ง ความแข็งแกร่งของฝ่ายตรงข้าม ที่ระดับระบบของแพลตฟอร์มอย่างวัตสัน ด้วยการใช้แบบจำลอง AI ที่สอบสวนแบบจำลอง AI อื่นๆ เพื่ออธิบายกระบวนการตัดสินใจ และแก้ไขแบบจำลองเหล่านั้นหากเบี่ยงเบนไปจากบรรทัดฐาน องค์กรจะสามารถรักษาท่าทางการรักษาความปลอดภัยด้วยความเร็วของเศรษฐกิจดิจิทัลที่ดำเนินไปอย่างรวดเร็วในปัจจุบัน แต่สิ่งนี้ต้องเปลี่ยนความคิดให้ห่างไกลจากการไล่ล่าและขัดขวางโค้ดที่ชั่วร้าย เป็นการเฝ้าติดตามและจัดการปฏิกิริยาของ AI ต่อสิ่งที่ดูเหมือนเป็นข้อมูลธรรมดา

รายงานต่างๆ ได้เริ่มเผยแพร่ในรูปแบบที่แยบยลมากมาย ซึ่งข้อมูลกำลังถูกจัดการเพื่อหลอกให้ AI ดัดแปลงโค้ดในลักษณะที่เป็นอันตราย จิม เดมป์ซีย์วิทยากรที่ UC Berkeley Law School และที่ปรึกษาอาวุโสของ Stanford Cyber ​​Policy Center กล่าวว่ามีความเป็นไปได้ที่จะสร้างเสียงที่ดูเหมือนคำพูดของอัลกอริธึม ML แต่ไม่ใช่กับมนุษย์ ระบบการจดจำภาพและโครงข่ายประสาทเทียมเชิงลึกสามารถหลงทางโดยมีสิ่งรบกวนที่สายตามนุษย์มองไม่เห็น บางครั้งเพียงแค่ขยับพิกเซลเพียงจุดเดียว นอกจากนี้ การโจมตีเหล่านี้ยังสามารถเปิดขึ้นได้แม้ว่าผู้กระทำผิดจะไม่สามารถเข้าถึงตัวแบบเองหรือข้อมูลที่ใช้ในการฝึกได้

ป้องกันและตอบสนอง

เพื่อตอบโต้สิ่งนี้ องค์กรต้องเน้นสองสิ่ง ก่อนอื่นพูดว่า John Roese CTO ระดับโลกของ Dell Technologiesจะต้องทุ่มเททรัพยากรมากขึ้นในการป้องกันและตอบสนองต่อการโจมตี องค์กรส่วนใหญ่เชี่ยวชาญในการตรวจจับภัยคุกคามโดยใช้บริการจัดการข้อมูลเหตุการณ์ที่ขับเคลื่อนด้วย AI หรือผู้ให้บริการความปลอดภัยที่มีการจัดการ แต่การป้องกันและการตอบสนองยังคงช้าเกินไปที่จะบรรเทาการละเมิดที่ร้ายแรงได้อย่างเพียงพอ

สิ่งนี้นำไปสู่การเปลี่ยนแปลงครั้งที่สองที่องค์กรต้องดำเนินการ กล่าว Corey Thomas ซีอีโอ Rapid7: ส่งเสริมการป้องกันและตอบโต้ด้วย AI ที่มากขึ้น นี่เป็นยาที่ยากสำหรับองค์กรส่วนใหญ่ เพราะโดยพื้นฐานแล้วมันช่วยให้ AI มีเวลามากขึ้นในการเปลี่ยนแปลงสภาพแวดล้อมของข้อมูล แต่โทมัสกล่าวว่ามีวิธีการทำเช่นนี้ที่ช่วยให้ AI สามารถทำงานได้ในแง่ของความปลอดภัย ซึ่งเชี่ยวชาญที่สุดในการจัดการในขณะที่สงวนความสามารถหลักไว้ให้กับผู้ปฏิบัติงานที่เป็นมนุษย์

สุดท้ายก็ต้องวางใจ AI เป็นเด็กใหม่ในสำนักงานตอนนี้ ดังนั้นจึงไม่ควรมีกุญแจในห้องนิรภัย แต่เมื่อเวลาผ่านไป เนื่องจากมันพิสูจน์ให้เห็นถึงคุณค่าในการตั้งค่าระดับเริ่มต้น พนักงานควรได้รับความไว้วางใจเช่นเดียวกับพนักงานคนอื่นๆ นี่หมายถึงการให้รางวัลเมื่อทำงานได้ดี สอนให้ทำได้ดีกว่าเมื่อล้มเหลว และทำให้แน่ใจว่ามีทรัพยากรเพียงพอและข้อมูลที่เหมาะสมเสมอเพื่อให้แน่ใจว่าเข้าใจถึงสิ่งที่ถูกต้องและวิธีดำเนินการที่ถูกต้อง

ภารกิจของ VentureBeat คือการเป็นจัตุรัสกลางเมืองดิจิทัลสำหรับผู้มีอำนาจตัดสินใจด้านเทคนิคเพื่อรับความรู้เกี่ยวกับเทคโนโลยีและการทำธุรกรรมขององค์กรที่เปลี่ยนแปลง เรียนรู้เพิ่มเติม

ที่มา: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

ประทับเวลา:

เพิ่มเติมจาก AI - VentureBeat