REGULATION ON A EUROPEAN APPROACH FOR ARTIFICIAL INTELLIGENCE

Disclaimer: ผู้เขียนไม่ใช่ผู้เชี่ยวชาญทางด้านกฏหมาย และข้อกฏหมายนี้ยังเป็นฉบับร่าง จึงควรอ่านอย่างมีวิจารญาณ

เทคโนโลยีปัญญาประดิษฐ์ หรือ Artificial Intelligence ได้เข้ามามีบทบาทที่อาจส่งผลต่อระบบสังคมโดยรวม จากความสามารถในการตัดสินใจแทนมนุษย์ (Improve Prediction), ปรับปรุงกระบวนการผลิต (Optimizing Operations), การจัดสรรทรัพยากร (Resource Allocation) และการปรับแต่งเฉพาะบุคคล (Customization)

แต่ในขณะเดียวก็มีกรณีศึกษาจากภาคเอกชนที่การทำงานผิดพลาดของ A.I. ส่งผลต่อร้ายแรงต่อสิทธิของผู้คน เช่น Image recognition ของ Google ที่ทำนายภาพคนผิวสี ว่าเป็นกอริลล่า หรือความเสียหายต่อทรัพย์สินเช่น กรณีรถยนต์ไร้คนขับเกิดอุบัติเหตุโดยที่รถนั้นก็ไม่ได้มีคนขับอยู่บนรถ! จนทำให้การนำเอาเทคโนโลยีปัญญาประดิษฐ์ไปใช้กับภาครัฐ หรือระดับประเทศที่ส่งผลกระทบโดยตรงต่อคนนับล้านคนถูกตั้งคำถามถึงราคาที่ต้องจ่ายในความเสี่ยงจากการทำงานผิดพลาดของระบบปัญญาประดิษฐ์

ร่างกฏหมาย AI: ความพยายามที่จะกำกับเทคโนโลยีใหม่ ๆ ของสหภาพยุโรป

เมื่อไม่นานมานี้ สหภาพยุโรปเลยได้มีการร่างกรอบทางกฏหมายที่จะมากำกับการใช้งานปัญญาประดิษฐ์ทั้งหมดในสหภาพยุโรป โดยใจความสำคัญของกรอบทางกฏหมายในการใช้ปัญญาประดิษฐ์คือการรักษาสมดุลระหว่าง การป้องกันภัยคุกคามจากปัญญาประดิษฐ์ ไปพร้อม ๆ กับ การส่งเสริมการพัฒนาทางเทคโนโลยีด้วยการกำหนดกรอบกำกับปัญญาประดิษฐ์แทนที่จะบอกว่าอนุญาตให้ทำอะไรได้บ้าง ร่างกฏหมายนี้เลือกที่จะบอกว่าอะไรทำไม่ได้ ห้ามทำ อะไรที่ทำแล้วอาจมีความเสี่ยงต้องผ่านการตรวจสอบมาตรฐาน โดยการละเมิดกฏหมายอาจมีโทษปรับถึง 20 ล้านยูโร (24 ล้านดอลลาร์) หรือ 4% ของรายได้รวม

สำหรับบริษัทเอกชน คุณสามารถออกแบบสินค้า และบริการที่เป็นมิตรกับความเป็นส่วนตัวของผู้ใช้มากขึ้น ผ่านการออกแบบด้วยหลัก Privacy by Design หากคุณผู้อ่านสนใจ เรายังมีบทความ Privacy by Design แนวทางการออกแบบโดยคำนึงถึงความเป็นส่วนตัวของผู้ใช้งาน ให้ได้ศึกษาเพิ่มเติมด้วย

ร่างกฏหมายนี้ได้แบ่งระบบปัญญาประดิษฐ์เป็น 2 หมวดหมู่ที่ต้องจับตามองดังนี้

ระบบปัญญาประดิษฐ์ที่ห้ามพัฒนา หรือใช้ในสหภาพยุโรป (Prohibited AI system)

Prohibited AI system ในที่นี้หมายถึงระบบปัญญาประดิษฐ์ที่อาจถูกใช้เพื่อคุกคาม สิทธิมนุษยชน ซึ่งแบ่งได้ 3 ประเภทดังนี้

  1. ระบบปัญญาประดิษฐ์ที่ใช้เพื่อโน้มน้าวพฤติกรรมของผู้คน ในกรณีนี้คือระบบใด ๆ ก็ตามที่มีส่วนในการโน้มน้าว หรือชักจูงพฤติกรรมของคน หรือการตัดสินใจทั้งในทางตรง และทางอ้อม

    ระบบที่เข้าข่ายกรณีนี้ คือกรณีของ Cambridge Analytica ที่ใช้ข้อมูลของผู้ใช้เฟสบุ้คในอเมริกา เพื่ออกแบบแคมเปญหาเสียง ตามความเชื่อ ความคิดเห็นทางการเมือง ศาสนา และคุณลักษณะอื่น ๆ ซึ่งวิธีการแบบนี้บ่อนทำลายระบบการเมืองจากการที่ประชาชนจะถูกชักจูงได้ง่าย หากฝ่ายใดฝ่ายนึงมีข้อมูลเกี่ยวกับพวกเขามากพอ
  2. ระบบปัญญาประดิษฐ์ที่ใช้เพื่อสอดแนมผู้คนในที่สาธารณะ ผ่านกล้อง CCTV ,การเข้าถึงการระบุตำแหน่งจาก Location service หรือการบันทึกเสียงสนทนา ซึ่งรวมไปถึงการสอดแนมบนโลกออนไลน์ด้วย

    ระบบที่เข้าข่ายกรณีนี้คือ โครงการสอดแนมข่าวกรองเพื่อความปลอดภัยของสหรัฐอเมริกา ที่ชื่อว่า Prism ที่ใช้เทคโนโลยีสมัยใหม่ในการดักฟังเสียงสนทนา ข้อความแชท และการถ่ายโอนข้อมูลต่าง ๆ ของชาวอเมริกาเพื่อสืบหาเบาะแสการก่อการร้าย ซึ่งเป็นการละเมิดสิทธิเสรีภาพส่วนบุคคลรวมทั้งเสรีภาพในการแสดงความคิดเห็นที่เกินขอบเขต
  3. ระบบปัญญาประดิษฐ์ที่ใช้เพื่อให้คะแนนทางสังคม (Social scoring) จากพฤติกรรมของผู้คน หรือจากบุคลิกภาพที่แสดงออกในที่สาธารณะ เพื่อนำมาจัดลำดับ หรือควบคุมการใช้สิทธิขั้นพื้นฐานจากทางภาครัฐ

    ระบบที่เข้าข่ายกรณีนี้คือ ระบบ Social Credit System ของประเทศจีนที่ร่วมมือกับบริษัทเทคโนโลยีของจีนในการเก็บข้อมูลพฤติกรรมของประชาชน เพื่อนำมาให้คะแนนเครดิตทางสังคม ที่มีคะแนนตั้งแต่ 350 – 950 คะแนน ซึ่งคะแนนเหล่านี้ส่งผลต่อการเข้าถึง หรือการได้รับสิทธิการให้บริการจากภาครัฐ และเอกชน

ระบบปัญญาประดิษฐ์ที่มีความเสี่ยงสูง (High-risk AI system) ต้องได้รับการกำกับ และทดสอบผ่าน Regulatory Sandbox

High-risk AI system ในที่นี้ หมายถึงระบบปัญญาประดิษฐ์ที่ถูกใช้เพื่อรักษาความปลอดภัย หรือเลือกสิทธิขั้นพื้นฐานให้แก่ผู้คนที่เมื่อทำงานผิดพลาดแล้ว อาจส่งผลให้ เกิดการบาดเจ็บหรือเสียชีวิตของคน เกิดความเสียหายในทรัพย์สิน แทรกแซงหรือส่งผลเชิงลบต่อระบบประชาธิปไตย

High-risk AI system ต้องได้รับการประเมินมาตรฐานอย่างใกล้ชิด และผ่านการทดสอบใน Regulartory Sandbox ก่อนนำมาใช้งาน

ตัวอย่าง High-risk AI system ได้แก่

  1. ระบบปัญญาประดิษฐ์ที่เกี่ยวกับระบบการรักษาความปลอดภัยของโครงสร้างพื้นฐาน
  2. ระบบปัญญาประดิษฐ์ที่มีผลต่อการตอบสนองเหตุด่วนเหตุร้าย เช่นระบบปัญญาประดิษฐ์ที่ช่วยจัดลำดับการช่วยเหลือผู้ประสบภัย ในภาวะเร่งด่วน
  3. ระบบปัญญาประดิษฐ์ที่ช่วยตัดสินใจในเรื่อง คดีความ, การลงทุน, การศึกษา และอาชีพ ก็เข้าข่าย High-risk AI system

ข้อกำหนดในการออกแบบ และพัฒนา High-risk AI system (เสริม)

ระบบปัญญาประดิษฐ์ที่มีความเสี่ยงสูงต่อชีวิต และทรัพย์สิน จะต้องมีการทดสอบผ่าน Regulatory Sandbox และออกแบบด้วยหลักการ “Human oversight” กล่าวคือ การออกแบบที่ทำให้เมื่ออยู่ในเหตุคับขัน มนุษย์สามารถเข้าใจ และกลับมาควบคุมสถานการณ์ได้ทัน ซึ่งระบบปัญญาประดิษฐ์หลาย ๆ แบบ มักมีลักษณะการทำงานเป็น Black box process กล่าวคือ เราไม่เข้าใจว่าทำไมระบบถึงแนะนำการตัดสินใจแบบนี้เหมือนกล่องดำที่ไม่รู้มีอะไรอย่างข้างใน ซึ่งสามารถแบ่งเป็นข้อกำหนดอื่น ๆ ได้ดังนี้

  • มีการพัฒนาระบบด้วยชุดข้อมูลที่ไม่มีอคติ และมีการจัดการเรื่องธรรมาภิบาลข้อมูลที่ดีก่อนนำไปใช้จริง
  • มีความโปร่งใสของกลไกการทำงาน (Provision of information / Transparency) จนสามารถทำให้มนุษย์เข้าใจหลักการ และควบคุมได้ ผ่านการออกแบบเอกสาร และการออกแบบระบบ
  • มีความสามารถในการใช้งานโดยมนุษย์ได้ง่าย (Human oversight) โดยในเอกสารกล่าวไปถึงกรณีที่ระบบอาจมีอันตรายต่อผู้คนมาก ๆ อาจจะต้องทำปุ่ม หยุดฉุกเฉิน (Emergency stop) ไว้ใช้เลยด้วยซ้ำ
  • มีความแม่นยำ และปลอดภัย (Accuracy, Robustness and Security)

เมื่อกฏหมายก็ไม่อาจคาดเดาอนาคตของเทคโนโลยีได้

ในเอกสารต้นฉบับได้กล่าวถึงความกังวลของความก้าวหน้าทางเทคโนโลยีที่กฏหมายไม่อาจตามกำกับได้ทัน ดังนี้

Although artificial intelligence is already present in many aspects of people’s daily lives, it is not possible to anticipate all possible uses or applications thereof that may happen in the future.

Regulation on a European approach for Artificial Intelligence

นั่นจึงเป็นความท้าทายของข้อกฏหมายนี้ต่อไปว่าจะสามารถกำกับเทคโนโลยีได้อย่างไรในระยะยาว

บทส่งท้าย

ในมุมมองของผู้เขียน นี่ถือเป็นกรณีศึกษาที่ดีในการควบคุม และบังคับใช้กฏหมายกับเทคโนโลยีใหม่ ๆ ที่ทำให้ความปลอดภัย และความก้าวหน้าของเทคโนโลยีเดินไปด้วยกันได้โดยไม่ไปชลอการพัฒนาของเทคโนโลยี เหมือนข้อครหาที่กฏหมายส่งผลต่ออุตสาหกรรมเทคโนโลยีในอดีต

มีคำถามสงสัยเพิ่มเติม ?

หากคุณสนใจเกี่ยวกับเรื่องที่เราเขียน สิ่งที่เราทำ และโครงการที่เราตั้งใจจะดำเนินงานในอนาคต คุณสามารถติดต่อพูดคุยกับเราได้


ขอบคุณแหล่งอ้างอิง