สรุป 4 ประเด็น จริยธรรม AI: ความท้าทายและแนวทางสำหรับประเทศไทย สาระจากเสวนา “จริยธรรม AI กับภาครัฐ และนโยบาย” – งาน AI Ethics Exhibition Thailand 2024

ระยะเวลาไม่ถึง 2 ปีที่เทคโนโลยี AI เติบโตอย่างก้าวกระโดดและเข้ามาเป็นส่วนหนึ่งของชีวิตมนุษย์แทรกซึมอยู่ในหลากบริบทหลายมิติของสังคมโลก ปฏิเสธไม่ได้ว่าขณะที่ AI เข้ามาเป็นตัวเร่งสร้างนวัตกรรมใหม่ ๆ เพิ่มประสิทธิภาพในการทำงาน ความเสี่ยงที่เกิดจากการนำ AI ไปใช้ผิดวัตถุประสงค์ก็ทวีความรุนแรงขึ้นเช่นกัน
 
‘จริยธรรม AI’ จึงเป็นประเด็นสำคัญที่ทั่วโลกมุ่งขับเคลื่อนให้เท่าทันกับการพัฒนาและใช้งาน AI โดยมีความเข้มข้นแตกต่างกันไปตามบริบทแต่ละประเทศ ทั้งในมิติการนิยามประเภทความเสี่ยง การกำกับดูแล การควบคุมผ่านการออกกฏหมาย แนวทาง กฎระเบียบต่าง ๆ ยกตัวอย่าง ‘AI ACT’ กฏหมาย AI ฉบับแรกของโลก โดยสหภาพยุโรป ที่มีผลบังคับใช้แล้วในประเทศสมาชิกเมื่อเดือน พ.ค.67 ที่ผ่านมา สำหรับประเทศไทยได้มีการพูดคุยประเด็นดังกล่าวผ่านเสวนา “จริยธรรม AI กับภาครัฐ และนโยบาย” งาน AI Ethics Exhibition Thailand 2024 โดยมี 4 ประเด็นที่น่าสนใจ ดังนี้

[1] กฎเกณฑ์ AI ไม่ควรหว่านแห

ดร.ศักดิ์ เสกขุนทด ที่ปรึกษา ETDA กล่าวว่า เรื่องของกฏเกณฑ์ AI อย่าโฟกัสเพียงจะทำอย่างไรไม่ให้ผิดกฎหมาย แต่ควรมองว่าจะทำธรรมภิบาล AI อย่างไรให้ตอบโจทย์ประเทศ แก้ปัญหาให้ประชาชน สิ่งที่ ETDA ทำ คือการหากลไก หรือ วิธีการให้ AI เป็นไปตามหลักการและแนวทางจริยธรรมปัญญาประดิษฐ์ของประเทศไทย โดย สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ (สดช.)
 
“เราต้องเข้าใจบริบทความต้องการของแต่ละภาคส่วนที่แตกต่างกัน แล้วจึงกำหนดกลไกในการจัดการเรื่อง AI ให้เป็นไปตามบริบทเหล่านั้น อย่าไปออกกฏหมายประเภทหว่านแห โดยต้องมองทั้งประโยชน์และความเสี่ยงเพื่อหาจุดที่ลงตัวระหว่างการคุ้มครองผู้บริโภคและส่งเสริมนวัตกรรม” ดร.ศักดิ์ กล่าว  
ด้านนายณัฐพงษ์ เรืองปัญญาวุฒิ ประธานคณะกรรมาธิการศึกษาการจัดทำและติดตามการบริหารงบประมาณสภาผู้แทนราษฎร เล่าว่า เสียงส่วนใหญ่ที่ได้รับจากการทำงานในสภาอาจรู้สึกว่าประเทศไทยยังไม่ถึงขั้นต้องกำกับดูแล AI เป็นหลัก เนื่องจากอุตสาหกรรม AI ยังไม่เกิด ให้เน้นส่งเสริมเป็นหลัก อย่างไรก็ตามส่วนตัวมองว่าภาครัฐหรือภาคส่วนที่เกี่ยวข้องสามารถศึกษากลไกการกำกับดูแล และออกเป็นนโยบายสาธารณะที่มุ่งส่งเสริมและกำกับดูแล AI ไปพร้อมกัน ยกตัวอย่าง ประเทศสิงคโปรที่พัฒนา ‘AI Verify’ เครื่องมือในการทดสอบความน่าเชื่อถือของ AI ที่ภาครัฐจะให้การรับรองมาตรฐานซอฟแวร์ หรือ ผลิตภัณฑ์ AI ที่ผ่านการทดสอบนี้ ซึ่งเป็นการส่งเสริมผู้ประกอบการ และสร้างความเชื่อมั่นให้กับผู้ใช้งานอีกด้วย
 

[2] ความท้าทายในการพัฒนา AI ในไทย

ความท้าทายใหญ่ในความเห็นของดร.ศักดิ์ คือ การพัฒนา Large Language Model (LLM) ที่ทำให้เกิดความเหลื่อมล้ำระหว่างประเทศที่ไม่มีความพร้อมกับประเทศที่พัฒนาแล้ว ในอนาคตหาก AI อยู่ในคอมพิวเตอร์ทุกเครื่อง ทุกครั้งที่ใช้สมาร์ตโฟน AI จะช่วยคิดแทนเรา ทุกครั้งเราต้องไปจ่ายเงินค่าใช้งานให้กับประเทศใหญ่ ประเทศไทยก็จะกลายเป็นผู้ใช้งานโดยสมบูรณ์
 
“ประเทศไทยที่ผลักดันเรื่องนี้อยู่แล้วอาจร่วมมือกับอาเซียนเพื่อแสดงจุดยืน หากประเทศที่กำลังพัฒนาโดนออกกฎไม่ให้ทำโน่นทำนี่ เรายังไม่ได้เกิดเลย คุณมาห้ามแล้ว ผมคิดว่ามันไม่แฟร์ ดังนั้น เราจะต้องมีของเราเอง แม้จะไม่เก่งเหมือนของเขา เราจะต้องมีจุดยืนในเรื่องนี้” ดร.ศักดิ์ กล่าว  
ดร.อภิวดี ปิยธรรมรงค์ นักวิจัยเนคเทค สวทช. กล่าวเสริมว่า ในเรื่อง LLM ภาษาไทย หลายคนอาจมองว่าเราเป็นไทย เราน่าจะเข้าใจภาษาไทยได้ดีที่สุด แต่เกมนี้ผู้ที่ถือไพ่เหนือกว่า คือ คนที่มีทรัพยากรในการเก็บและรวบรวบข้อมูล มีกำลังในการประมวลผลข้อมูลขนาดใหญ่ ยิ่งสามารถนำข้อมูลภาษาไทยขนาดใหญ่เข้าไปให้เครื่องได้เรียนรู้มากเท่าไหร่ ระบบจะทำความเข้าใจภาษาไทยได้ดีมากเท่านั้น 
 
เรื่องโครงสร้างพื้นฐานในการพัฒนา AI ประเทศไทยมี LANTA Supercomputer โดย ThaiSC สวทช. ที่มีศักยภาพติดอับดับโลก มีบุคลากรและเทคโนโลยีที่จะช่วยในการพัฒนา AI ได้ แม้อาจไม่เพียงพอสำหรับการแข่งขันในระดับโลก แต่เราพยายามพัฒนา Foundation Model เพื่อสนับสนุนการพัฒนา AI ในประเทศ ยกตัวอย่าง ‘OpenThaiGPT’ จากความร่วมมือของหลายหน่วยงานในไทยทั้งภาครัฐ เอกชน สมาคม รวมถึงเนคเทค สวทช. เพื่อพัฒนา LLM ภาษาไทยที่เปิดให้ทุกคนดาวน์โหลดไปต่อยอดโดยไม่มีค่าใช้จ่ายใด ๆ ทั้งสิ้น (Open Source) นอกจากนี้ยังมี AI for Thai แพลตฟอร์มให้บริการ AI สัญชาติไทยที่เปิดให้เรียกใช้และต่อยอด API ด้าน AI ได้ฟรีทั้งจากเนคเทค สวทช. และหน่วยงานพันธมิตร รวมถึงเปิดพื้นที่ให้ภาคเอกชนนำ API มาวางเพื่อเป็นพื้นที่ทดสอบใช้งานเชิงพาณิชย์ได้
 

[3] ‘อำนาจเงิน’ ขับเคลื่อนการแชร์ข้อมูลสนับสนุน AI

‘ความท้าทายสำคัญอีกหนึ่งอย่างสำหรับการพัฒนา AI คือ ‘ข้อมูล’ ด้วยข้อมูลมากมายบนอินเทอร์เน็ตนั้นไม่เพียงพอทั้งในแง่ปริมาณ และ ความหลากหลายของชนิดข้อมูล นักวิจัยยังต้องการข้อมูลจากภาครัฐ ภาคเอกชนที่มีความพร้อมในการแบ่งปันข้อมูลที่ไม่ติดลิขสิทธิ์มาใช้ในการทำวิจัย’ ดร.อภิวดี กล่าว
 
เรื่องการแบ่งปันข้อมูลภาครัฐ นายณัฐพงษ์ มองว่า ด้วยโครงสร้างอำนาจรัฐของไทยที่ต่างหน่วยงานต่างมีกฎหมายเป็นของตัวเองประกอบกับสิทธิ์การเป็นเจ้าของข้อมูลที่เป็นข้อจำกัดในการแบ่งปันข้อมูลภาครัฐ อำนาจกฎหมายจึงไม่ใช่วิธีการแก้ไขปัญหาเรื่องนี้แต่เป็นอำนาจเงิน
 
“ผู้มีอำนาจควบคุมการจัดซื้อจัดจ้างต้องกำหนดเป็นข้อบังคับว่า เมื่อหน่วยงานรัฐต้องการพัฒนาระบบ IT ขึ้นมาใหม่ให้ระบุเงื่อนไขขั้นต่ำในข้อกำหนดและขอบเขตการจ้าง (TOR) ว่าต้องมีการเชื่อมข้อมูลมาที่ Big Data ภาครัฐ เชื่อมเข้าดิจิทัลไอดี รวมถึงข้อมูลต้องบูรณาการเข้ามาตามนโยบายรัฐบาลดิจิทัล” นายณัฐพงษ์ อธิบาย

[4] คลายความกังวลของประชาชนด้วย AI Ehics

เมื่อ AI ได้รับการพัฒนาให้มีทักษะเทียบเท่ามนุษย์จนเริ่มแยกแยะไม่ออก ทำให้ประชาชนกังวลใจทั้งในแง่การถูกหลอกลวง รวมถึงข้อมูลส่วนบุคคลรั่วไหล ในมุมนักพัฒนาและภาครัฐมีความเคลื่อนไหวในเรื่องการสร้างความมั่นใจปลอดภัยให้กับประชาชนอย่างต่อเนื่อง ดร.อภิวดี เล่าว่า การพัฒนาระบบ AI ให้มีความน่าเชื่อถือ เรื่องความเป็นส่วนตัวของข้อมูลเป็นประเด็นสำคัญที่ต้องดูแล (Privacy) และต้องบอกได้ว่า AI มีความถูกต้องแค่ไหน ได้รับการเทรนด์มาจากข้อมูลประเภทไหนให้ผู้ใช้ได้เลือก (Transparentcy) ข้อมูลที่ใช้ในการวิจัยจะต้องปฏิบัติตามกฎหมาย PDPA มีการตรวจสอบข้อมูลส่วนบุคคลก่อนเป็นอันดับแรก และในอนาคตข้อมูลที่โมเดลสร้างขึ้นจะต้องตรวจสอบข้อมูลส่วนบุคคลซ้ำเช่นกัน
 
“นอกจากนี้ในฝั่ง Frontire Reresearch เนคเทค สวทช. พัฒนา “Chatbot Arena” เป็นเครื่องมือให้ผู้ใช้มีโอกาสได้ประเมิน LLM ภาษาไทย โดยนำ LLM ภาษาไทย จากแหล่งต่าง ๆ มาสร้างเป็น Chatbot เมื่อผู้ใช้ถามคำถามเข้าไประบบจะเลือก Model 2 ตัวเพื่อสร้างคำตอบให้ผู้ใช้เลือกว่าถูกใจคำตอบของโมเดลใดมากกว่ากัน ซึ่งเป็นวิธีเดียวกันกับ ChatGPT” ดร. อภิวดี กล่าว
นายณัฐพงษ์ เสนอไอเดียว่า “ในอนาตตอาจมีข้อกำหนดมาตรฐานอุตสาหกรรมซอฟต์แวร์ เทคโนโลยี หรือ Web browser ที่บอกว่าสื่อต่าง ๆ ต้องเพิ่ม Metadata ว่าเป็นมนุษย์ หรือ AI หากไม่ระบุให้ชัดจะไม่มีสิทธิ์เผยแพร่สื่อดังกล่าว เป็นนโยบายที่น่าสนใจเหมือนกับการทำ Water Mask เพราะประชาชนมีสิทธิ์รู้ที่มาของสื่อที่ได้รับ อาจปรับใช้เรื่อง Call Center ที่สามารถรู้ว่ากำลังคุยกับ AI หรือ มนุษย์”
 
“นอกจากเรื่อง AI Ethic แล้ว การส่งเสริมให้ประชาชนทุกคนมี AI Literacy เป็นเรื่องสำคัญและจำเป็นอย่างยิ่ง อีกทั้ง AI Litteracy เป็นเรื่องใหม่และไปเร็ว ไกด์ไลน์ต่าง ๆ ที่เริ่มต้นขึ้นเริ่มล้าสมัย ฉะนั้นจะทำอย่างไรให้ประชาชนสามารถติดตามได้ตลอดเวลา เข้าใจ และใช้เป็น อย่ามองแค่รู้เท่าทัน ควรจะรู้วิธีการใช้ที่เกิดประโยชน์กับตัวเองด้วย เพราะตอนนี้เครื่องมือ AI นั้นเยอะมาก แต่ต้องพิจารณาก่อนนำไปใช้ว่าข้อมูลที่ได้รับจาก AI นั้นถูกต้องหรือไม่” ดร.ศักดิ์ กล่าวทิ้งท้าย

Share to...

Facebook
Twitter
Email