สรุปหนังสือ The Coming Wave เขียนโดย Mustafa Suleyman ผู้ร่วมก่อตั้งและอดีตหัวหน้าฝ่าย AI ประยุกต์ที่ DeepMind
สรุปหนังสือ The Coming Wave เขียนโดย Mustafa Suleyman ผู้ร่วมก่อตั้งและอดีตหัวหน้าฝ่าย AI ประยุกต์ที่ DeepMind
.
The Coming Wave เป็นหนังสือที่ Mustafa Suleyman ใช้ประสบการณ์และความเชี่ยวชาญในฐานะผู้บุกเบิกด้าน AI มาร่วมถ่ายทอดนัยยะสำคัญของคลื่นลูกใหม่แห่งความก้าวหน้าทางเทคโนโลยีที่กำลังจะเปลี่ยนโฉมหน้าของโลก ทั้งในแง่ของการดำรงชีวิตประจำวัน การดำเนินธุรกิจ ตลอดจนอำนาจทางการเมืองระหว่างประเทศ
.
---------------
.
เทคโนโลยีที่จะมีบทบาทชี้เป็นชี้ตายในคลื่นลูกนี้มีสองสาขาหลักๆ คือ ปัญญาประดิษฐ์ (Artificial Intelligence) และ ชีววิทยาสังเคราะห์ (Synthetic Biology) โดยทั้งคู่ล้วนมีคุณลักษณะสำคัญร่วมกันที่ทำให้พวกมันทรงอานุภาพเหนือสิ่งอื่นใด ได้แก่
.
---------------
.
1. #ความเป็นเทคโนโลยีอเนกประสงค์ (General Purpose Technology)
.
ในขณะที่เทคโนโลยีหลายอย่างมีขอบเขตการใช้งานค่อนข้างจำกัดเฉพาะทาง AI และ Synthetic Biology สามารถนำไปใช้ได้กับทุกอุตสาหกรรมและทุกองค์ประกอบของชีวิต ตั้งแต่การค้นพบยารักษาโรค การปรับปรุงพันธุ์พืชและสัตว์ การทำเหมืองแร่และสำรวจอวกาศ ไปจนถึงการบริหารจัดการภาครัฐ การสร้างยุทโธปกรณ์ทางการทหาร และอุตสาหกรรมบันเทิง
.
ตัวอย่างที่เห็นได้ชัดคือ การที่ระบบ AlphaFold ซึ่งพัฒนาโดย DeepMind สามารถทำนายโครงสร้างโปรตีนได้แบบที่ไม่เคยทำได้มาก่อน จากเดิมที่ต้องใช้เวลาหลายเดือนหรือเป็นปีเพื่อหาโครงสร้างของโปรตีนหนึ่งๆ AlphaFold สามารถคำนวณได้ภายในเวลาไม่กี่นาที และมันได้ถูกนำมาใช้ทำแผนที่โครงสร้างของโปรตีนทุกตัวที่วิทยาศาสตร์รู้จัก ซึ่งกระบวนการนี้แสดงให้เห็นทั้งศักยภาพในการเร่งความก้าวหน้าทางชีววิทยา และการประยุกต์ใช้ AI เพื่อประโยชน์ในสาขาอื่นๆ
.
ในขณะเดียวกัน เทคนิคการแก้ไขจีโนมอย่าง CRISPR ก็เปิดโอกาสให้สามารถออกแบบดัดแปลงสิ่งมีชีวิตทั้งหลายได้ตามต้องการ ไม่ว่าจะเป็นการสร้างจุลินทรีย์สายพันธุ์ใหม่ที่กินขยะพลาสติก การปรับปรุงพืชพันธุ์ทางการเกษตรให้ทนทานต่อโรคและแมลง ไปจนถึงขั้นการเพิ่มสมรรถภาพและขจัดความผิดปกติทางพันธุกรรมในตัวมนุษย์เราเอง
.
---------------
.
2. #การวิวัฒนาการอย่างก้าวกระโดด (Rapid Evolution)
.
ไม่ว่าจะเป็น AI หรือ Synthetic Biology ต่างก็มีอัตราการพัฒนาที่ไม่เป็นเชิงเส้น หากแต่ทวีคูณและเร่งตัวขึ้นเรื่อยๆ อย่างเช่นข้อมูลที่ว่า พลังการประมวลผลของ AI ณ ปัจจุบัน มากกว่ายุคก่อนตั้งแต่ 10 ปีที่แล้วราวหนึ่งล้านเท่า และยังคงเพิ่มขึ้นแบบทวีคูณต่อไปเรื่อยๆ ส่วนเทคโนโลยี CRISPR ก็พัฒนาจากเพียงการแก้ไขยีนไปสู่การสังเคราะห์ยีนหรือโครโมโซมขึ้นมาใหม่จากศูนย์ได้แล้ว
.
ยิ่งไปกว่านั้น ความก้าวหน้าทั้งสองด้านยังส่งเสริมซึ่งกันและกัน กล่าวคือ AI ช่วยเร่งการค้นพบทางชีววิทยาให้รวดเร็วขึ้น ในขณะที่ความรู้ใหม่ทางชีววิทยาก็ถูกนำมาใช้ออกแบบวงจรอิเล็กทรอนิกส์ชีวภาพให้แก่ AI การผสานกันของสองเทคโนโลยีนี้ในอนาคตอาจนำไปสู่สิ่งที่วันนี้ฟังดูเหลือเชื่อ เช่น คอมพิวเตอร์ที่ใช้สารพันธุกรรมเป็นหน่วยประมวลผลและเก็บข้อมูล หรือสมองกลที่เลียนแบบการทำงานของสมองอินทรีย์ได้อย่างแท้จริง
.
---------------
.
3. #ผลกระทบเชิงอำนาจที่ไม่สมมาตร (Asymmetric Power Impact)
.
สิ่งที่ Suleyman เน้นย้ำก็คือ เทคโนโลยีเหล่านี้มีแนวโน้มที่จะเพิ่มพูนอำนาจให้แก่ผู้ที่ครอบครองและเข้าถึงมันก่อน ส่วนผู้ที่เข้าไม่ถึงหรือตามไม่ทันก็จะยิ่งเสียเปรียบและถูกทิ้งห่างออกไป ประเทศมหาอำนาจอย่างสหรัฐฯ จีน รวมถึงประเทศผู้นำด้านเทคโนโลยีอย่างเกาหลีใต้และสิงคโปร์ ต่างก็ตระหนักถึงความได้เปรียบเชิงยุทธศาสตร์ของ AI และกำลังแข่งขันกันพัฒนาอย่างเอาเป็นเอาตาย ส่วนในภาคธุรกิจ บริษัทยักษ์ใหญ่เช่น Google, Meta, OpenAI และ DeepMind ก็เร่งสะสมทรัพยากรและคว้าตัวบุคลากรหัวกะทิมารวมไว้กับตน เพื่อความได้เปรียบในการพัฒนา
.
ผลที่ตามมาก็คือ ช่องว่างระหว่างผู้ที่ครอบครองกับผู้ที่ไร้ซึ่งเทคโนโลยีจะยิ่งถ่างออก นำไปสู่การกระจุกตัวของอำนาจและความมั่งคั่งในกลุ่มคนจำนวนน้อย ประเทศกำลังพัฒนาบางแห่งอาจตกเป็นเบี้ยล่างของการทดลองเทคโนโลยีใหม่ๆ โดยไม่อาจต่อรอง ในขณะที่รัฐบาลเผด็จการก็อาจใช้ AI เสริมอำนาจในการควบคุมประชาชน เฝ้าระวัง และปราบปรามเสียงของฝ่ายตรงข้าม เมื่อเทคโนโลยีวิวัฒนาการไปไกลพอ แม้แต่ประเทศพัฒนาแล้วก็อาจกลายเป็นเพียงเบี้ยหมากรุกที่อ่อนแอหากไม่อาจควบคุมหรือเข้าถึงเทคโนโลยีนั้นได้
.
-----------------
.
4. #ความเป็นอิสระและความยากที่จะควบคุม (Autonomy & Difficulty to Control)
ปัญหาสุดท้ายที่ Suleyman ชี้ให้เห็นคือแนวโน้มที่ระบบ AI และสิ่งมีชีวิตสังเคราะห์จะมีความเป็นอิสระ (autonomy) มากขึ้นเรื่อยๆ จนถึงจุดที่อาจควบคุมไม่ได้ ตัวอย่างชัดเจนคือกรณีของ ChatGPT ซึ่งเป็น AI ที่ฉลาดพอจะโต้ตอบราวกับมนุษย์ แต่ในเวลาเดียวกัน มันก็เป็นเหมือนกล่องดำ (black box) ที่แม้แต่ผู้พัฒนาเองก็อธิบายไม่ได้ว่ามันคิดหรือให้เหตุผลอย่างไรในการตอบคำถามแต่ละข้อ หากในอนาคต มี AI ที่ซับซ้อนกว่านี้อีกหลายเท่าตัวและมีการเชื่อมโยงกันเป็นเครือข่าย ก็ยากนักที่มนุษย์จะตามทันหรือควบคุมได้หมด
.
Suleyman ได้ยกตัวอย่างเรื่องผลิตภัณฑ์ GMO ที่แม้จะมีการควบคุมกำกับ แต่ก็ไม่อาจป้องกันการแพร่กระจายเชื้อพันธุกรรมออกไปได้ทั้งหมด เขามองว่าความก้าวหน้าทางชีววิทยาสังเคราะห์ในอนาคตจะยากที่จะควบคุมยิ่งกว่านั้น เพราะนักวิทยาศาสตร์อาจสังเคราะห์สิ่งมีชีวิตใหม่ๆ ที่ไม่เคยมีในธรรมชาติมาก่อน มีพฤติกรรมและผลกระทบต่อระบบนิเวศน์ที่ยากจะคาดเดา การเผยแพร่ของสิ่งมีชีวิตเหล่านี้อาจควบคุมไม่ได้เลยเมื่อถึงจุดหนึ่ง
.
---------------------------------------------------
.
แรงผลักดันที่เร่งให้การพัฒนาเทคโนโลยีเป็นไปอย่างเต็มพิกัดนั้นมีทั้งปัจจัยระดับโลก มหภาค จนถึงแรงจูงใจส่วนบุคคลของผู้คนในแวดวง ได้แก่
.
----------------
.
#ความมั่นคงของประเทศ (National Security)
.
ในเวทีโลก AI กลายเป็นสมรรถนะหลักในเชิงยุทธศาสตร์ที่ประเทศต่างๆ หมายครอบครอง เพราะมันสัญญาว่าจะเพิ่มขีดความสามารถในการป้องกันประเทศหลายเท่าตัว ไม่ว่าจะเป็นการใช้ AI คาดการณ์ภัยคุกคามล่วงหน้า การบูรณาการ AI เข้ากับระบบอาวุธอัตโนมัติ หรือการใช้ AI ปฏิบัติการจิตวิทยาเพื่อครอบงำความคิดของฝ่ายตรงข้าม
.
Suleyman กล่าวถึงเรื่องนี้หลายครั้งในหนังสือ แม้เขาจะคัดค้านการเปรียบเทียบการแข่งขันพัฒนา AI กับโครงการแมนฮัตตันซึ่งนำไปสู่การประดิษฐ์อาวุธนิวเคลียร์ เพราะเขาเห็นว่าการมองเช่นนั้นจะไม่ส่งเสริมบรรยากาศของความร่วมมือระหว่างประเทศ อย่างไรก็ดี เขายอมรับว่าการแข่งขันเชิงภูมิรัฐศาสตร์นี้เป็นความจริงที่หลีกเลี่ยงได้ยาก เพราะไม่มีประเทศใดกล้าเสี่ยงที่จะตกเป็นฝ่ายเสียเปรียบ
.
------------
.
#โอกาสทางเศรษฐกิจมหาศาล (Tremendous Economic Opportunities)
.
ในเชิงเศรษฐกิจ AI และ Synthetic Biology ถือเป็นเทคโนโลยีใหม่ (Emerging Technology) ที่จะสร้างอุตสาหกรรมยักษ์ใหญ่ขึ้นมา โดย Suleyman ได้ให้ข้อมูลสถิติมูลค่าตลาดที่คาดการณ์ไว้อย่างน่าทึ่ง เขากล่าวว่าภายในปี 2030 AI จะสร้างมูลค่าเพิ่มให้กับเศรษฐกิจโลกราว 15.7 ล้านล้านดอลลาร์ ส่วนชีวเศรษฐกิจ (Bioeconomy) ซึ่งผนวกเอาเทคโนโลยีชีวภาพต่างๆ รวมถึงชีววิทยาสังเคราะห์ จะมีมูลค่าสูงถึง 30 ล้านล้านดอลลาร์ภายในปี 2030 เช่นกัน
.
ด้วยตัวเลขที่สูงลิ่วเช่นนี้ จึงไม่น่าแปลกใจเลยที่บริษัทเอกชน นักลงทุน และผู้ประกอบการทั้งหลาย ต่างหลั่งไหลเข้าสู่สมรภูมิแห่งนี้เพื่อชิงความได้เปรียบและผลประโยชน์มหาศาล มีรายงานว่าในปี 2021 มีการระดมทุนเพื่อการวิจัย AI ทั่วโลกสูงถึง 93,500 ล้านดอลลาร์ ซึ่งเพิ่มขึ้นกว่าปี 2020 ถึง 35% ส่วนการชิงตัวผู้เชี่ยวชาญก็ดุเดือดไม่แพ้กัน ด้วยค่าตอบแทนเฉลี่ยสูงถึง 300,000-500,000 ดอลลาร์ต่อปี หรือมากกว่านั้นสำหรับผู้มีความสามารถระดับท็อป
.
นอกจากตัวเลขเศรษฐกิจอันน่าตื่นตาตื่นใจแล้ว ยังมีบางคนที่กล่าวว่า AI จะเป็นความหวังสุดท้ายในการแก้ปัญหาความยากจน ความไม่เท่าเทียม และความยั่งยืน ซึ่งนโยบายทางเศรษฐกิจแบบเดิมๆ แก้ไม่ตก Suleyman เห็นว่าแนวคิดดังกล่าวอาจดูเพ้อฝันไป แต่ก็เป็นอีกแรงขับเคลื่อนให้คนจำนวนไม่น้อยลุกขึ้นมารณรงค์เพื่อความก้าวหน้าของ AI อย่างไม่ลดละ
.
------------
.
#อีโก้และความปรารถนาในชื่อเสียง (Egos and Desire for Fame)
.
อีกแรงผลักดันที่ไม่อาจมองข้ามได้คือแรงปรารถนาภายในจิตใจของปัจเจกบุคคล Suleyman ชี้ว่าผู้คนในแวดวงนี้ ไม่ว่าจะเป็นนักวิทยาศาสตร์ นักพัฒนา หรือนักธุรกิจ ต่างก็ล้วนรับรู้ถึงความยิ่งใหญ่ของพลังที่พวกเขากำลังร่วมกันปลดปล่อยออกมา และต้องการจารึกชื่อตัวเองไว้ในหน้าประวัติศาสตร์ การเป็นผู้บุกเบิกในยุคเปลี่ยนผ่านครั้งสำคัญถือเป็นเกียรติยศสูงสุดของนักวิทยาศาสตร์และนักประดิษฐ์ทั้งหลาย และพลังแห่งอีโก้นี้เองที่ทำให้พวกเขาไม่ยอมหยุดแม้เมื่อเจออุปสรรค
.
นอกจากอีโก้ส่วนตัวแล้ว ยังอีโก้ขององค์กรและอีโก้ของชาติอีกด้วย องค์กรยักษ์ใหญ่อย่าง Google, Meta หรือ OpenAI ต่างปรารถนาที่จะครองตำแหน่ง "ผู้สร้างปัญญาประดิษฐ์ที่ทรงพลังที่สุดในโลก" ไม่น้อยไปกว่าที่ประเทศชั้นนำอย่างสหรัฐฯ หรือจีนต้องการเป็นมหาอำนาจเหนือใครในด้านนี้ ความหยิ่งทะนงเหล่านี้ผลักดันให้แต่ละฝ่ายเดินหน้าไม่มีถอย เพื่อเอาชนะคู่แข่งให้ได้
.
-----------------
.
#ความอยากรู้อยากเห็นตามธรรมชาติของมนุษย์ (Innate Human Curiosity)
.
ท้ายที่สุด Suleyman ก็ชี้ให้เห็นถึงความอยากรู้อยากเห็นในฐานะพลังขับเคลื่อนที่บริสุทธิ์ที่สุด เพราะมันคือสิ่งที่ฝังแน่นอยู่ในสายเลือดของนักวิทยาศาสตร์ทุกคน มนุษย์เรามีความกระหายที่จะไขความลับแห่งธรรมชาติมาตั้งแต่ดึกดำบรรพ์ เราอยากรู้ว่าจักรวาลกำเนิดขึ้นได้อย่างไร ชีวิตเริ่มต้นได้อย่างไร และสิ่งมีชีวิตที่ซับซ้อนอย่างเราคิดและรู้สึกได้อย่างไร จากความอยากรู้เหล่านี้เองที่ผลักดันให้เรามุ่งไปข้างหน้าอย่างไม่หยุดยั้ง
.
Suleyman ยกตัวอย่างจากประวัติศาสตร์ เช่น การประดิษฐ์กล้องโทรทรรศน์ของกาลิเลโอ ซึ่งทำให้เห็นดวงจันทร์ของดาวพฤหัสบดีเป็นครั้งแรก แต่ในเวลาเดียวกัน การค้นพบของเขาก็ถูกต่อต้านและถูกประณามว่าเป็นความคิดนอกรีต เพราะมันสั่นคลอนความเชื่อทางศาสนาที่มีมาช้านาน อีกทั้งผลักดันให้ผู้คนตั้งคำถามต่อที่มาของอำนาจศักดิ์สิทธิ์ Suleyman มองว่าความก้าวหน้าของ AI และ Synthetic Biology ในยุคนี้ก็คล้ายคลึงกัน เพราะมันท้าทายความเข้าใจและความเชื่อของเรามากมาย เริ่มตั้งแต่คำนิยามของ "ความฉลาด" และ "ชีวิต" ไปจนถึงความสัมพันธ์ระหว่างมนุษย์กับ "สิ่งที่มนุษย์สร้าง"
.
ถึงแม้จะมองเห็นความเสี่ยงร้ายแรงที่เกิดจากคลื่นเทคโนโลยีนี้ แต่ Suleyman ก็ยังเชื่อมั่นในวิถีแห่งการค้นหาความจริงของวิทยาศาสตร์ เขากล่าวว่า "ความรู้แท้นั้นอยากเป็นอิสระเสมอ (Knowledge wants to be free)" และการควบคุมความก้าวหน้าทางวิทยาศาสตร์เอาไว้ไม่ให้แพร่กระจายย่อมเป็นเรื่องที่ผิดธรรมชาติและเป็นไปได้ยาก เปรียบเสมือนการสกัดกั้นกระแสน้ำที่ไหลบ่า สุดท้ายมันก็จะทะลักออกมาอยู่ดี ฉะนั้นทางออกที่ดีที่สุดก็คือการหาทางควบคุมและชักนำทิศทางของมันให้เป็นไปในทางที่เกิดประโยชน์สูงสุดต่อส่วนรวม แทนที่จะต่อต้านอย่างไร้ผล
.
-----------------------------------------
.
แล้วเราจะชักนำกระแสคลื่นแห่งความเปลี่ยนแปลงครั้งนี้ไปในทางที่เราต้องการได้อย่างไร? มาดูประเด็นถัดไปที่ Suleyman ชวนให้เรามาขบคิดกัน
.
-------------------
.
#เส้นทางสู่ความหายนะ (Pathways to Catastrophe)
.
เมื่อประเมินจากคุณสมบัติของเทคโนโลยีเหล่านี้ ประกอบกับแรงผลักดันมหาศาลที่กล่าวไปแล้ว Suleyman มองเห็นความเสี่ยงที่จะเกิดผลกระทบเชิงลบอย่างมหันต์ได้หลายเส้นทาง หากมนุษยชาติไม่สามารถหามาตรการในการป้องกันและควบคุมให้ทันการณ์ ความเสี่ยงเหล่านี้ได้แก่:
.
#ความอ่อนแอของรัฐ (Weakening of the States)
.
ในอดีต รัฐเคยเป็นผู้ผูกขาดอำนาจในการบังคับใช้กฎหมาย ใช้กำลัง และรักษาความมั่นคง แต่การถือกำเนิดของยักษ์ใหญ่ด้านเทคโนโลยีกลับขีดเส้นใต้ให้เห็นความเปราะบางของรัฐยุคใหม่ Suleyman ยกตัวอย่างเหตุการณ์ WannaCry ซึ่งเป็นการโจมตีแบบ ransomware ในปี 2017 ที่ทำให้คอมพิวเตอร์ของหน่วยงานรัฐทั่วโลก รวมถึงระบบสาธารณสุขแห่งชาติของอังกฤษ (NHS) หยุดชะงักไปพร้อมกัน โดยตัวมัลแวร์นั้นแพร่กระจายผ่านช่องโหว่ของระบบปฏิบัติการ Windows ซึ่งทาง Microsoft รับทราบแต่ไม่ได้แจ้งเตือนผู้ใช้ สุดท้ายสถานการณ์กลับคลี่คลายลงได้ด้วยความบังเอิญ เมื่อมีนักวิจัยด้านความปลอดภัยไซเบอร์รายหนึ่งได้ค้นพบ "สวิตช์ฉุกเฉิน" ของมัลแวร์และกดหยุดการโจมตีได้สำเร็จ
.
เหตุการณ์นี้แสดงให้เห็นว่า ปฏิบัติการโครงสร้างพื้นฐานที่สำคัญของรัฐหลายส่วนได้พึ่งพาเทคโนโลยีของภาคเอกชนไปจนถอนตัวไม่ขึ้นแล้ว หากในอนาคตมี AI ที่ควบคุมโครงข่ายสาธารณูปโภค ระบบขนส่ง ความมั่นคงปลอดภัย และระบบการเงินการธนาคารทั้งหมด รัฐก็จะไม่อาจทำหน้าที่พื้นฐานได้หากโครงสร้างเหล่านั้นหยุดชะงักลง นอกจากนี้ ยังมีความเสี่ยงที่ผู้มีเจตนาร้ายจะสามารถใช้เทคโนโลยีเดียวกันปั่นป่วนและทำลายระบบต่างๆ ของรัฐ เช่น การใช้ deepfake ในการบิดเบือนข้อมูลข่าวสารและสร้างความแตกแยก หรือการใช้ AI ในการก่อการร้าย เป็นต้น
.
#การกระจุกตัวและกระจายตัวของอำนาจไปพร้อมๆกัน (Simultaneous Centralization & Decentralization of Power)
.
ในขณะที่ Suleyman มองว่ารัฐอาจอ่อนแอลงในมิติหนึ่ง แต่ในอีกมิติหนึ่ง รัฐที่มีทรัพยากรมากพอให้พัฒนาเทคโนโลยีเหล่านี้จะกลายเป็นมหาอำนาจเหนือรัฐที่เข้าไม่ถึงเทคโนโลยี ขณะที่ความเหลื่อมล้ำภายในชาติก็จะเพิ่มสูงขึ้น เมื่อผู้คนกลุ่มเล็กๆ ซึ่งเป็นเจ้าของ ผู้พัฒนา หรือผู้เชี่ยวชาญด้านเทคโนโลยีนี้จะมีอำนาจทางเศรษฐกิจการเมืองที่เหนือกว่าคนอื่น ซึ่งอาจนำไปสู่การผูกขาดและความไม่เท่าเทียมที่รุนแรงมากขึ้น
.
สิ่งที่น่ากลัวกว่านั้นก็คือ การที่กลุ่มคนบางกลุ่มอาจใช้อำนาจจากเทคโนโลยีนี้แยกตัวออกจากรัฐ เพื่อสร้างอาณาจักรอิสระของตนเองขึ้นมา ยกตัวอย่างเช่น การใช้ AI ในการบังคับใช้กฎเกณฑ์ภายในและปกครองผ่านอัลกอริทึม การพัฒนาอาวุธชีวภาพส่วนตัว หรือการผลิตสกุลเงินและระบบเศรษฐกิจของตัวเอง รัฐอาจไม่อาจควบคุมกลุ่มอำนาจนอกรัฐแบบนี้ได้เลย เพราะยิ่งรัฐพยายามเข้าไปควบคุม พวกเขาก็อาจย้ายฐานไปตามชายแดนอธิปไตย (frontier) ที่รัฐเอื้อมไม่ถึง เช่น กลางทะเล หรือบนดาวเคราะห์ดวงอื่น
.
แต่ในอีกทางหนึ่ง เทคโนโลยีนี้ก็อาจเสริมพลังให้แก่รัฐที่ครอบครองมัน โดยเฉพาะรัฐเผด็จการที่จะใช้มันเป็นเครื่องมือในการควบคุมและปราบปรามประชาชนให้ได้มากขึ้น เช่น การเฝ้าระวังผ่าน AI การบิดเบือนความจริงผ่าน deepfake การสร้างกองทัพหุ่นยนต์ที่จงรักภักดีสุดๆ เป็นต้น ซึ่งอาจทำให้การต่อต้านรัฐแบบเผด็จการยากยิ่งกว่าเดิม
.
ทั้งสองภาพอนาคตแสดงให้เห็นความเป็นไปได้ของทั้งการกระจุกตัวและการกระจายตัวของอำนาจไปพร้อมๆ กัน ซึ่ง Suleyman เชื่อว่าจะนำไปสู่ความขัดแย้งและความไม่มั่นคงอย่างที่ไม่เคยเกิดขึ้นมาก่อน
.
#ความขัดแย้งรุนแรงและอุบัติภัย (Conflicts and Catastrophic Accidents)
.
เมื่อเทคโนโลยีอำนวยให้เกิดการกระจายอำนาจ ตัวแสดงหลากหลายมากขึ้น ก็มีความเสี่ยงที่ความขัดแย้งจะรุนแรงและควบคุมยากมากขึ้นตามไปด้วย ในเชิงสงคราม การมี AI และหุ่นยนต์ร่วมรบด้วยจะทำให้มีผู้เสียชีวิตมากขึ้นและคาดเดาทิศทางได้ยากขึ้น ไหนจะยังความเสี่ยงที่อาวุธชีวภาพที่มีพลังทำลายล้างสูงจะตกไปอยู่ในมือของกลุ่มก่อการร้าย หรือความเป็นไปได้ที่อุบัติเหตุจากการทดลองทางชีวภาพหรือ AI จะลุกลามเป็นหายนะระดับโลก ก็ยิ่งทวีความกังวลมากขึ้น
.
ในระดับปัจเจก AI ก็อาจถูกใช้ในการสร้างภาพลวงตา (deepfake) เพื่อข่มขู่ กลั่นแกล้ง หรือทำลายชีวิตผู้อื่น หรือถูกใช้ในการโจมตีโครงสร้างพื้นฐานที่สำคัญผ่านอินเทอร์เน็ต ส่วนในแง่ของการแพทย์ การมีเทคโนโลยีพันธุวิศวกรรมที่ทรงพลังเกินไป ก็อาจทำให้เกิดการดัดแปลงยีนมนุษย์ในทางที่ผิดได้ ทั้งโดยเจตนาและไม่เจตนา สิ่งเหล่านี้ล้วนชี้ไปที่ความเปราะบางของสังคมที่พึ่งพาเทคโนโลยีมากเกินไป
.
Suleyman ยังบรรยายถึงความเสียหายทางอ้อมในระดับโครงสร้างด้วย เช่น การที่ AI จะทำให้คนจำนวนมากตกงาน ซึ่งอาจนำไปสู่ความไม่สงบและการปฏิวัติก็เป็นได้
.
แต่ที่น่ากลัวที่สุดก็คือ ความเป็นไปได้ที่ AI จะฉลาดเกินกว่ามนุษย์จะควบคุมได้ แล้วมันอาจหันมาทำร้ายหรือทำลายล้างอารยธรรมของเราก็ได้ ถึงแม้นักปรัชญาและนักจริยศาสตร์ได้เสนอวิธีป้องกันหลายประการ เช่น การปลูกฝังค่านิยมหลักของมนุษย์ (human values) ให้แก่ระบบ AI หรือติดตั้งสวิตช์ฉุกเฉินเพื่อหยุดหรือทำลายมันก่อนที่มันจะวิวัฒนาการเกินเยียวยา แต่สำหรับ Suleyman แล้ว มันไม่ใช่เรื่องง่ายเลยที่จะหาทางป้องกันที่สมบูรณ์แบบได้
.
----------------------------------
.
เอาล่ะ เรามาถึงส่วนที่ชวนคิดที่สุดในหนังสือแล้ว หลังจากทบทวนความเสี่ยงอันหลากหลายข้างต้น คำถามสำคัญก็คือ เรายังมีทางเลือกอื่นไหม? เราจะอยู่กับสิ่งที่เรียกว่า "ความก้าวหน้า" นี้ได้อย่างไร? Suleyman ได้ให้มุมมองที่น่าสนใจเกี่ยวกับ 2 ทางเลือกนี้
.
#การหยุดชะงักและการถดถอย (Stagnation and Degeneration)
.
หากความเสี่ยงที่เกิดจากคลื่นเทคโนโลยีใหม่เหล่านี้สูงเกินกว่าที่เราจะยอมรับได้ ก็อาจมีความพยายามที่จะหยุดหรือถึงขั้นถอยหลังการพัฒนาเสีย ซึ่งแน่นอนว่าจะเป็นงานที่ยากลำบาก เพราะแรงผลักดันไปข้างหน้าทั้งหลายจะต่อต้านความพยายามดังกล่าวอย่างหนักหน่วง แต่ก็ไม่ใช่ว่าจะเป็นไปไม่ได้เสียทีเดียว ในอดีตเราก็เคยมีตัวอย่างของเทคโนโลยีบางอย่างที่ถูกจำกัดการพัฒนาหรือแพร่กระจายอย่างเข้มงวด อย่างเช่นอาวุธนิวเคลียร์ หรือการห้ามพัฒนาอาวุธชีวภาพบางประเภท แต่สำหรับเทคโนโลยี AI และ Synthetic Biology นั้น Suleyman เห็นว่าการจำกัดจะยากกว่ามาก เพราะพวกมันไม่ใช่เทคโนโลยีเฉพาะทางที่ใช้ได้แค่ด้านใดด้านหนึ่ง ซึ่งพอจะสกัดกั้นได้ หากแต่เป็นเทคโนโลยีพื้นฐานที่แทรกซึมไปได้ในทุกอุตสาหกรรมและทุกมิติของชีวิต ดังนั้นมันเป็นไปไม่ได้เลยที่จะแยกเทคโนโลยีพวกนี้ออกจากระบบเศรษฐกิจและสังคมที่เราพึ่งพามันอย่างสิ้นเชิงแล้ว
.
อีกประเด็นที่น่าสนใจคือ แรงต้านต่อเทคโนโลยีแบบสุดโต่งนั้นมักจะนำไปสู่การเสื่อมถอยของอารยธรรมในที่สุด อย่างกรณีของจักรวรรดิจีนยุคราชวงศ์หมิง ที่เลือกปิดประเทศและไม่ยอมรับเทคโนโลยีใหม่ๆ เข้ามา สุดท้ายก็ต้องล่มสลายเพราะตามชาติตะวันตกที่ยอมรับความเปลี่ยนแปลงไม่ทัน ฉะนั้นแม้มุมมองที่ว่า "หยุดทุกอย่างไว้แค่นี้" จะฟังดูปลอดภัย แต่มันเท่ากับการฆ่าตัวตาย เพราะโลกมันหยุดนิ่งไม่ได้ สิ่งมีชีวิตและสังคมมนุษย์จะต้องปรับตัวอยู่เสมอ การปฏิเสธการเปลี่ยนแปลงก็เหมือนกับปฏิเสธกฎแห่งวิวัฒนาการนั่นเอง
.
นอกจากนั้น Suleyman ยังโต้แย้งด้วยว่า ตลอดประวัติศาสตร์ ความมั่งคั่งและความเป็นอยู่ที่ดีของผู้คนล้วนได้มาจากความก้าวหน้าทางเทคโนโลยีทั้งสิ้น มาตรฐานการครองชีพอย่างที่เรามีอยู่ในปัจจุบันก็ได้มาจากการปฏิวัติอุตสาหกรรมและการปฏิวัติดิจิทัลที่ผ่านมา ถ้าเราหยุดการเติบโตทางเทคโนโลยีเสีย ระบบเศรษฐกิจและสังคมก็จะค่อยๆ เสื่อมโทรมลงเรื่อยๆ จนอาจถึงขั้นล่มสลาย เพราะเราไม่มีนวัตกรรมอะไรมาสร้างมูลค่าเพิ่มให้กับระบบอีกต่อไปแล้ว
.
---------------------------------
.
ดังนั้นประเด็นก็ไม่ได้อยู่ที่ว่า "เราควรเดินหน้าต่อไปหรือถอยกลับ" แต่เป็น "เราจะเดินหน้าไปอย่างไร เพื่อที่เราจะได้รับประโยชน์จากความก้าวหน้า แต่ในขณะเดียวกันก็จัดการความเสี่ยงให้ได้"
.
#การจำกัดควบคุมในยุคใหม่ (A New Paradigm of Control)
.
เมื่อมาถึงตอนนี้ Suleyman ก็ได้นำเสนอมุมมองของเขาเองเกี่ยวกับทางออกที่พอจะเป็นไปได้ เขาเริ่มจากการแยกแยะระหว่างเป้าหมายสูงสุดของการควบคุมออกเป็น 2 ระดับ ได้แก่:
.
1) #การจำกัดขอบเขตและทิศทาง (Delimiting Scope & Direction): เป้าหมายในระดับนี้คือการกำหนดว่าเทคโนโลยีเหล่านี้ควรพัฒนาไปในทิศทางไหน มีขอบเขตแค่ไหน เพื่อให้เกิดประโยชน์สูงสุดและมีโทษน้อยที่สุด รูปแบบของการควบคุมอาจเป็นแบบนโยบาย (policy) กฎหมาย (regulation) หรือข้อตกลงระหว่างประเทศ (international agreement) ที่มีผลบังคับใช้จริง ในทางปฏิบัติ การควบคุมในระดับนี้อาจทำได้โดย:
.
- การกำหนดขอบเขตการใช้งานให้ชัดเจน เช่น กำหนดว่า AI ประเภทไหนที่ห้ามนำไปใช้ทางการทหารโดยเด็ดขาด หรือการแก้ไขจีโนมมนุษย์สายพันธุ์ (germline editing) ที่จะส่งผลถึงลูกหลานควรทำได้หรือไม่ ภายใต้เงื่อนไขอะไร
.
- การสร้างกลไกสากลเพื่อควบคุมดูแล (international governance) เช่น ระบอบควบคุมอาวุธชีวภาพ (biological weapons convention) หรือระบอบควบคุมหุ่นยนต์อัตโนมัติ (autonomous weapons convention)
.
- การปรับกฎหมายและข้อบังคับต่างๆ ให้ทันกับความก้าวหน้าของเทคโนโลยี เพื่อจัดการกับปัญหาที่เกิดใหม่ เช่น กฎหมายแรงงานสำหรับคนที่ทำงานร่วมกับหุ่นยนต์ หรือกฎหมายภาษีสำหรับบริษัทที่ใช้หุ่นยนต์แทนแรงงานคน
.
- การร่วมมือกันวางมาตรฐานและแนวทางปฏิบัติ (standard & guidelines) ระหว่างรัฐและเอกชน เพื่อส่งเสริมการพัฒนาเทคโนโลยีอย่างรับผิดชอบ เช่น AI ethics guidelines หรือ biosecurity protocols เป็นต้น
.
2) #การจำกัดพลังอำนาจ (Restraining Capability): เป้าหมายในระดับนี้คือการสกัดกั้นไม่ให้เทคโนโลยีเหล่านี้ถูกใช้ในทางที่ผิดหรือเกินควบคุมจนเกิดหายนะ แม้ว่าจะเป็นไปได้ยากที่จะป้องกันทุกความเสี่ยง แต่ก็ควรมีมาตรการรองรับเผื่อกรณีฉุกเฉิน (contingency plan) เอาไว้ ซึ่งอาจรวมถึง:
.
- การวิจัยและพัฒนาวิธีหยุดยั้ง AI ที่ควบคุมไม่ได้ (AI containment) เช่น วิธีการตัดการเชื่อมต่อ การจำกัดทรัพยากร หรือการกำจัดทิ้ง
.
- การเตรียมการฉุกเฉินสำหรับภัยคุกคามทางชีวภาพ (bioterrorism) เช่น การสร้างระบบเฝ้าระวัง เก็บตัวอย่างเชื้อ และพัฒนาวัคซีนรับมือ
.
- การแข่งขันชิงความได้เปรียบในเทคโนโลยีหลัก (techno-nationalism) เพื่อป้องกันไม่ให้ตกไปอยู่ในมือของผู้ที่จะใช้มันในทางที่ผิด เช่น การส่งเสริมบริษัทในประเทศ การคว่ำบาตรบริษัทต่างชาติ หรือการสอดแนมขโมยเทคโนโลยี
.
แต่จากนั้น Suleyman ก็ได้โต้แย้งกับตัวเองว่า กลไกการควบคุมต่างๆ ที่เขาเสนอมานี้ คงไม่เพียงพอที่จะจัดการความเสี่ยงทั้งหมดได้จริง เพราะคุณลักษณะบางอย่างของเทคโนโลยีนี้ทำให้พวกมันหลบหลีกการควบคุมง่ายเกินไป เช่น:
.
- ความเป็นอเนกประสงค์ (general-purpose) ทำให้ยากที่จะระบุว่าจะควบคุมอะไร ที่ไหน อย่างไร
.
- การวิวัฒนาการอย่างรวดเร็ว (rapid evolution) ทำให้กฎระเบียบตามไม่ทัน ตอนที่ออกมาบังคับใช้ เทคโนโลยีก็ล้ำหน้าไปไกลแล้ว
.
- ศักยภาพในการกระจายตัว (decentralization) ทำให้ยากที่จะกำกับดูแลได้อย่างครอบคลุม ใครก็ตามที่มีความรู้และอุปกรณ์เพียงพอก็สามารถพัฒนาต่อยอดได้ด้วยตนเอง โดยไม่ต้องพึ่งโครงสร้างส่วนกลางอีกต่อไป
.
ฉะนั้นในเชิงปรัชญา Suleyman จึงมองว่า การจำกัดควบคุมเทคโนโลยีเหล่านี้ให้ได้อย่างเบ็ดเสร็จสมบูรณ์แบบเป็นเพียงความฝันลมๆ แล้งๆ ที่เป็นจริงไม่ได้ มันเป็นปัญหาที่แก้ไขไม่ได้ด้วยวิธีการเดิมๆ จึงต้องอาศัยกระบวนทัศน์ใหม่ (new paradigm) ในการจัดการ
.
สิ่งที่ Suleyman เสนอก็คือ แทนที่จะมุ่งหวังที่จะ "จำกัดควบคุม" ซึ่งเท่ากับเป็นการต่อต้านกับธรรมชาติของเทคโนโลยีเหล่านี้ เราควรปรับเปลี่ยนมุมมองมาเป็นการ "ชี้นำและควบคุมทิศทาง" (steer & direct) ซึ่งสอดคล้องกับคุณสมบัติของมันมากกว่า
.
-------------------------
.
#ในทางปฏิบัติการชี้นำและควบคุมทิศทางของเทคโนโลยีนี้อาจทำได้โดย
.
1. การสร้างวิสัยทัศน์ร่วม (shared vision): ผู้มีส่วนได้ส่วนเสียทุกฝ่าย ทั้งรัฐบาล นักวิทยาศาสตร์ บริษัทเอกชน และประชาสังคม ต้องร่วมกันกำหนดเป้าหมายและทิศทางการพัฒนาในระยะยาว ว่าเราต้องการให้อนาคตเป็นแบบไหน และจะไปให้ถึงจุดนั้นได้อย่างไร ในกระบวนการนี้จะต้องมีการแลกเปลี่ยน ถกเถียง และประนีประนอมกันจนได้ข้อสรุปที่ยอมรับร่วมกันได้ เพื่อให้ทุกคนเดินไปในทิศทางเดียวกัน
.
2. การสร้างแรงจูงใจที่เหมาะสม (incentive alignment): การมีวิสัยทัศน์ที่ดีเพียงอย่างเดียวคงไม่พอ ถ้าผลประโยชน์ที่เป็นรูปธรรมไม่จูงใจให้ผู้เล่นต่างๆ ปฏิบัติตาม ดังนั้นต้องมีการปรับแรงจูงใจ เช่น การให้ทุนสนับสนุนการวิจัยในด้านที่สอดคล้องกับเป้าหมาย การออกกฎหมายจำกัดหรือเก็บภาษีกิจกรรมที่อาจเป็นอันตราย หรือการสร้างกลไกตลาดที่ส่งเสริมการพัฒนาอย่างรับผิดชอบ ทั้งนี้ก็เพื่อให้ตัวเลือกที่ดีต่อสังคมเป็นตัวเลือกที่ดีที่สุดของผู้เล่นแต่ละคนด้วยเช่นกัน
.
3. การออกแบบการกำกับดูแลแบบยืดหยุ่น (flexible governance): เป็นที่ทราบกันดีว่ากฎระเบียบมักตามเทคโนโลยีไม่ทัน ฉะนั้นแทนที่จะพยายามควบคุมด้วยกฎเกณฑ์ตายตัว อาจต้องปรับเปลี่ยนวิธีการไปเป็นการวางกรอบกว้างๆ ที่สามารถตีความและปรับใช้ได้หลากหลายตามบริบท รูปแบบของการกำกับดูแลอาจเปลี่ยนจากแบบบังคับและควบคุม (command-and-control) มาเป็นแบบร่วมมือและแบ่งปันความรับผิดชอบ (collaboration & shared responsibility) ระหว่างรัฐ เอกชน และภาคประชาสังคมมากขึ้น
.
4. การมีส่วนร่วมของประชาชน (public engagement): เนื่องจากผลกระทบของเทคโนโลยีเหล่านี้มีมากมายมหาศาล ประชาชนจึงควรมีส่วนร่วมในการกำหนดทิศทางการพัฒนาด้วยเช่นกัน ไม่ใช่ปล่อยให้เป็นเรื่องของผู้เชี่ยวชาญไม่กี่คน รัฐควรสร้างพื้นที่ให้ผู้คนได้เรียนรู้ แลกเปลี่ยน และแสดงความคิดเห็นเกี่ยวกับนโยบายด้านเทคโนโลยี ผ่านกระบวนการมีส่วนร่วม เช่น การทำประชาพิจารณ์ การทำประชามติ หรือการจัดตั้งสภาพลเมืองขึ้นมาพิจารณาประเด็นด้านจริยธรรม
.
5. การสร้างภูมิคุ้มกันและความยืดหยุ่น (resilience): ในเมื่อการควบคุมให้ได้หมดทุกความเสี่ยงนั้นเป็นไปไม่ได้ สิ่งที่พอจะทำได้ก็คือการเตรียมความพร้อมรับมือเมื่อมีเหตุไม่คาดฝัน ทั้งในระดับปัจเจกและระดับสังคม ตัวอย่างเช่น การสอนให้ประชาชนมีความรู้เท่าทันสื่อ (media literacy) เพื่อแยกแยะความจริงออกจาก deepfake ได้ การสร้างระบบสวัสดิการใหม่ที่ช่วยเหลือผู้ได้รับผลกระทบจากการเปลี่ยนผ่านด้านแรงงานและเศรษฐกิจ หรือการลงทุนโครงสร้างพื้นฐานที่จำเป็นเผื่อกรณีระบบอัตโนมัติล่มหรือถูกโจมตี เป็นต้น
.
Suleyman ยอมรับว่าสิ่งที่เสนอมาทั้งหมดนี้ไม่ใช่คำตอบสำเร็จรูปที่รับประกันว่าจะแก้ปัญหาได้หมด แต่เขาเชื่อว่ามันคือจุดเริ่มต้นที่ดีสำหรับการขบคิดและลงมือทำบางอย่าง เพื่อชะลอการมาถึงของหายนะ ก่อนที่มันจะสายเกินแก้ เขาเปรียบเปรยว่า การพยายามควบคุมทิศทางความก้าวหน้าทางเทคโนโลยีนี้เหมือนกับการ "สร้างรางรถไฟ" (building guardrails) ที่จะไม่ให้ขบวนรถไฟตกราง แต่ก็ไม่ได้ขวางกั้นการเดินทางของมันจนหยุดชะงัก
.
.
.
.
บทความโดย Pond Apiwat Atichat เจ้าของเพจ SuccessStrategies
.