ประการแรก GAI ไม่ได้ก่อให้เกิดความเสี่ยงใหม่ ๆ และปัญหาที่อาจเกิดขึ้นได้รับการกล่าวถึงและเรียกร้องโดยวงวิชาการมานานแล้ว ประการที่สอง ไม่จำเป็นต้องใช้วิธีใหม่ในการจัดการกับความเสี่ยงของ GAI กุญแจสำคัญในการจัดการกับความเสี่ยงของ AI คือการนำไปปฏิบัติอยู่เสมอ
เมื่อวันที่ 11 เมษายน สำนักงานข้อมูลอินเทอร์เน็ตแห่งสาธารณรัฐประชาชนจีนได้เผยแพร่ "มาตรการการจัดการบริการปัญญาประดิษฐ์เชิงสร้างสรรค์ (ฉบับร่างสำหรับความคิดเห็น)" ต่อสาธารณะ ซึ่งตอบสนองต่อการกำกับดูแล GAI ด้วยความเร็วที่ไม่เคยมีมาก่อน ซึ่งพิสูจน์ให้เห็นว่าการประยุกต์ใช้ GAI มีผลอย่างมากต่อสังคม ผลกระทบและต้องศึกษาอย่างรอบคอบและดำเนินการอย่างรอบคอบตอบสนองอย่างรวดเร็ว
01 ระวัง AI หลุดการควบคุม - "ความถูกต้องทางการเมือง" ในแวดวงเทคโนโลยีระดับโลก
ปัญหาด้านความปลอดภัยของข้อมูล กล่าวคือ GAI สร้างเนื้อหาการผลิตปัญญาประดิษฐ์จำนวนมากโดยอัตโนมัติ (AIGC, AI Generated Content) ซึ่งยากต่อการแยกแยะระหว่างความถูกต้องและความเท็จ ตำแหน่งที่น่าสงสัย ความเป็นเจ้าของที่ไม่ชัดเจน และความรับผิดชอบที่ยาก มันอาจจะ กระทั่งกลายเป็นเครื่องมืออันตรายต่อค่านิยมและอุดมการณ์กระแสหลัก
รัฐบาลของประเทศต่าง ๆ ให้ความสำคัญกับความเสี่ยงของ AI มาเป็นเวลานาน และได้กลายเป็นจุดสนใจของสังคมทั้งหมดในช่วงไม่กี่ปีที่ผ่านมา เห็นได้ชัดว่า ผลกระทบหลัก 3 ประการที่เกิดจาก GAI ที่กล่าวมาข้างต้นไม่ใช่ปัญหาใหม่ และพวกเขาได้รับความกังวลและศึกษาโดยวงวิชาการและรัฐบาลตั้งแต่ช่วงแรกที่ ChatGPT ระเบิด
ในช่วง 10 ปีที่ผ่านมา ตั้งแต่ Internet of Things ไปจนถึง Big Data, Cloud Computing, Blockchain, Metaverse, ChatGPT ท่ามกลางคลื่นของ AI ที่พุ่งสูงขึ้น ไม่เคยขาดเสียงที่จะให้ความสนใจกับความเสี่ยง
บางคนบอกว่า ChatGPT เป็นสัญญาณของการเกิดขึ้นของ super AI หากไม่หยุดตอนนี้ (หมายเหตุ: ไม่ใช่แค่การระงับ) เมื่อ "กล่องแพนโดร่า" ถูกเปิด มนุษย์จะถูกปกครองหรือสูญพันธุ์ในไม่ช้า โดยซุปเปอร์เอไอ เป็นเรื่องยากที่ผู้คนจะใช้ความคิดเพ้อฝันอย่างจริงจัง โดยเฉพาะอย่างยิ่ง มืออาชีพจำนวนมากไม่ทราบว่า ChatGPT เป็น AI ทั่วไป ไม่ต้องพูดถึงต้นแบบของ Super AI
Super AI อาจเป็นปัญหา แต่เมื่อต้องป้องกันการสูญพันธุ์ของมนุษย์เอง ความเสี่ยงหลายอย่าง เช่น สงครามนิวเคลียร์ การเปลี่ยนแปลงสภาพภูมิอากาศ การแพร่กระจายของไวรัสร้ายแรง เราหยุดพวกเขาทั้งหมดก่อนหรือไม่? แม้ว่าจะหยุดไม่ได้ แต่ก็ไม่เป็นไรที่จะหยุด อย่างน้อยก็เรียกให้หยุดชั่วคราวได้
02 การระงับการวิจัยและพัฒนา GAI ไม่สามารถรับรู้ได้ มันเป็น "ปากกระบอกปืน" ที่ไม่ถูกต้องอย่างแท้จริง
AI อาจนำไปสู่ความเสี่ยงทางสังคมต่าง ๆ วงวิชาการได้ชี้ให้เห็นมานานแล้วว่ามีการนำเสนอมาตรการตอบโต้ต่าง ๆ ด้วยเช่นกัน ดังนั้น คำถามในตอนนี้คือการใช้มาตรการกำกับดูแล AI ตามเงื่อนไขของประเทศ ไม่ใช่ระงับการวิจัยและพัฒนา AI ข้อเท็จจริงได้พิสูจน์แล้วว่าความคิดที่จะระงับการวิจัยและพัฒนาของ GAI นั้นเรียบง่ายและหยาบคายโดยมีผลเพียงเล็กน้อยและเป็นไปไม่ได้ที่จะรับรู้ มันเป็น "การพูดคุย" ที่ไม่ถูกต้องอย่างแท้จริง
ยกตัวอย่างปัญหาการว่างงานของ AI ปัญหาการว่างงานของ AI นั่นคือความก้าวหน้าของปัญญาประดิษฐ์มาพร้อมกับผู้คนจำนวนมากขึ้นเรื่อยๆ ที่ตกงาน เป็นปัญหาที่ใหญ่ที่สุดในผลกระทบทางสังคมของ AI และเกี่ยวข้องกับนวัตกรรมเชิงสถาบันที่ครอบคลุมของทั้งสังคม วรรณกรรมที่มีอยู่กล่าวถึงปัญหาการว่างงานของ AI ซึ่งสามารถอธิบายได้อย่างท่วมท้น และมีมาตรการรับมือเฉพาะหลายอย่าง เช่น การวางแผนอาชีพของนักเรียน การปรับปรุงความรู้ด้าน AI ของคนงาน ประกันสังคมและการจ้างงานใหม่ของผู้ว่างงาน การยกระดับและการเปลี่ยนแปลงของ โครงสร้างอุตสาหกรรม ฯลฯ
การวางแผนเชิงกลยุทธ์ระยะยาวก็น่าประทับใจเช่นกัน เช่น การลดชั่วโมงการทำงานของคนงานอย่างเป็นระบบ (บางแห่งพยายามทำงาน 4 วันต่อสัปดาห์อยู่แล้ว) การเก็บภาษี AI (AI คือการตกผลึกของปัญญามนุษย์ และบริษัท AI ถูกเก็บภาษีอย่างหนัก ให้ทุกคนใช้ร่วมกัน) ระบบการเกษียณอายุที่ยืดหยุ่น (คนงานสามารถเกษียณสั้น ๆ ได้หลายครั้งในช่วงชีวิตของพวกเขา) เป็นต้น
Musk เรียกร้องให้เลื่อนการเลื่อนการพัฒนา AI เป็น "พวยกา" หรือไม่?
ผู้เขียน: Liu Yongmou, ศาสตราจารย์แห่ง School of Philosophy, Renmin University of China, นักวิจัยของ National Academy of Development and Strategy
ในเดือนมีนาคม พ.ศ. 2566 ผู้เชี่ยวชาญหลายพันคนรวมถึง Elon Musk ได้ร่วมกันลงนามในจดหมายเปิดผนึกเพื่อเรียกร้องให้มีการระงับการฝึกอบรมแบบจำลองปัญญาประดิษฐ์ (AI) แบบติดตามผล GPT-4 เป็นเวลาอย่างน้อย 6 เดือน ทันทีที่ข่าวดังกล่าวเผยแพร่ออกไป เครือข่ายและสื่อทั่วโลกก็ระเบิด และในไม่ช้าก็ดึงดูดการต่อต้านจาก Wu Enda และ "ผู้เชี่ยวชาญด้าน AI" คนอื่นๆ ในท้ายที่สุด ไม่มีข้อมูลเพิ่มเติมเกี่ยวกับเรื่องนี้ และการระงับ GPT-4 นั้นถูกสงสัยว่าเป็นคลื่นแห่งการโฆษณาโดย OpenAI
ในเดือนเมษายน มีรายงานว่าอิตาลีจะแบน ChatGPT โดยสิ้นเชิง และผลที่ตามมาก็คือการปรับ
ในเดือนพฤษภาคม ประธานาธิบดี Biden ของสหรัฐฯ และรองประธานาธิบดี Harris ก็มาร่วมสนุกและจัดการประชุมกับ CEO ของบริษัทชั้นนำด้านปัญญาประดิษฐ์ Alphabet, Microsoft, OpenAI และ Anthropic ซึ่งเป็นบริษัทแม่ของ Google เพื่อกดดันให้บริษัทต่างๆ ดำเนินการ ปกป้องปัญญาประดิษฐ์ โดยกล่าวว่า สนับสนุนกฎระเบียบหรือกฎหมายใหม่เพื่อลดอันตรายที่อาจเกิดขึ้นจากเทคโนโลยี AI
ทุกอย่างดูเหมือนจะมาเร็ว ๆ นี้ ดูเหมือนว่าปัญญาประดิษฐ์เชิงกำเนิด (GAI, Generated AI) ซึ่งแสดงโดย ChatGPT, Midjourney และ DALL-E 2 ได้ก่อให้เกิดความเสี่ยงทางสังคมใหม่ ๆ และรุนแรงขึ้นทำให้การพัฒนาสังคมมนุษย์และการประยุกต์ใช้ เทคโนโลยี AI สถานการณ์โดยรวมมีการเปลี่ยนแปลงพื้นฐาน และจำเป็นต้องนำกลยุทธ์ มาตรการ และวิธีการใหม่ๆ มาใช้เพื่อจัดการกับมัน เช่น การระงับการวิจัยและพัฒนาเทคโนโลยี AI ใหม่โดยสิ้นเชิง
มันเป็นแบบนี้จริงๆเหรอ? เลขที่.
ประการแรก GAI ไม่ได้ก่อให้เกิดความเสี่ยงใหม่ ๆ และปัญหาที่อาจเกิดขึ้นได้รับการกล่าวถึงและเรียกร้องโดยวงวิชาการมานานแล้ว ประการที่สอง ไม่จำเป็นต้องใช้วิธีใหม่ในการจัดการกับความเสี่ยงของ GAI กุญแจสำคัญในการจัดการกับความเสี่ยงของ AI คือการนำไปปฏิบัติอยู่เสมอ
เมื่อวันที่ 11 เมษายน สำนักงานข้อมูลอินเทอร์เน็ตแห่งสาธารณรัฐประชาชนจีนได้เผยแพร่ "มาตรการการจัดการบริการปัญญาประดิษฐ์เชิงสร้างสรรค์ (ฉบับร่างสำหรับความคิดเห็น)" ต่อสาธารณะ ซึ่งตอบสนองต่อการกำกับดูแล GAI ด้วยความเร็วที่ไม่เคยมีมาก่อน ซึ่งพิสูจน์ให้เห็นว่าการประยุกต์ใช้ GAI มีผลอย่างมากต่อสังคม ผลกระทบและต้องศึกษาอย่างรอบคอบและดำเนินการอย่างรอบคอบตอบสนองอย่างรวดเร็ว
01 ระวัง AI หลุดการควบคุม - "ความถูกต้องทางการเมือง" ในแวดวงเทคโนโลยีระดับโลก
การว่างงาน กล่าวคืออาจนำไปสู่การว่างงานจำนวนมากของบุคลากรทางจิต เช่น นักวางแผนการเขียนคำโฆษณา ศิลปินต้นฉบับ นักออกแบบอุตสาหกรรม โปรแกรมเมอร์ ผู้ปฏิบัติงานด้านสื่อ และนักแปล
ปัญหาด้านการศึกษา กล่าวคือ อาจส่งผลกระทบต่อระบบการศึกษาและการวิจัยทางวิทยาศาสตร์ที่เป็นอยู่ เช่น นักเรียนสามารถใช้ ChatGPT แทนการทำการบ้านได้
ปัญหาด้านความปลอดภัยของข้อมูล กล่าวคือ GAI สร้างเนื้อหาการผลิตปัญญาประดิษฐ์จำนวนมากโดยอัตโนมัติ (AIGC, AI Generated Content) ซึ่งยากต่อการแยกแยะระหว่างความถูกต้องและความเท็จ ตำแหน่งที่น่าสงสัย ความเป็นเจ้าของที่ไม่ชัดเจน และความรับผิดชอบที่ยาก มันอาจจะ กระทั่งกลายเป็นเครื่องมืออันตรายต่อค่านิยมและอุดมการณ์กระแสหลัก
รัฐบาลของประเทศต่าง ๆ ให้ความสำคัญกับความเสี่ยงของ AI มาเป็นเวลานาน และได้กลายเป็นจุดสนใจของสังคมทั้งหมดในช่วงไม่กี่ปีที่ผ่านมา เห็นได้ชัดว่า ผลกระทบหลัก 3 ประการที่เกิดจาก GAI ที่กล่าวมาข้างต้นไม่ใช่ปัญหาใหม่ และพวกเขาได้รับความกังวลและศึกษาโดยวงวิชาการและรัฐบาลตั้งแต่ช่วงแรกที่ ChatGPT ระเบิด
ในช่วง 10 ปีที่ผ่านมา ตั้งแต่ Internet of Things ไปจนถึง Big Data, Cloud Computing, Blockchain, Metaverse, ChatGPT ท่ามกลางคลื่นของ AI ที่พุ่งสูงขึ้น ไม่เคยขาดเสียงที่จะให้ความสนใจกับความเสี่ยง
ฉันมีความกังวลอย่างมืออาชีพเกี่ยวกับผลกระทบทางสังคมของเทคโนโลยีใหม่ และฉันได้ใช้พลังงานไปมากในการเตือนทุกคนถึงความเสี่ยงทางเทคนิคที่ AI อาจก่อขึ้น ตัวอย่างเช่น เขาได้เขียนเอกสาร "ทฤษฎีทั่วไปของการกำกับดูแลเทคโนโลยี", "อินเทอร์เน็ตของสรรพสิ่งและการมาของสังคมที่แพร่หลาย", "ฉันไม่มียารักษาโรคสำหรับความเจ็บป่วยทางเทคโนโลยี", "กับดักเมตาเวิร์ส", "การบรรยายสิบสี่ครั้งเกี่ยวกับวิทยาศาสตร์และเทคโนโลยี และ สังคม" เตือนผู้ที่ไม่ใช่มืออาชีพของ ICT (ผลกระทบทางสังคมและความเสี่ยงทางเทคโนโลยีของเทคโนโลยีสารสนเทศและการสื่อสาร)
อาจกล่าวได้ว่าการระแวดระวังต่อการพัฒนา AI และป้องกันไม่ให้ AI หลุดออกจากการควบคุมกำลังกลายเป็น "ความถูกต้องทางการเมือง" ในวงการวิทยาศาสตร์และเทคโนโลยีทั่วโลก ภายใต้บรรยากาศเช่นนี้ เสียงที่ประกาศต่อสาธารณชนว่า "AI ไม่มีพื้นที่หวงห้าม" ถูกระงับลงอย่างมาก ในเรื่องนี้ ในฐานะนักทฤษฎีการคัดเลือกของการควบคุมทางเทคโนโลยี ฉันเห็นด้วยอย่างเต็มที่
เท่าที่เกี่ยวข้องกับสถานการณ์การพัฒนาในปัจจุบัน ChatGPT มีความเสี่ยงร้ายแรงใดบ้างที่ต้องจัดการด้วยวิธีที่ "หนักเกินไป" เช่น การระงับเป็นเวลาอย่างน้อยหกเดือน
บางคนบอกว่า ChatGPT เป็นสัญญาณของการเกิดขึ้นของ super AI หากไม่หยุดตอนนี้ (หมายเหตุ: ไม่ใช่แค่การระงับ) เมื่อ "กล่องแพนโดร่า" ถูกเปิด มนุษย์จะถูกปกครองหรือสูญพันธุ์ในไม่ช้า โดยซุปเปอร์เอไอ เป็นเรื่องยากที่ผู้คนจะใช้ความคิดเพ้อฝันอย่างจริงจัง โดยเฉพาะอย่างยิ่ง มืออาชีพจำนวนมากไม่ทราบว่า ChatGPT เป็น AI ทั่วไป ไม่ต้องพูดถึงต้นแบบของ Super AI
Super AI อาจเป็นปัญหา แต่เมื่อต้องป้องกันการสูญพันธุ์ของมนุษย์เอง ความเสี่ยงหลายอย่าง เช่น สงครามนิวเคลียร์ การเปลี่ยนแปลงสภาพภูมิอากาศ การแพร่กระจายของไวรัสร้ายแรง เราหยุดพวกเขาทั้งหมดก่อนหรือไม่? แม้ว่าจะหยุดไม่ได้ แต่ก็ไม่เป็นไรที่จะหยุด อย่างน้อยก็เรียกให้หยุดชั่วคราวได้
เนื่องจากไม่มีอะไรใหม่ จึงไม่จำเป็นต้องใช้แนวทางที่รุนแรงในการหยุดการพัฒนา ทำไม?
ประการแรก การระงับไม่ยุติธรรม บางคนกล่าวว่ามาตรการตอบสนองความเสี่ยงของ ChatGPT ยังไม่ได้รับการพิจารณาอย่างชัดเจน ดังนั้นจึงถูกระงับไว้ก่อน ผิด! ไม่ใช่ว่าฉันคิดไม่ชัดเจน แต่ฉันไม่ได้นำไปปฏิบัติ
ประการที่สอง การเลื่อนการชำระหนี้เป็นไปไม่ได้ที่จะบรรลุผลจริง และแน่นอนว่าจะมีบริษัท AI ที่จะละเมิดคำสั่งห้าม และผลที่ตามมาก็คือการแข่งขันที่ไม่ยุติธรรม
ประการที่สาม การระงับจะไม่ช่วยแก้ปัญหา แม้ว่าบริษัท AI ทั้งหมดจะระงับการวิจัย GAI จริง ๆ ปัญหาความเสี่ยงจะได้รับการแก้ไขหรือไม่? เลขที่! เว้นแต่ LLMs (Large Language Models, โมเดลภาษาขนาดใหญ่) จะถูกหยุดและถูกแบนโดยสิ้นเชิง ความเสี่ยงจะไม่หายไป เมื่อเริ่มต้นใหม่ คุณยังต้องเผชิญกับความเสี่ยงโดยตรง
ทุกวันนี้ เทคโนโลยีใหม่เป็นเครื่องมือที่สำคัญที่สุดสำหรับการอยู่รอดและการพัฒนาของมนุษย์ที่ไม่สามารถทิ้งไว้ข้างหลังได้ บทบาทของ GAI ในการส่งเสริมผลิตภาพทางสังคมได้รับการเปิดเผยอย่างชัดเจน ทำไมเราถึงต้องหยุดกินเพราะสำลัก และทำไมเราถึงใช้มันอย่างควบคุมไม่ได้?
ในศตวรรษที่ 20 บางคนเสนอว่าเทคโนโลยีในเวลานั้นเพียงพอแล้วสำหรับมนุษย์และการพัฒนาอย่างต่อเนื่องจะนำไปสู่ปัญหาใหม่ ๆ มากมาย ควรหยุดเทคโนโลยีและนักวิทยาศาสตร์ควรหยุดทำการวิจัย ความคิดที่ไร้เหตุผลอย่างยิ่งเช่นนี้ไม่เคยได้รับการพิจารณาอย่างจริงจังจากสังคม
02 การระงับการวิจัยและพัฒนา GAI ไม่สามารถรับรู้ได้ มันเป็น "ปากกระบอกปืน" ที่ไม่ถูกต้องอย่างแท้จริง
AI อาจนำไปสู่ความเสี่ยงทางสังคมต่าง ๆ วงวิชาการได้ชี้ให้เห็นมานานแล้วว่ามีการนำเสนอมาตรการตอบโต้ต่าง ๆ ด้วยเช่นกัน ดังนั้น คำถามในตอนนี้คือการใช้มาตรการกำกับดูแล AI ตามเงื่อนไขของประเทศ ไม่ใช่ระงับการวิจัยและพัฒนา AI ข้อเท็จจริงได้พิสูจน์แล้วว่าความคิดที่จะระงับการวิจัยและพัฒนาของ GAI นั้นเรียบง่ายและหยาบคายโดยมีผลเพียงเล็กน้อยและเป็นไปไม่ได้ที่จะรับรู้ มันเป็น "การพูดคุย" ที่ไม่ถูกต้องอย่างแท้จริง
ยกตัวอย่างปัญหาการว่างงานของ AI ปัญหาการว่างงานของ AI นั่นคือความก้าวหน้าของปัญญาประดิษฐ์มาพร้อมกับผู้คนจำนวนมากขึ้นเรื่อยๆ ที่ตกงาน เป็นปัญหาที่ใหญ่ที่สุดในผลกระทบทางสังคมของ AI และเกี่ยวข้องกับนวัตกรรมเชิงสถาบันที่ครอบคลุมของทั้งสังคม วรรณกรรมที่มีอยู่กล่าวถึงปัญหาการว่างงานของ AI ซึ่งสามารถอธิบายได้อย่างท่วมท้น และมีมาตรการรับมือเฉพาะหลายอย่าง เช่น การวางแผนอาชีพของนักเรียน การปรับปรุงความรู้ด้าน AI ของคนงาน ประกันสังคมและการจ้างงานใหม่ของผู้ว่างงาน การยกระดับและการเปลี่ยนแปลงของ โครงสร้างอุตสาหกรรม ฯลฯ
การวางแผนเชิงกลยุทธ์ระยะยาวก็น่าประทับใจเช่นกัน เช่น การลดชั่วโมงการทำงานของคนงานอย่างเป็นระบบ (บางแห่งพยายามทำงาน 4 วันต่อสัปดาห์อยู่แล้ว) การเก็บภาษี AI (AI คือการตกผลึกของปัญญามนุษย์ และบริษัท AI ถูกเก็บภาษีอย่างหนัก ให้ทุกคนใช้ร่วมกัน) ระบบการเกษียณอายุที่ยืดหยุ่น (คนงานสามารถเกษียณสั้น ๆ ได้หลายครั้งในช่วงชีวิตของพวกเขา) เป็นต้น
ผลกระทบที่ใหญ่ที่สุดของการประยุกต์ใช้ AI ต่อกิจกรรมการปกครองร่วมสมัยอยู่ที่: การขยายเสรีภาพทางเศรษฐกิจ การเพิ่มเวลาว่าง การเปลี่ยนแปลงข้อกำหนดเบื้องต้นอย่างมากสำหรับการปกครองภาครัฐ และด้วยเหตุนี้จึงเปลี่ยนรูปลักษณ์พื้นฐานของการดำเนินงานทางสังคม อย่างไรก็ตาม ผลกระทบนี้ยังหมายความว่า "ปัญหาการว่างงานของ AI" กำลังทวีความรุนแรงมากขึ้น ซึ่งเป็นความท้าทายที่ร้ายแรงต่อกิจกรรมการกำกับดูแลของทั้งสังคมและต้องได้รับการจัดการอย่างรอบคอบ การพัฒนาอุตสาหกรรมของ AIGC จะเป็นอีกครั้งที่พิสูจน์ให้เห็นถึงความร้ายแรงของปัญหาการว่างงานของ AI หากไม่มีการจัดการนโยบายโดยรวม ChatGPT จะนำไปสู่ "การว่างงานของ AI" จำนวนมากอย่างแน่นอน ซึ่งจะขัดขวางการใช้งาน ChatGPT ต่อไป
การแก้ปัญหา "ปัญหาการว่างงานของ AI" จะต้องพิจารณาทั้งมุมมองและความเป็นจริง
จากมุมมองระยะยาว การแก้ปัญหา "ปัญหาการว่างงานของ AI" เกี่ยวข้องกับการเปลี่ยนแปลงขั้นพื้นฐานในระบบสังคมมนุษย์ และไม่สามารถแก้ไขได้ด้วยการพัฒนาเทคโนโลยีอัจฉริยะและธรรมาภิบาลอัจฉริยะเท่านั้น ตามหลักการพื้นฐานของลัทธิมาร์กซ์ "ปัญหาการว่างงานของ AI" สะท้อนให้เห็นถึงความขัดแย้งระหว่างการพัฒนาผลผลิตทางวิทยาศาสตร์และเทคโนโลยีกับความสัมพันธ์ทางการผลิตที่มีอยู่ ความสามารถของหุ่นยนต์ในการแทนที่แรงงานมนุษย์ไม่ได้หมายความว่าหุ่นยนต์จะเข้ามาแทนที่แรงงานมนุษย์จริง ๆ เพราะการแทนที่ดังกล่าวหมายถึงการยกเลิกระบบการแสวงประโยชน์ที่คนไม่กี่คนบังคับให้คนส่วนใหญ่ทำงานผ่านการจัดการเชิงสถาบัน โดยพื้นฐานแล้ว เพื่อแก้ปัญหา "ปัญหาการว่างงานของ AI" เราต้องลดชั่วโมงการทำงานของแรงงานลงอย่างต่อเนื่อง ให้ผู้คนมีเวลาว่างมากขึ้น และท้ายที่สุดต้องกำจัดระบบการเอารัดเอาเปรียบให้หมดไป ประวัติศาสตร์แรงงานในศตวรรษที่ 20 แสดงให้เห็นว่าการประยุกต์ใช้เทคโนโลยีสมัยใหม่ในการผลิตอย่างต่อเนื่องเพื่อลดเวลาแรงงานทั้งหมดที่จำเป็นสำหรับสังคม และส่งเสริมการใช้ "ระบบงานแปดชั่วโมง" และ "ระบบวันหยุดสุดสัปดาห์" ในประเทศต่างๆ มากขึ้นเรื่อยๆ .
จากมุมมองของความเป็นจริงวิวัฒนาการของระบบสังคมนั้นใช้เวลานานและต้องก้าวหน้าอย่างค่อยเป็นค่อยไปและต้องรอการพัฒนาเทคโนโลยีอัจฉริยะอย่างต่อเนื่อง ดังนั้น ประเด็นเร่งด่วนที่สุดคือการหางานใหม่ สำหรับแรงงานที่ได้รับผลกระทบจากปัญญาประดิษฐ์ และรับประกันว่าพวกเขาจะเพลิดเพลินไปกับความมั่งคั่งทางวัตถุที่เกิดจากความก้าวหน้าทางเทคโนโลยี
ดังนั้น ในช่วงเริ่มต้นของการระบาดของอุตสาหกรรม AIGC ประเทศ รัฐบาล และสังคมควรทำการวิจัยเชิงลึก วางแผนโดยรวม และตอบสนองต่อแรงกดดันของการว่างงานและการจ้างงานที่อาจเกิดขึ้น
ตัวอย่างเช่น ปรับปรุงการประกันการว่างงานและให้บริการฝึกอบรมการจ้างงาน เสริมสร้างการวางแผนอาชีพและการพัฒนาคุณภาพเชิงสร้างสรรค์สำหรับเยาวชน ปรับทิศทางของความสามารถพิเศษในโรงเรียน โดยเฉพาะในด้านมนุษยศาสตร์ ศิลปะ และสาขาอื่นๆ และส่งเสริมการยกระดับอุตสาหกรรมอย่างไม่เหมาะสมเพื่อสร้างงานใหม่ กล่าวโดยย่อ เมื่อเผชิญกับความเสี่ยงในการว่างงานที่ AI อาจมาพร้อมกับเรา เราต้องละทิ้งความคิดสุดโต่งของอย่างใดอย่างหนึ่งหรืออย่างใดอย่างหนึ่ง พยายามหลีกเลี่ยง และปรับเปลี่ยนตามเวลาจริง
**03 AI ของจีนถูกควบคุมอย่างไร **
การสร้างจีนดิจิทัลเป็นกลไกสำคัญในการส่งเสริมความทันสมัยแบบจีนในยุคดิจิทัล และเป็นการสนับสนุนอย่างมากในการสร้างข้อได้เปรียบใหม่ในการแข่งขันระดับชาติ
ในการสร้างประเทศจีนดิจิทัล จำเป็นต้องส่งเสริมการกำกับดูแล AI แบบ "ที่มีผู้คนเป็นศูนย์กลาง" เพื่อให้ AI สามารถสร้างประโยชน์ให้กับสังคมได้อย่างแท้จริง เพื่อจุดประสงค์นี้ ก่อนอื่น เราต้องเรียกร้องให้ทั้งสังคมให้ความสนใจกับปัญหาความเสี่ยงของ AI รัฐบาล องค์กร องค์กรพัฒนาเอกชน แวดวงวิทยาศาสตร์และเทคโนโลยี และสาธารณะ ตามการแบ่งหน้าที่ความรับผิดชอบ ปรับปรุงนโยบายและมาตรการ เสริมสร้างการบูรณาการทรัพยากรและการประสานกำลังและจัดตั้งกองกำลังร่วมเพื่อควบคุมความเสี่ยงของ AI โปรแกรมกำลังดำเนินการอยู่จริง
นอกจากนี้ยังสามารถพิจารณาข้อเสนอแนะเชิงหลักการต่อไปนี้ในการกำกับดูแลความเสี่ยงของ AI:
ประการแรก ใช้หลักการของเครื่องมือที่จำกัด เราต้องมีความเข้าใจที่ชัดเจนเกี่ยวกับบทบาทของธรรมาภิบาลที่ชาญฉลาด - ธรรมาภิบาลที่ชาญฉลาดไม่ใช่ยาครอบจักรวาล "อาวุธที่สมบูรณ์แบบ" ในหลายกรณี มันจะ "ล้มเหลว" และแม้กระทั่งไปทางด้านตรงข้ามที่ขัดขวางประสิทธิภาพทางสังคม ดังนั้นจึงจำเป็นต้องตระหนักถึงบทบาทของเทคโนโลยีอัจฉริยะในการปรับปรุงประสิทธิภาพการกำกับดูแลในบางสาขา บางปัญหา และบางโอกาส และให้ความสำคัญกับการกำกับดูแลด้านเทคนิคในการแก้ปัญหา โดยคำนึงถึงบทบาทที่จำกัดของเทคโนโลยีอัจฉริยะอยู่เสมอ . ปฏิบัติตามความพอประมาณของวิทยาศาสตร์และเทคโนโลยี ตื่นตัวกับ "ความเชื่อทางไสยศาสตร์ข้อมูลขนาดใหญ่" รับทัศนคติการทบทวนบริบทเฉพาะและการวิเคราะห์เฉพาะ และให้ความสนใจกับผลตอบรับที่เกิดขึ้นจริงและการควบคุมความเสี่ยงของกิจกรรมการกำกับดูแล
ประการที่สอง ยืนหยัดในการเน้นการใช้ประโยชน์และการควบคุมอย่างเท่าเทียมกัน จำเป็นต้องมีบทบาทของการกำกับดูแลที่ชาญฉลาด แต่ยังต้องควบคุมการกำกับดูแลที่ชาญฉลาดโดยเฉพาะเพื่อป้องกันไม่ให้พลังของแพลตฟอร์มอัจฉริยะและผู้เชี่ยวชาญด้านการกำกับดูแลทางเทคนิคหลุดออกจากการควบคุม ในขณะเดียวกัน ควรใช้วิธีการทางเทคนิคเชิงสถาบันเพื่อหลีกเลี่ยงความเสี่ยงทางสังคมที่อาจเกิดจากการกำกับดูแลที่ชาญฉลาด
ประการที่สาม จัดการกับ "ปัญหาการว่างงานของ AI" อย่างเหมาะสม ผลกระทบที่ยิ่งใหญ่ที่สุดของการประยุกต์ใช้เทคโนโลยีอัจฉริยะต่อกิจกรรมการปกครองร่วมสมัยอยู่ที่: การขยายเสรีภาพทางเศรษฐกิจ การเพิ่มเวลาว่าง การเปลี่ยนแปลงข้อกำหนดเบื้องต้นอย่างมากสำหรับการปกครองภาครัฐ และด้วยเหตุนี้จึงเปลี่ยนรูปลักษณ์พื้นฐานของการดำเนินการทางสังคม อย่างไรก็ตาม ผลกระทบนี้ยังหมายความว่า "ปัญหาการว่างงานของ AI" กำลังทวีความรุนแรงมากขึ้น ซึ่งก่อให้เกิดความท้าทายอย่างร้ายแรงต่อกิจกรรมการกำกับดูแลของทั้งสังคม ดึงดูดความสนใจของทั้งสังคม และต้องจัดการอย่างรอบคอบ
ประการที่สี่ บูรณาการการก่อสร้าง "เมืองอัจฉริยะ" และ "หมู่บ้านดิจิทัล" อย่างใกล้ชิด การบริหารเมืองตามหลักวิทยาศาสตร์เป็นมาตรการเชิงกลยุทธ์ที่สำคัญสำหรับการกำกับดูแลเทคโนโลยีร่วมสมัย และเมืองอัจฉริยะก็เป็นรูปแบบขั้นสูงของเมืองวิทยาศาสตร์ เนื่องจากปัจจุบันมนุษย์ส่วนใหญ่อาศัยอยู่ในเมือง โดยเฉพาะเมืองขนาดใหญ่และขนาดใหญ่พิเศษ การปกครองแบบอัจฉริยะในปัจจุบันจึงได้รับการส่งเสริมโดยเน้นที่การสร้าง "เมืองอัจฉริยะ" หรือการสร้าง "เมืองอัจฉริยะ" เป็นพาหะหลัก โดยเฉพาะอย่างยิ่ง การสร้างเมืองดิจิทัลในจีนจะละเลยการสร้างหมู่บ้านดิจิทัลไม่ได้ และต้องพยายามลดช่องว่างระหว่างเขตเมืองและชนบทผ่านการแปลงเป็นดิจิทัล
ประการที่ห้า ให้ความสำคัญกับการผสมผสานระหว่างเทคโนโลยีอัจฉริยะและผู้คน ในกิจกรรมการกำกับดูแลเทคโนโลยี ยิ่งการผสมผสานระหว่างเทคโนโลยีและบุคลากรดีเท่าใด ประสิทธิภาพการกำกับดูแลก็จะยิ่งสูงขึ้นเท่านั้น เพื่อเสริมสร้างการบูรณาการของมนุษย์และปัจจัยทางเทคนิคในกิจกรรมการกำกับดูแลที่ชาญฉลาด จำเป็นต้องพิจารณาอย่างเป็นระบบเกี่ยวกับคุณลักษณะของเทคโนโลยีอัจฉริยะต่างๆ และจริยธรรมที่เกี่ยวข้อง กฎหมาย จิตวิทยา การจัดการวิกฤต ฯลฯ เพื่อส่งเสริมการสร้างระบบ การวิจัยและพัฒนาเทคโนโลยี และกำลังสำรองผู้มีความสามารถและเพื่อเสริมสร้างความเป็นผู้นำขององค์กร , การให้คำปรึกษาจากผู้เชี่ยวชาญและการฝึกซ้อมรบจริงและปรับปรุงความสามารถในการกำกับดูแลที่ชาญฉลาดของจีนอย่างต่อเนื่องและเป็นระบบ
ประการที่หก แยกแยะการปกครองออกจากการบิดเบือนในบริบทเฉพาะ ธรรมาภิบาลที่ชาญฉลาดมีขีดจำกัด และหากเกินขีดจำกัด ก็จะกลายเป็นการบิดเบือนอย่างชาญฉลาดและละเมิดสิทธิขั้นพื้นฐานของพลเมือง การพัฒนาธรรมาภิบาลอัจฉริยะในอนาคตต้องพิจารณาถึงขีดจำกัดของการใช้งานต่างๆ โดยเฉพาะ ซึ่งไม่เพียงแต่เกี่ยวข้องกับเป้าหมายการกำกับดูแลเท่านั้น แต่ยังรวมถึงวิธีการที่ใช้ด้วย สามารถตรวจสอบอย่างใจเย็น เป็นกลาง และระมัดระวังในบริบททางสังคมที่เฉพาะเจาะจงเท่านั้น เพื่อป้องกันไม่ให้การกำกับดูแลที่ชาญฉลาดเคลื่อนไปสู่การจัดการที่ชาญฉลาด ประเด็นที่สำคัญมากคือพฤติกรรมต่อต้านการกำกับดูแลที่ชาญฉลาดต้องได้รับการยอมรับในระดับหนึ่ง