เมื่อวันที่ 7 พฤษภาคม 2566 เวลา 11.00 น. ตามเวลาปักกิ่ง GPT DAO ได้จัดกิจกรรม Twitter Space ในหัวข้อ “ผู้เชี่ยวชาญ AI วิเคราะห์อดีตและอนาคตของ AGI” โดยเชิญผู้เชี่ยวชาญชั้นนำในวงการ AI มาร่วมวิเคราะห์เทคโนโลยีปัญญาประดิษฐ์ทั่วไป (AGI) อย่างเจาะลึก ตั้งแต่พื้นฐานไปจนถึงความก้าวหน้าล่าสุด พร้อมแลกเปลี่ยนมุมมองเกี่ยวกับผลกระทบของ AI ต่อชีวิตประจำวันและทิศทางในอนาคต
นอกจากนี้ ยังมีคณะผู้สังเกตการณ์จากสื่อมวลชน ได้แก่ GPT DAO, ChainDD, Feixiaohao และ BroadChain Finance มาร่วมพูดคุยถึงผลกระทบของเทคโนโลยี AI ต่ออนาคต รวมถึงความท้าทายต่างๆ ที่กำลังเกิดขึ้น

รายชื่อผู้ร่วมงาน Twitter Space:
แขกรับเชิญ:
หยาง หนิง: นักลงทุน Angel Investor, ผู้ร่วมก่อตั้ง Lebo Capital, ประธานกิตติมศักดิ์ผู้ก่อตั้งสมาคมนักลงทุน Angel แห่งประเทศจีน
เฉิน กุ้ย: อดีตรองประธานบริหารระดับโลกของ Citrix, อดีตผู้บริหารฝ่ายวิจัยและพัฒนาภูมิภาคเอเชียแปซิฟิกของ Microsoft, อดีตผู้บริหารระดับสูงของ Cisco และ Computer Associates
ไป๋ เชียง: สมาชิกหลักของ GPT DAO, ผู้ประกอบการและนักลงทุนที่คลุกคลีในแวดวงตั้งแต่ยุค Web1 ถึง Web3, จ���การศึกษาด้านคณิตศาสตร์จากมหาวิทยาลัยวิทยาศาสตร์และเทคโนโลยีแห่งประเทศจีน (USTC) และด้านสถิติคณิตศาสตร์จากมหาวิทยาลัยเพอร์ดู สหรัฐอเมริกา, อดีตหัวหน้าทีมร่วมของ iFLYTEK
ผู้ดำเนินรายการ (Host):
โซอี้: สมาชิกหลักของ GPT DAO, หัวหน้า Sub DAO ที่สิงคโปร์, Venture Partner ของ LK Ventures
คณะผู้สังเกตการณ์สื่อมวลชน:
ไฉ จี้จุน (ผู้ร่วมดำเนินรายการ): สมาชิกหลัก, ผู้ร่วมก่อตั้ง Fast Global
เตาเอ๋อร์จี: รองบรรณาธิการบริหารเขตหัวตง ของ ChainDD
ซุน เหยียน: บรรณาธิการบริหารของ Feixiaohao
หวัง ฮุ่ย: ผู้ก่อตั้ง BroadChain Finance, ผู้ริเริ่มโครงการ 1783DAO
สื่อสนับสนุน:
Ti Media, ChainDD, Feixiaohao, Foresight News, BroadChain Finance
เราได้สรุปประเด็นสำคัญจากการพูดคุยในครั้งนี้มาให้อ่านกัน
คำถามที่ 1: เมื่อเร็วๆ นี้ เจฟฟรีย์ ฮินตัน (Geoffrey Hinton) ผู้อำนวยการฝ่ายวิจัย AI ของ Google และผู้บุกเบิกด้านเครือข่ายประสาทเทียม ได้ประกาศลาออกอย่างกะทันหันในวันที่ 1 พฤษภาคม โดยให้เหตุผลว่าเป็นห่วงเรื่องเทคโนโลยี Generative AI เขากังวลว่าระบบ AI กำลังเป็นอ���นตรายมากขึ้นเรื่อยๆ หากไม่มีการควบคุม การแข่งขันด้าน AI จะไม่มีที่สิ้นสุด และพัฒนาการของ AI จะก้าวหน้าเร็วกว่าที่เราคิดมาก จนอาจนำไปสู่การสูญเสียการควบคุมในที่สุด คุณมีความเห็นอย่างไรต่อประเด็นนี้?
หยาง หนิง:
ในมุมมองเชิงปรัชญา มนุษย์มีพื้นฐานที่ดีโดยธรรมชาติ คุณค่าและธรรมชาติภายในของมนุษย์ทำให้เราสามารถขยายเผ่าพันธุ์และพัฒนาจนกลายเป็นสิ่งมีชีวิตที่ก้าวหน้าที่สุดบนโลก ข้อมูลและความรู้ที่ใช้ฝึกสอนหุ่นยนต์และระบบ AI ล้วนมาจากมนุษย์ ดังนั้น ผมเชื่อว่า AI กำลังพัฒนาจากพื้นฐานที่ดีนี้ หากบริษัทใหญ่ๆ ผู้สร้างเนื้อหาหลัก และผู้เชี่ยวชาญ AI เป็นคนดี AI ที่ถูกฝึกมาก็จะดีตามไปด้วย เหมือนลูกหลานของเราที่จะทำตามสิ่งดีๆ ที่เราสอน ดังนั้น ผมจึงคิดว่า AI จะไม่หลุดจากการควบคุม และไม่จำเป็นต้องมีกรอบกำกับดูแลหรือจริยธรรมที่เข้มงวดเกินไป
ผู้ดำเนินรายการ โซอี้:
จากแนวคิดที่ว่า “มนุษย์มีพื้นฐานที่ดี” และในเมื่อเครือข่ายประสาทเทียมของ AI ยังไม่สามารถวิเคราะห์ด้วยตรรกะที่ชัดเจนได้ทั้งหมด ท่านอื่นๆ มีความเห็นเพิ่มเติมไหมว่า เราจะรับประกันด้วยมาตรการทางเทคนิคอย่างไร เพื่อป้องกันไม่ให้ AI ก่อความชั่วร้าย และควรมีแนวทางการกำกับดูแลแบบไหนเพื่อตอบสนองต่อการพัฒนาของ AI?
ไป๋ เชียง:
ก่อนอื่น ทฤษฎีความกลัวที่เอลอน มัสก์ ปล่อยออกมานั้นมีแรงจูงใจส่วนตัว ส่วนโจ ไบเดน ก็ใช้ประเด็นนี้เป็นเครื่องมือทางการเมืองเช่นกัน ผู้ที่พูดถึงจริยธรรมและการกำกับดูแล AI คนอื่นๆ ก็มีเป้าหมายเพื่อปกป้องผลประโยชน์ของตัวเองเช่นกัน เมื่อหลายปีก่อน ตอนที่เราพัฒนาเครื่องมือแปลงเสียงเป็นข้อความด้วย AI ที่ iFLYTEK ประเด็นเรื่องการกำกับดูแล AI ก็เป็นเพียงการต่อยอดจากกระแสความนิยมของเทคโนโลยี AI ที่ถูกปลูกฝังมานานแล้ว ไม่ใช่เรื่องใหม่แต่อย่างใด เนื่องจากแม้แต่มนุษย์ยังไม่เข้าใจการทำงานของสมองตัวเองทั้งหมด การจะเข้าใจเครือข่ายประสาทเทียมของ AI จึงยากยิ่งกว่า ดังนั้น คำถามที่ว่า AI จะชั่วร้ายหรือไม่ จึงไม่สามารถพิสูจน์ได้ทั้งทางบวกและลบ ในแง่การกำกับดูแล หน่วยงานกำกับมักตามหลังนักวิทยาศาสตร์และนักนวัตกรรมผู้มีความสามารถเสมอ จึงมักเกิดสถานการณ์ที่ “ควบคุมมากไปก็ตาย ไม่ควบคุมเลยก็วุ่น”
หยาง หนิง:
ถ้าผมต้องทำหน้าที่เป็นผู้กำกับดูแล ผมคงรู้สึกว่ามันเป็นความท้าทายใหญ่และไม่รู้จะเริ่มตรงไหน—จะควบคุมที่ระดับโค้ดหรือระดับการใช้งาน? ความรู้สึกต่อต้าน AI นี้คล้ายกับกระแสต่อต้านวัคซีนในสหรัฐฯ เมื่อไม่นานมานี้ ถ้าแม้แต่มนุษย์ยังไม่เข้าใจสมองตัวเองทั้งหมด เราก็ประเมินไม่ได้ว่าสมองมนุษย์จะกลายเป็นโรคจิตหรือโรคประสาทเมื่อไหร่ ดังนั้น การกลัว AI โดยไม่มีเหตุผลจึงไม่จำเป็น ผมเชื่อว่าเมื่อคนเริ่มคุ้นเคยกับความสะดวกสบายที่ AI มอบให้มากขึ้น พวกเขาก็จะยอมรับ AI มากขึ้น และสามารถอยู่ร่วมกับ AI ได้อย่างกลมกลืน
เฉิน กุ้ย:
แนวโน้มนี้เกิดขึ้นแล้วและย้อนกลับไม่ได้ สิ่งสำคัญคือเราต้องมี “จิตสำนึกต่อวิกฤต” เพราะเมื่อความสามารถของ AI เพิ่มขึ้น เราไม่มีทางรู้ได้ว่ามันจะหลุดจากการควบคุมเมื่อไหร่ หรือแม้แต่ก่ออันตรายต่อมนุษย์โดยไม่มีการเตือนล่วงหน้า ก่อนที่เราจะแก้ปัญหาการกำกับดูแลได้ เราต้องยอมรับและทำความเข้าใจ AI ก่อน พร้อมมองเห็นโอกาสที่มันนำมา ดังนั้น ผมแนะนำให้เราเน้นไปที่การสำรวจว่า AI จะสร้างโอกาสอะไรให้เราได้บ้าง และในอนาคต เราจะใช้โอกาสเหล่านั้นยกระดับคุณภาพชีวิตของเราได้อย่างไร
คำถามที่ 2: Midjourney เป็นเครื่องมือสร้างภาพ AIGC ที่ได้รับความนิยมมากที่สุดในตอนนี้ เมื่อเทียบกับคู่แข่ง ข้อได้เปรียบทางเทคโนโลยีของ Midjourney คืออะไร? และแนวโน้มของเครื่องมือสร้างภาพ AIGC ในอนาคตจะเป็นอย่างไร?
ไป๋ เชียง:
แม้เทคโนโลยีการสร้างภาพด้วย AI ในปัจจุบันจะแตกต่างกันไป ไม่ว่าจะเป็น Midjourney หรือเครื่องมือ AIGC อื่นๆ ความสำเร็จที่แท้จริงของแต่ละเครื่องมือขึ้นอยู่กับความสามารถในการใช้มันสร้างสรรค์เนื้อหาที่น่าสนใจและดึงดูดผู้ชม ตัวอย่างที่น่าสนใจคือ Pixar Animation Studios ซึ่งเริ่มต้นจากสตูดิโอที่จอร์จ ลูคัส ก่อตั้งขึ้น ก่อนจะถูกสตีฟ จ็อบส์ ซื้อต่อ จ็อบส์พยายามกำหนดทิศทางบริษัทให้เป็นผู้ผลิตฮาร์ดแวร์แต่ล้มเหลว จึงเปลี่ยนมาเน้นซอฟต์แวร์แทน ระหว่างนั้น จอห์น ลาเซเทอร์ (John Lasseter) เข้าร่วมทีม Pixar และด้วยความสามารถพิเศษด้านการสร้างสรรค์เนื้อหา ทำให้เขาสามารถผลิตภาพยนตร์แอนิเมชันสั้นด้วยคอมพิวเตอร์ที่ได้รับรางวัลออสการ์ ความสำเร็จนี้ทำให้จ็อบส์ทบทวนทิศทางบริษัทใหม่ และในที่สุดก็ร่วมม��อกับดิสนีย์ผลิตภาพยนตร์แอนิเมชันชื่อดังอย่าง “Toy Story” ทำให้ Pixar ก้าวขึ้นเป็นบริษัทแอนิเมชันชั้นนำของโลก
เช่นเดียวกับที่ Pixar ประสบความสำเร็จจากความสามารถพิเศษด้านเนื้อหาของจอห์น ลาเซเทอร์ จนเปลี่ยนจากบริษัทฮาร์ดแวร์และซอฟต์แวร์ที่กำลังเผชิญวิกฤต เป็นบริษัทแอนิเมชันชั้นนำ ทุกทีมหรือเครื่องมือที่พัฒนาภาพด้วย AI ในปัจจุบันก็ต้องหา “จุดเปลี่ยน” ที่คล้ายกันนี้ หากบริษัทใดสามารถก้าวขึ้นเป็น “Pixar แห่งยุค AI” ได้ ก็จะประสบความสำเร็จอย่างแน่นอน ในขณะที่บริษัทที่เน้นเพียงการเป็น “ผู้ผลิตเครื่องมือ” อาจถูกแทนที่ในที่สุด
ผู้ดำเนินรายการ โซอี้: ทีมงาน Midjourney มีเพียง 11 คน แต่มีรายได้ต่อปีเกิน 100 ล้านดอลลาร์สหรัฐ และมีผู้ใช้ในชุมชนสูงถึง 15 ล้านคน ด้วยพัฒนาการของ AI ที่รวดเร็ว ผมอยากสัมภาษณ์คุณเฉิน กุ้ย โดยเฉพาะในฐานะผู้ที่เคยดำรงตำแหน่งสำคัญในบริษัทเทคโนโลยีขนาดใหญ่ ท่านคิดว่าการพัฒนาของ AI จะส่งผลต่อรูปแบบองค์กรและทรัพยากรมนุษย์ของบริษัทในอนาคตอย่างไร?
เฉิน กุ้ย:
ผมมองว่า การเปลี่ยนแปลงขององค์กรและบุคลากร รวมถึงการเปลี่ยนผ่านของอุตสาหกรรม เป็นประเด็นสำคัญในปัจจุบัน ก่อนจะพูดถึงเรื่องนี้ ขอเริ่มต้นด้วยการอธิบายพื้นฐานสั้นๆ เกี่ยวกับ “รูปแบบวิวัฒนาการสามส่วน” ที่ลู่ ฉี (Lu Qi) เคยกล่าวไว้ในงานบรรยายหนึ่ง โดยรูปแบบนี้ประกอบด้วยระบบสารสนเทศ (Information System) ระบบโมเดล (Model System) และระบบปฏิบัติการ (Action System) ทั้งสามระบบนี้พึ่งพาอาศัยกันในกระบวนการพัฒนา AI และร่วมกันขับเคลื่อนความก้าวหน้าทางเทคโนโลยี
1. ระบบสารสนเทศ: ระบบนี้เป็นโครงสร้างพื้นฐานด้านข้อมูล ทำหน้าที่รวบรวม จัดเก็บ และประมวลผลข้อมูลปริมาณมหาศาล ด้วยการแพร่หลายของอินเทอร์เน็ตและ IoT ระบบสารสนเทศจึงมีขนาดใหญ่และซับซ้อนขึ้นเรื่อยๆ เป็นแหล่งข้อมูลอันอุดมสมบูรณ์ให้กับอัลกอริธึม Machine Learning และ AI ทำให้อัลกอริธึมเหล่านี้สามารถเรียนรู้และสกัดสาระสำคัญจากข้อมูลได้
2. ระบบโมเดล: ระบบนี้คือเครื่องมือวิเคราะห์และคาดการณ์ที่อาศัยข้อมูลเป็นฐาน เช่น อัลกอริธึม Machine Learning และโมเดล AI ระบบโมเดลใช้ข้อมูลจากระบบสารสนเทศมาฝึกฝนและปรับแต่ง จนสามารถเรียนรู้รูปแบบและกฎเกณฑ์ที่ซ่อนอยู่ในข้อมูลได้ ด้วยพลังการประมวลผลที่เพิ่มขึ้นและการพัฒนาของอัลกอริธึม ระบบโมเดลจึงจัดการกับปัญหาซับซ้อนได้อย่างมีประสิทธิภาพมากขึ้น ไม่ว่าจะเป็นการจดจำภาพ การประมวลผลภาษาธรรมชาติ (NLP) หรือ���ะบบแนะนำ (Recommendation Systems)
3. ระบบปฏิบัติการ: ระบบนี้คือส่วนที่แปลงผลลัพธ์จากการวิเคราะห์และคาดการณ์ของระบบโมเดลไปเป็นการกระทำจริง มักประกอบด้วยอุปกรณ์ฮาร์ดแวร์ เช่น หุ่นยนต์ รถยนต์ไร้คนขับ และอุปกรณ์สมาร์ทโฮม ระบบปฏิบัติการทำหน้าที่เปลี่ยนเอาต์พุตจากโมเดลให้เป็นการดำเนินการที่เป็นประโยชน์ ส่งผลให้การประยุกต์ใช้ AI ในโลกจริงเกิดขึ้นได้
รูปแบบวิวัฒนาการสามส่วนนี้ชี้ให้เห็นถึงความเชื่อมโยงอย่างลึกซึ้งระหว่างระบบสารสนเทศ ระบบโมเดล และระบบปฏิบัติการ ซึ่งเป็นแรงขับเคลื่อนหลัก behind การพัฒนา AI และมีบทบาทสำคัญในการสร้างนวัตกรรมและการประยุกต์ใช้จริง การบูรณาการทั้งสามระบบอย่างมีประสิทธิภาพจะช่วยให้เราเข้าใจและรับมือกับปัญหาซับซ้อนของโลกได้ดีขึ้น
ปัจจุบันเรายังอยู่ในยุคของระบบสารสนเทศ แต่เมื่อความสามารถในการให้เหตุผล (reasoning) และการวางแผน (planning) ของระบบโมเดลพัฒนาขึ้น เราจะสามารถโต้ตอบกับสภาพแวดล้อมเพื่อบรรลุเป้าหมายของมนุษย์ได้ ในยุคดิจิทัล กระบวนการรับรู้ข้อมูล การสื่อสาร และการลงมือทำเพื่อตอบสนองความต้องการของมนุษย์ มีลักษณะคล้ายคลึงกับระบบดิจิทัล เทคโนโลยี Deep Learning และคลาวด์คอมพิวติ้งได้ลดช่องว่างด้านต้นทุนและเทคโนโลยีระหว่างบริษัทใหญ่กับ SMEs ลงแล้ว สิ่งที่เหลือเป็นจุดแข็งในการแข่งขันคือ บุคลากร แนวคิดสร้างสรรค์ และความสามารถในการปฏิบัติงาน (execution) นอกจากนี้ ความร่วมมือระหว่างบริษัทใหญ่กับ SMEs ยังส่งผลดีต่อตลาดอีกด้วย ดังนั้น ผมคาดการณ์ว่า บริการคลาวด์คอมพิวติ้งและโมเดล AI ขนาดใหญ่จะกลายเป็นบริการพื้นฐานทั่วไป ซึ่งจะเปิดโอกาสทางการตลาดอันยิ่งใหญ่ให้กับสตาร์ทอัพที่มีนวัตกรรม สิ่งนี้จะกระตุ้นให้เยาวชนจำนวนมากหันมาตั้งบริษัทและมุ่งเน้นการนำเทคโนโลยีโอเพนซอร์สไปใช้จริงในตลาด ผมมองอนาคตด้วยความหวัง เพราะมนุษย์กับ AI จะอยู่ร่วมกันไปอีกยาวนาน ในช่วงเวลานั้น เราจำเป็นต้องเรียนรู้วิธีสื่อสารและทำงานร่วมกับ AI อย่างมีประสิทธิภาพ อนาคต หลายอาชีพอาจเกี่ยวข้องกับ AI ทั้งหมด แม้งานบางตำแหน่งที่มีหน้าที่ตายตัวอาจหายไป แต่ก็จะมีอาชีพใหม่ๆ เกิดขึ้นมาแทนที่โดยอัตโนมัติ โดยสรุป ผมมีมุมมองในแง่บวกและมองโลกในแง่ดีต่อการเปลี่ยนแปลงของอุตสาหกรรมและวิวัฒนาการของอาชีพในอนาคต
คำถาม Q3: ขอบคุณแขกรับเชิญทุกท่านสำหรับการแบ่งปันในวันนี้ ตอนเริ่มการสัมมนา เราได้พูดถึงประเด็นการกำกับดูแล AI (AI Regulation) ตรงนี้ ขอยกคำพูดของจอร์จ โซรอส (George Soros) มาอ้างอิงว่า “Innovation (นวัตกรรม) มักวิ่งนำหน้า Regulation (การกำกับดูแล) เสมอ” ไม่ว่าจะเป็นนวัตกรรมทางการเงินที่นำไปสู่วิกฤตการเงินครั้งใหญ่ นวัตกรรม Web 3.0 หรือนวัตกรรม AI การพัฒนา AI อย่างรวดเร็วทำให้หลายคนเริ่มกังวลว่างานของตนอาจถูกแทนที่ด้วย AI ซึ่งเราได้พูดคุยกันไปแล้วก่อนหน้านี้เกี่ยวกับทีม Midjourney ที่มีเพียง 11 คน และรูปแบบองค์กรใหม่ๆ ที่เกิดขึ้น หัวข้อหลักของวันนี้คือ “AGI: อดีต ปัจจุบัน และอนาคต” ดังนั้น ขอเชิญชวนทุกท่านร่วมพูดคุยอย่างอิสระเกี่ยวกับประสบการณ์ที่ผ่านมา และจินตนาการถึงอดีต ปัจจุบัน และอนาคตของ AI
หยาง หนิง:
ตั้งแต่กลางศตวรรษที่ 20 เมื่อแอลัน ทัวริง (Alan Turing) เสนอ “การทดสอบทัวริง (Turing Test)” ซึ่งวางรากฐานวิทยาการคอมพิวเตอร์ มนุษย์ก็เริ่มตระหนักถึงความแตกต่างอย่างลึกซึ้งระหว่าง AI กับคอมพิวเตอร์แบบดั้งเดิม การพัฒนา AI ผ่านช่วงเวลามาหลายยุคสมัย ผ่านการวิวัฒนาการของวิธีการต่างๆ เช่น Neural Networks, Deep Learning และ Reinforcement Learning Neural Networks เลียนแบบโครงสร้างสมองมนุษย์ ทำให้ความสามารถในการประมวลผลและเรียนรู้จากข้อมูลเพิ่มขึ้นอย่างมาก วิธีนี้ประสบความสำเร็จอย่างโดดเด่นในหลายสาขา เช่น การจดจำภาพ การรู้จำเสียงพูด และการประมวลผลภาษาธรรมชาติ
ต่อมา Deep Learning ซึ่งเป็นสาขาหนึ่งของ Neural Networks ได้ใช้เครือข่ายที่มีความลึกมากขึ้นเพื่อจัดการกับข้อมูลเชิงตัวเลขที่ซับซ้อน จึงกลายเป็นหัวข้อร้อนในวงการวิจัย AI ส่วน Reinforcement Learning เป็นวิธีการเรียนรู้แบบลองผิดลองถูก ทำให้ AI สามารถโต้ตอบกับสภาพแวดล้อมและเรียนรู้เพื่อตัดสินใจอย่างเหมาะสมที่สุด วิธีนี้แสดงผลลัพธ์อันน่าทึ่งในแวดวงเกม เช่น AlphaGo ของ DeepMind ที่เอาชนะแชมป์โลกหมากล้อม แสดงให้เห็นศักยภาพอันยิ่งใหญ่ของ AI ด้านการตัดสินใจและวางกลยุทธ์ ปัจจุบัน AGI กลายเป็นเป้าหมายหลักของการวิจัย โดยมุ่งสร้างเครื่องจักรที่มีระดับสติปัญญาเทียบเท่ามนุษย์ สามารถโต้ตอบกับมนุษย์ได้อย่างเป็นธรรมชาติในสถานการณ์ต่างๆ ในเวลาเดียวกัน โมเดลภาษาขนาดใหญ่ที่ผ่านการฝึกมาก่อน (Large Pre-trained Language Models) เช่น ซีรีส์ GPT ของ OpenAI ก็ก้าวหน้าอย่างมาก ทำให้เครื่องจักรเข้าใจภาษาธรรมชาติได้ดีขึ้นอย่างมีนัยสำคัญ ซึ่งเป็นพื้นฐานสำคัญสำหรับการสื่อสารที่ลึกซึ้งระหว่าง AI กับมนุษย์ ผมเชื่อว่ามนุษย์กับ AI สามารถอยู่ร่วมและส่งเสริมซึ่งกันและกันได้ ขณะนี้การประยุกต์ใช้ AI แผ่ขยายไปหลายสาขา เช่น การแพทย์ การศึกษา การเงิน และการขนส่ง ช่วยยกระดับประสิทธิภาพการผลิตและคุณภาพชีวิตของผู้คนอย่างมาก
ความสามารถทางสติปัญญาของมนุษย์ยังห่างไกลจากศักยภาพสูงสุดที่เราคาดหวัง หมายความว่าเรายังใช้สมองได้เพียงส่วนน้อยเท่านั้น หาก AI สามารถช่วยปลดปล่อยศักยภาพของสมองมนุษย์ได้ เราก็จะก้าวหน้าไปพร้อมกับ AI อย่างกลมกลืนและเสริมพลังให้กันและกัน อนาคต มนุษย์จะเฉียบแหลมขึ้นและสามารถจับคู่ทำงานร่วมกับ AI ที่ทรงพลังยิ่งขึ้นได้อย่างมีประสิทธิภาพ
ไป๋ เฉียง:
ผมมีมุมมองที่ค่อนข้างมองโลกในแง่ร้าย ผมคิดว่าการพัฒนาของอินเทอร์เน็ตและ AI ไม่ได้ทำให้โลกดีขึ้นเลย จากมุมมองของอินเทอร์เน็ต ความสะดวกในการเข้าถึงข้อมูลไม่ได้หยุดยั้งการควบคุมของกลุ่มอำนาจ แต่กลับทำให้สังคมแตกแยกมากขึ้น AGI ก็อาจเผชิญปัญหาแบบเดียวกัน แม้ความก้าวหน้าทางเทคโนโลยีจะทำให้บางคนเก่งขึ้น แต่คนส่วนใหญ่กลับอาจโง่ลงและขี้เกียจขึ้น ผมว่านี่เป็นเพราะในสังคมที่พัฒนาแล้ว ผู้คนไม่จำเป็นต้องพยายามมากนัก จึงกลายเป็นคนโง่โดยธรรมชาติ จริงๆ แล้วยังมีปัญหาลึกๆ อีกมากที่ซ่อนอยู่ พร้อมกับการมาถึงของ AGI เราจะอ่อนแอลงหรือไม่? นี่คือคำถามที่เราควรไตร่ตรองให้ลึกซึ้ง
เฉิน กุ้ย:
ระหว่างมุมมองเชิงบวกและเชิงลบ ผมชอบที่จะอยู่ตรงกลางมากกว่า แน่นอนในอุตสาหกรรมที่เราทำงานอยู่ ผมคิดว่าเราไม่ควรละเลยประวัติศาสตร์ เพราะประสบการณ์ในอดีตช่วยให้เราเตรียมรับมือกับความท้าทายในปัจจุบันและอนาคตได้ดีขึ้น ดังนั้น หากจะพูดถึง “อดีต ปัจจุบัน และอนาคต” เราควรย้อนกลับไปดู “กฎสามข้อของหุ่นยนต์ (Three Laws of Robotics)” ที่ไอแซค อาซิมอฟ (Isaac Asimov) เสนอไว้: ข้อแรก หุ่นยนต์ต้องไม่ทำอันตรายต่อมนุษย์ หรือปล่อยให้มนุษย์ได้รับอันตรายโดยไม่กระทำการ; ข้อสอง หุ่นยนต์ต้องเชื่อฟังคำสั่งของมนุษย์ เว้นแต่คำสั่งนั้นจะขัดกับกฎข้อแรก; ข้อสาม หุ่นยนต์ต้องปกป้องตนเอง เว้นแต่การปกป้องนั้นจะขัดกับกฎข้อแรกหรือข้อสอง นี่เป็นแนวคิดที่สมบูรณ์แบบและมีความสำคัญอย่างยิ่งต่อการศึกษาทิศทางการพัฒนา AI
สำหรับการปรากฏตัวของ AGI ผมคิดว่ามันจะส่งผลกระทบอย่างใหญ่หลวงต่อมนุษย์ ทั้งด้านบวกและลบยังประเมินได้ยาก อย่างไรก็ตาม ผมรู้สึกยินดีที่ OpenAI ได้ประกาศหลักการสามประการ
1. ประโยชน์ที่กว้างขวาง: เป้าหมายคือทำให้ AGI เป็นประโยชน์ต่อมนุษยชาติ และรับรองว่าการพัฒนา AGI จะไม่สร้างอันตรายหรือทำให้อำนาจกระจุกตัวอยู่ในกลุ่มใดกลุ่มหนึ่ง
2. ความปลอดภัยในระยะยาว: หากในระหว่างการวิจัย AGI มีโครงการอื่นที่ดูมีแนวโน้มจะพั��นา AGI ที่ปลอดภัยกว่าได้สำเร็จ OpenAI จะเลือกร่วมมือกับโครงการนั้น แทนที่จะแข่งขัน
3. ภาวะผู้นำด้านเทคโนโลยี: เพื่อสร้างผลกระทบเชิงลึกด้านความปลอดภัยและสังคม OpenAI จะยังคงสร้างความก้าวหน้าที่สำคัญในสาขานี้ต่อไป เพื่อรักษาอิทธิพลของตนในการวิจัยและประยุกต์ใช้ AGI
หลักการเหล่านี้จะช่วยให้มนุษยชาติสามารถเจริญรุ่งเรืองได้สูงสุดในจักรวาล และรับประกันว่าผลประโยชน์จาก AGI จะถูกแบ่งปันอย่างกว้างขวาง ช่วยให้เรารับมือกับความเสี่ยงต่างๆ ได้สำเร็จ แม้อนาคตจะเต็มไปด้วยความไม่แน่นอน แต่ผมเชื่อว่าเราควรยังคงมีความหวัง รับมือกับการเปลี่ยนแปลงอย่างกระตือรือร้น และไม่หยุดแสวงหาโอกาส สุดท้าย เราควรใช้ชีวิตในทุกช่วงเวลาอันงดงามอย่างเต็มที่ จนกว่าจะถึงวาระสุดท้ายอย่างสมบูรณ์แบบ
การสนทนากับคณะผู้สังเกตการณ์สื่อ
ซุน เหยียน ผู้อำนวยการฝ่ายบรรณาธิการบริหาร Feixiaohao:
ผมไม่มีมุมมองเฉพาะเจาะจงว่าเป็นแง่บวกหรือแง่ร้ายต่อ AI แต่เหมือนคนส่วนใหญ่ ผมรู้สึกค่อนข้าง “มืดบอด” หรือ “ไร้ความรู้” ผมเคยลองใช้แพลตฟอร์มอัจฉริยะบางตัว เช่น ChatGPT และ Midjourney แต่ไม่รู้สึกว่ามันช่วยได้มากนัก และก็ไม่ใช้มันในการเขียนบทความสำหรับแพลตฟอร์มสื่อต่างๆ เพราะจะทำให้สูญเสียเอกลักษณ์ของตัวเอง ผมรู้สึกว่าตัวเองยังไม่ได้รับความช่วยเหลือที่ชัดเจนจาก AI หรือ AGI มากนัก เหมือนตัวอย่างในภาพยนตร์เรื่อง “2001: A Space Odyssey” ที่บรรยายไว้ในอดีต ซึ่งไม่ได้ทำให้ผมตื่นตะลึงในปัจจุบัน เพราะความเป็นจริงอาจ “แห้งแล้ง” กว่าที่จินตนาการไว้ ไม่ได้เวทมนตร์หรือไฮเทคอย่างที่คิด ดังนั้น ตอนนี้ผมจึงไม่ได้มองโลกในแง่ร้ายหรือแง่ดี แต่เป็นเพียง “มนุษย์ธรรมดาคนหนึ่ง” ท่ามกลางมวลมนุษย์
หวาง ฮุ่ย ผู้ก่อตั้ง BoChain Finance และ 1783DAO:
หลังจากฟังการแบ่งปันจากแขกรับเชิญทุกท่านแล้ว ผมมีคำถามสองสามข้ออยากถามคุณหยาง ข้อแรกคือ จากมุมมองวัฒนธรรมตะวันออก เช่น แนวคิด “人之初,性本善” (มนุษย์เกิดมาพร้อมกับธรรมชาติที่ดีงาม) ซึ่งอาจใช้เป็นเหตุผลเชิงตรรกะว่า AI ก็มีธรรมชาติที่ดีงามเช่นกัน แต่ปัจจุบันการพัฒนา AI ถูกผูกขาดและกำหนดทิศทางโดยยักษ์ใหญ่จากตะวันตกเป็นหลัก แล้วในวัฒนธรรมตะวันตก มีมรดกทางวัฒนธรรมแบบ “มนุษย์เกิดมาพร้อมกับธรรมชาติที่ดีงาม” หรือไม่? จากมุมมองวัฒนธรรมตะวันตก อนาคตของ AI กับมนุษย์จะเป็นอย่างไร?
หยาง หนิง:
คำถามนี้ยอดเยี่ยมมาก มนุษย์มีลักษณะร่วมกันและมี “ความเป็นมนุษย์” ที่สอดคล้องกัน คุณสมบัติเช่น ความรัก ความร่วมมือ และความเห็นอกเห็นใจ ล้วนคล้ายคลึงกันไม่ว่าจะมาจากวัฒนธรรมใด เชื้อชาติใด หรือวิธีใด ดังนั้น ผมจึงไม่เห็นด้วยกับแนวคิด “ป่ามืด (Dark Forest)” ที่นำเสนอในนิยายสามกาย (The Three-Body Problem) เพราะมนุษย์ไม่ใช่สัตว์เดรัจฉาน แต่เป็นสิ่งมีชีวิตที่มีศักยภาพในการสร้างทีมและองค์กร ในการฝึกโมเดล Machine Learning ข้อมูลคุณภาพสูงมีความสำคัญอย่างยิ่ง คุณภาพของข้อมูลและความแม่นยำของป้ายกำกับ (label) จะกำหนดผลลัพธ์ของการฝึกโมเดล นอกจากนี้ ผู้พัฒนา AI ก็มีอิทธิพลอย่างมากต่อโมเดล เพราะ “ความเป็นมนุษย์” ของเครื่องจักรนั้นมาจากมนุษย์
หวาง ฮุ่ย ผู้ก่อตั้ง BoChain Finance และ 1783DAO:
ผมมีอีกคำถามหนึ่งที่อยากคุยกับคุณไบ่ เชียงครับ คุณเคยกล่าวว่าผลิตภัณฑ์ประเภทเครื่องมือหลายตัวอาจล้มเหลว นั่นหมายความว่า ChatGPT ก็อาจล้มเหลวได้เช่นกันใช่ไหม? และหากเป็นเช่นนั้น ในแวดวง AI แล้ว โครงการแบบไหนถึงจะอยู่รอดได้ในระยะยาว?
ไบ่ เชียง:
ผมมองว่าแก่นแท้ของ OpenAI คือโมเดลภาษาขนาดใหญ่ (Large Language Model) ของบริษัท ไม่ใช่แค่ผลิตภัณฑ์อย่าง ChatGPT เท่านั้น แม้ว่าเครื่องมืออย่าง ChatGPT จะหายไป OpenAI ก็ยังมีข้อมูลมหาศาลเป็น “ไพ่ตาย” ของตัวเองอยู่ สิ่งสำคัญที่ทำให้บริษัทหนึ่งแยกตัวออกจากคู่แข่งได้ คือความสามารถในการปรับตัวสู่การเป็น “บริษัทเนื้อหา” ในยุค AGI ใหม่นี้ คล้ายกับกรณีของ Pixar ที่สุดท้ายก็พัฒนาตัวเองจนกลายเป็นสตูดิโอผลิตเนื้อหาคุณภาพสูงและคว้ารางวัลออสการ์มาได้ เราควรมองโลกผ่านเลนส์ของ AI เพื่อนิยามโมเดลและผลิตภัณฑ์ใหม่ แทนที่จะยึดติดกับกรอบความคิดเดิม เราควรคิดว่าจะนิยามทุกสิ่งในยุคใหม่นี้อย่างไร แล้วมองหาโอกาสทางธุรกิจและการลงทุนจากตรงนั้น ผมเชื่อว่าด้วยกรอบความคิดแบบนี้ โอกาสใหม่ๆ จะเกิดขึ้นอีกมากในอนาคต
เตอร์จี รองบรรณาธิการบริหารเขตหัวตง, ChainDD (LinkDER)
ผมมีคำถามว่า การทดสอบเทอร์ริง (Turing Test) ควรเป็นมาตรฐานในการประเมิน AGI หรือไม่? หรือ AGI ควรมีเกณฑ์การประเมินแบบไหนถึงจะเหมาะสม?
หยาง หนิง:
ผมคิดว่าเราสามารถควบคุมและประเมิน AGI ได้จากสองมิตินี้ คือ “ระดับสติปัญญาของเครื่องจักร” และ “ระดับจิตใจของเครื่องจักร” สำหรับมิติแรก คือการประเมินสติปัญญา การทดสอบเทอร์ริงแบบเดิมนั้นล้าสมัยไปแล้ว เราจึงต้องหาวิธีประเมินรูปแบบใหม่ เช่น การทดสอบไอคิว (IQ Test) เพื่อวัดระดับสติปัญญาของเครื่องจักรอย่างเป็นระบบ แต่ชุดทดสอบนี้ต้องหลีกเลี่ยงไม่ให้นักพัฒนาสามารถฝึกโมเดลให้จำคำตอบเพื่อผ่านการทดสอบได้ สำหรับมิติที่สอง คือการประเมินระดับจิตใจ ผมคิดว่าควรพัฒนาชุดทดสอบสำหรับเครื่องจักรที่เลียนแบบการประเมินทางจิตวิทยาของมนุษย์ เพื่อทำความเข้าใจสถานะจิตใจของเครื่องจักรให้ลึกซึ้งขึ้น ทั้งสองมิตินี้เป็นเรื่องสำคัญและจริงจังมาก และเป็นประเด็นที่มหาวิทยาลัยกับสถาบันวิจัยต่างๆ ควรเร่งศึกษาต่อไป
เตอร์จี รองบรรณาธิการบริหารเขตหัวตง, ChainDD (LinkDER)
ขอบคุณคำตอบจากคุณหยางมากครับ ผมมีอีกคำถามเกี่ยวกับจริยธรรมของ AI เมื่อเราเริ่มมอบหมายงานบางส่วนในสังคม รวมถึงความรับผิดชอบบางอย่างให้ AI ดำเนินการ เราจะจัดการกับประเด็นจริยธรรมเหล่านี้อย่างไร? ตัวอย่างเช่น ในภาคการขับขี่อัตโนมัติ (Autonomous Driving) ความก้าวหน้าของ AI อาจพาเราเข้าสู่ยุคใหม่ พร้อมกับคำสั่งที่ซับซ้อนขึ้นและคำสั่งที่ใช้ข้อมูลแบบหลายรูปแบบ (Multimodal Data) แต่คำถามสำคัญคือ เราจะรับประกันได้อย่างไรว่าประเด็นจริยธรรมจะได้รับการจัดการอย่างเหมาะสมควบคู่ไปกับการใช้เทคโนโลยี AI? และเราคว���ฝึกอบรม AI อย่างไรเพื่อให้บรรลุเป้าหมายนี้?
หยาง หนิง:
ผมคิดว่าคำถามที่คุณยกมาไม่ใช่แค่เรื่องจริยธรรม แต่ยังเป็นเรื่องกฎหมายด้วย ซึ่งโดยหลักแล้วเกี่ยวข้องกับความแตกต่างระหว่าง “อัลกอริธึมแบบแน่นอน (Deterministic Algorithm)” กับ “อัลกอริธึมแบบความน่าจะเป็น (Probabilistic Algorithm)” อัลกอริธึมแบบแน่นอนหมายถึง ในเงื่อนไขที่กำหนด เครื่องจักรจะตัดสินใจเหมือนกันเสมอ ในขณะที่อัลกอริธึมที่ขับเคลื่อนด้วย AI นั้นเป็นแบบกระจายความน่าจะเป็น (Probability Distribution) ซึ่งหมายความว่า แม้ในเงื่อนไขเดียวกัน เครื่องจักรอาจตัดสินใจต่างกันได้
ด้วยเหตุนี้ ปัจจุบันทั่วโลกจึงยังไม่อนุญาตให้ AI ตัดสินใจบนพื้นฐานของโมเดลความน่าจะเป็น เพราะเกี่ยวข้องกับประเด็นความรับผิดทางกฎหมายโดยตรง ตัวอย่างเช่น เมื่อเกิดอุบัติเหตุกับรถยนต์ขับขี่อัตโนมัติ ใครควรรับผิดชอบ? หากมีคนนั่งขับอยู่ในรถ คนนั้นก็ต้องรับผิดชอบตามกฎหมาย แต่หากไม่มีคนขับอยู่ในรถ บริษัทผู้ให้บริการระบบขับขี่อัตโนมัติก็ต้องเป็นผู้รับผิดชอบแทน
ปัจจุบัน ระดับความไว้วางใจที่เรามีต่อ AI ยังไม่เพียงพอที่จะให้มันตัดสินใจในเรื่องที่อาจส่งผลต่อชีวิตความตายหรือก่อความเสียหายร้ายแรง ในภาคการบินและอวกาศ สำนักงานบริหารการบินพลเรือน (Civil Aviation Authority) ไม่อนุญาตให้ AI ตัดสินใจในลักษณะดังกล่าว พวกเขาอนุญาตเฉพาะให้มนุษย์เป็นผู้ตัดสินใจ หรือใช้กระบวนการตัดสินใจอัตโนมัติที่อาศัยอัลกอริธึมแบบแน่นอนเท่านั้น ซึ่งห��ายความว่า สำหรับข้อมูลนำเข้า (Input) ชุดเดียวกัน จะได้ผลลัพธ์ (Output) ที่เหมือนกันเสมอ ดังนั้น ในโครงการอากาศยานไร้คนขับ (Unmanned Aerial Vehicle) ที่เราทำอยู่ เราจึงใช้อัลกอริธึมแบบแน่นอน ซึ่งเป็นวิธีเดียวที่ผ่านการรับรองจากสำนักงานบริหารการบินพลเรือนได้
นี่คือส่วนที่น่าสนใจจากการสนทนาใน Twitter Space ครั้งนี้ หวังว่าทุกท่านจะได้รับข้อมูลและแรงบันดาลใจที่มีค่าจากบทสนทนานี้ GPT DAO คือชุมชนแบ่งปันข้อมูล AGI ที่เข้มข้นและลึกซึ้งที่สุด โดยมุ่งเน้นการเผยแพร่ข้อมูลเชิงลึกและข้อมูลเทคนิกระดับสูง ห้ามพลาดเด็ดขาด!
ติดตามบัญชี X (Twitter) ของ GPTDAO เพื่อรับข่าวสารกิจกรรมล่าสุด
X (Twitter) ภาษาจีน: @GPTDAOCN
X (Twitter) ภาษาอังกฤษ: @GPTDAOGLOBAL
