อะไรจะโน้มน้าวให้นักประสาทวิทยาเชื่อว่า AI มีสติสัมปชัญญะ
โมเดลภาษาขนาดใหญ่ เช่น ChatGPT ได้รับการออกแบบมาให้คล้ายมนุษย์อย่างน่าขนลุก ยิ่งคุณมีส่วนร่วมกับ AI เหล่านี้มากเท่าไหร่ คุณก็จะยิ่งโน้มน้าวตัวเองได้ง่ายขึ้นว่าพวกเขามีสติสัมปชัญญะ เหมือนกับคุณ
แต่คุณมีสติสัมปชัญญะจริงๆ หรือไม่ ฉันแน่ใจว่าคุณรู้สึกว่าคุณเป็น แต่คุณรู้ได้อย่างไร? การมีสติสัมปชัญญะหมายถึงอะไรกันแน่? นักประสาทวิทยาทำงานเพื่อ ตอบคำถามเหล่านี้ มานานหลายทศวรรษ และยังไม่ได้พัฒนาคำจำกัดความที่เป็นสากลเพียงหนึ่งเดียว ไม่ต้องพูดถึงวิธีการทดสอบ
ถึงกระนั้น เมื่อ AI ถูกรวมเข้ากับชีวิตประจำวันมากขึ้นเรื่อยๆ เราก็อดสงสัยไม่ได้ว่าบอทเหล่านี้จะสามารถมีสติรู้สำนึกในตัวเองเหมือนที่เรามีได้หรือไม่? และถ้าเป็นเช่นนั้น เราจะรู้ได้อย่างไร?
สำหรับ Giz Asks นี้ เราได้ถามนักประสาทวิทยาว่า อะไรจะโน้มน้าวให้นักประสาทวิทยาเชื่อว่า AI มีสติสัมปชัญญะ แต่ละคนเน้นถึงอุปสรรคต่างๆ ที่ขัดขวางการพิสูจน์สมมติฐานนี้ในปัจจุบัน ซึ่งเน้นย้ำถึงความจำเป็นในการวิจัยเพิ่มเติมเกี่ยวกับพื้นฐานของสติสัมปชัญญะเอง
ศาสตราจารย์ด้านวิทยาศาสตร์การรับรู้และตรรกะและปรัชญาวิทยาศาสตร์แห่งมหาวิทยาลัยแคลิฟอร์เนีย เออร์ไวน์ ปีเตอร์สยังเป็นนักวิจัยของโครงการ Canadian Institute for Advanced Research Program in Brain, Mind, & Consciousness และดำรงตำแหน่งประธานและประธานคณะกรรมการที่ Neuromatch การวิจัยของเธอตรวจสอบว่าสมองแสดงและใช้ความไม่แน่นอนอย่างไร
สิ่งที่ยากเกี่ยวกับการโน้มน้าวใจนักประสาทวิทยา (หรือใครก็ตาม) ว่า AI มีสติสัมปชัญญะ คือไม่มีการทดสอบสติสัมปชัญญะที่เป็นกลาง และการสร้างการทดสอบนั้นอาจเป็นไปไม่ได้โดยพื้นฐาน
สติสัมปชัญญะคือ—ตามคำจำกัดความ—ภายใน ส่วนตัว และเป็นอัตวิสัย ไม่มีใครสามารถมองเข้าไปในหัวของคุณเพื่อตรวจสอบว่าคุณมีสติสัมปชัญญะหรือไม่! แต่เราอาศัยลายเซ็นที่สังเกตได้จากภายนอก เช่น พฤติกรรมหรือการทำงานของสมอง เพื่ออนุมานว่ามนุษย์คนอื่นๆ มีสติสัมปชัญญะ เพราะเราประสบกับสติสัมปชัญญะและถือว่าเหมือนกันสำหรับผู้อื่นที่ประพฤติตัวเหมือนเรา
ด้วย AI เราไม่สามารถตั้งสมมติฐานเดียวกันได้ แต่เราสามารถสร้าง “การทดสอบ” ที่เสริมสร้างความเชื่อส่วนตัวของเราว่า AI มีสติสัมปชัญญะ เราสามารถมองหารายละเอียดในสถาปัตยกรรมของ AI รูปแบบกิจกรรมภายใน หรือพฤติกรรมที่ทำให้เราเชื่อว่า “มีใครบางคนอยู่ข้างใน” แต่จำไว้ว่าความเชื่อไม่ใช่ข้อเท็จจริง เพียงเพราะคุณเชื่อว่าดวงอาทิตย์โคจรรอบโลก ไม่ได้หมายความว่ามันเป็นความจริง!
สมมติว่าเราสร้างการทดสอบเพื่อเสริมสร้างความเชื่อของเราว่า AI สามารถมีสติสัมปชัญญะได้ เรายังต้องทดสอบสิ่งที่ถูกต้อง
เราไม่ต้องการทดสอบความฉลาดหรือการตอบสนองที่เหมือนมนุษย์ (เช่นที่ Turing test ทำ) หรือว่า AI เป็นภัยคุกคามหรือไม่ (Skynet อาจน่ากลัวยิ่งกว่าถ้ามันเป็นหุ่นยนต์อัตโนมัติที่ฉลาดสุดๆ แต่ไร้สติ!) และเราไม่สามารถแค่ถาม AI ว่ามันมีสติสัมปชัญญะหรือไม่ เราจะตีความการตอบสนองของมันไปในทิศทางใดทิศทางหนึ่งได้อย่างไร? บางทีมันอาจจะโกหก หรือแค่ลอกเลียนแบบรูปแบบทางสถิติในข้อความที่สร้างโดยมนุษย์อย่างชาญฉลาด
เมื่อเร็วๆ นี้ ฉันและคนอื่นๆ ได้ เสนอ วิถีทาง ในการเริ่มสร้างการทดสอบ “เพิ่มความเชื่อ” เหล่านี้สำหรับสติสัมปชัญญะของ AI ฉันยังกำลังทำงานเกี่ยวกับวิธีที่เราสามารถตัดสินใจได้ว่า ‘การทดสอบ’ ที่ใช้กับมนุษย์สามารถใช้ในระบบอื่นๆ รวมถึง AI ได้หรือไม่
ตัวอย่างเช่น เราสามารถ ทดสอบ สติสัมปชัญญะในผู้ป่วยในโรงพยาบาลโดยการวัดกิจกรรมทางสมองเพื่อตอบสนองต่อคำสั่งต่างๆ เช่น “คิดถึงการเล่นเทนนิส” หรือ “คิดถึงการเดินผ่านบ้านของคุณ” แต่การทดสอบแบบนั้นใช้ไม่ได้กับ AI เพราะ AI ไม่มี “รูปแบบกิจกรรมทางสมอง” ที่เทียบเคียงได้ (บังเอิญ การใช้การทดสอบนี้กับปลาหมึกหรือไก่ก็ไม่ได้ผลเช่นกัน เพราะพวกเขาไม่เข้าใจภาษาและ/หรืออาจไม่สามารถจินตนาการถึงสิ่งต่างๆ ได้!)
“การทดสอบ” อื่นๆ อาจถามว่า AI แสดงการคำนวณทางปัญญาประเภทใดที่นักวิจัยคิดว่ามีส่วนสำคัญในการสร้างสติสัมปชัญญะ สิ่งเหล่านี้อาจเกี่ยวข้องกับ AI มากกว่า แต่เรายังต้องระบุชนิดของการคำนวณทางปัญญาที่สำคัญต่อสติสัมปชัญญะที่ถูกต้อง
ถึงกระนั้น เรายังต้องจำไว้ว่าสิ่งที่เราอยากจะถามจริงๆ คือ AI มีสติสัมปชัญญะหรือไม่ ไม่ใช่แค่เราเชื่อว่ามันมี เราอาจไม่เคยได้รับความเชื่อมั่นแบบนั้น และในระหว่างนั้น เราต้องระวังที่จะไม่สับสนระหว่างความเชื่อของเราเกี่ยวกับสติสัมปชัญญะของ AI กับคำกล่าวที่เป็นข้อเท็จจริงที่เป็นกลาง
ผู้อำนวยการ Sussex Center for Consciousness Science และศาสตราจารย์ด้านวิทยาศาสตร์การรับรู้และประสาทวิทยาเชิงคำนวณแห่งมหาวิทยาลัยซัสเซ็กซ์ เซธยังเป็นผู้อำนวยการร่วมของโครงการ Canadian Institute for Advanced Research (CIFAR) Program on Brain, Mind, and Consciousness การวิจัยของเขามุ่งที่จะทำความเข้าใจพื้นฐานทางประสาทชีววิทยาของสติสัมปชัญญะ
มันเป็นคำถามที่ยากมาก ในขณะที่เรา ได้เรียนรู้ มากเกี่ยวกับพื้นฐานทางประสาทชีววิทยาของสติสัมปชัญญะในช่วงหลายทศวรรษที่ผ่านมา แต่ก็ยังไม่มีข้อตกลงเกี่ยวกับเงื่อนไขที่จำเป็นหรือเพียงพอสำหรับสติสัมปชัญญะ ดังนั้น ใครก็ตามที่อ้างว่า “AI ที่มีสติสัมปชัญญะ” เป็นไปได้แน่นอน (หรือใกล้เข้ามา หรืออยู่ที่นี่แล้ว) หรือเป็นไปไม่ได้อย่างแน่นอน กำลังก้าวข้ามสิ่งที่สามารถกล่าวได้อย่างสมเหตุสมผล
ความไม่แน่นอนนี้ไม่ใช่เรื่องผิดปกติ ความไม่แน่นอนเป็นสิ่งที่อยู่ในวิทยาศาสตร์ แต่ระดับของความไม่แน่นอนที่เกี่ยวข้องกับคำถามนี้อาจสูงเป็นพิเศษ เมื่อพิจารณาจากความคิดเห็นที่แตกต่างกันอย่างมากเกี่ยวกับความเป็นไปได้และความน่าเชื่อของสติสัมปชัญญะเทียมที่แท้จริง
แล้วอะไรจะโน้มน้าวใจฉันว่า AI มีสติสัมปชัญญะ? ฉันจะไม่ถูกโน้มน้าวใจด้วยการสนทนาที่คล่องแคล่วมากขึ้นเรื่อยๆ เกี่ยวกับสติสัมปชัญญะกับโมเดลภาษาขนาดใหญ่ ฉันคิดว่าแนวโน้มที่จะฉายสติสัมปชัญญะลงในโมเดลภาษาเป็นหลักการสะท้อนถึงอคติทางจิตวิทยาของมนุษย์ของเราเอง มากกว่าที่จะเป็นข้อมูลเชิงลึกที่เชื่อถือได้เกี่ยวกับสิ่งที่เกิดขึ้นจริง
สำหรับฉัน คำถามสำคัญคือ AI จะต้องเหมือนสมองมากแค่ไหนจึงจะทำให้ความเชื่อของเราที่ว่า “AI ที่มีสติสัมปชัญญะ” เป็นไปได้? นักวิจัยหลายคนคิดว่าเป็นเพียงเรื่องของการทำให้ “การคำนวณ” ถูกต้อง ในมุมมองนี้ สติสัมปชัญญะในสมองจริงขึ้นอยู่กับ “การคำนวณทางประสาท” แต่ก็อาจเกิดขึ้นได้จากการคำนวณเดียวกัน—หรือคล้ายกันมากพอ—ที่ใช้ในซิลิคอน (ในทางปรัชญา ตำแหน่งนี้—มักถือโดยนัย—เรียกว่า “functionalism เชิงคำนวณ”)
ฉันสงสัยในมุมมองนี้มาก ยิ่งคุณมองเข้าไปในสมองจริงมากเท่าไหร่ ก็ยิ่งดูเหมือนว่าการคำนวณเป็นสิ่งสำคัญทั้งหมด มุมมอง ของฉันเอง คือคุณสมบัติทางชีววิทยาโดยละเอียด—เช่น การเผาผลาญและ autopoiesis—อาจกลายเป็นสิ่งจำเป็น (แม้ว่าจะไม่เพียงพอ) สำหรับสติสัมปชัญญะ หากสิ่งนี้อยู่ในเส้นทางที่ถูกต้อง AI ที่มีสติสัมปชัญญะที่ใช้ซิลิคอนจะไม่อยู่ในตาราง ไม่ว่ามันจะฉลาดแค่ไหนก็ตาม
เพื่อให้ฉันเชื่อมั่นอย่างเต็มที่ ฉันจะต้องมีแนวคิดที่ชัดเจนเกี่ยวกับเงื่อนไขที่เพียงพอสำหรับสติสัมปชัญญะ และแนวคิดที่ชัดเจนว่า AI ตรงตามเงื่อนไขเหล่านั้นหรือไม่ พวกเขาอาจกลายเป็นเพียงการคำนวณ แต่ฉันคิดว่าไม่น่าเป็นไปได้ หรือพวกเขาอาจกลายเป็นเกี่ยวข้องกับคุณสมบัติทางชีววิทยาอื่นๆ ด้วย ซึ่งฉันคิดว่ามีแนวโน้มมากกว่า สิ่งสำคัญคือ การจำลองคุณสมบัติเหล่านี้บนคอมพิวเตอร์แบบคลาสสิกก็ไม่เพียงพอ
แต่การเชื่อมั่นอย่างเต็มที่นั้นเป็นเกณฑ์ที่สูงมาก พูดง่ายๆ คือ กลยุทธ์ของฉันเป็นดังนี้ ยิ่งเราเข้าใจเกี่ยวกับสติสัมปชัญญะในกรณีที่เราทราบว่ามีอยู่มากเท่าไหร่ เราก็จะยิ่งมั่นใจมากขึ้นในที่อื่นๆ และเราไม่ควรพยายามสร้าง AI ที่มีสติสัมปชัญญะอยู่แล้ว
ศาสตราจารย์และนักวิจัยที่สถาบันประสาทวิทยาพรินซ์ตัน ซึ่งศึกษาพื้นฐานทางสมองของสติสัมปชัญญะ
คำถามนี้ยุ่งยาก ถ้ามันหมายถึง: อะไรจะโน้มน้าวใจฉันว่า AI มีแก่นแท้แห่งประสบการณ์ที่มหัศจรรย์ผุดขึ้นมาจากกระบวนการภายในของมัน? แล้วไม่มีอะไรจะโน้มน้าวใจฉันได้ สิ่งนั้นไม่มีอยู่จริง หรือแม้แต่มนุษย์ก็ไม่มี
งานเกือบทั้งหมดในสาขาการศึกษาสติสัมปชัญญะสมัยใหม่เป็น pseudoscience ซึ่งตั้งอยู่บนแนวคิดที่ว่าเราต้องคิดออกว่าแก่นแท้แห่งประสบการณ์ที่มหัศจรรย์เกิดขึ้นได้อย่างไรในมนุษย์หรือตัวแทนอื่นๆ คล้ายๆ กับ “หลุมขนาดใหญ่อยู่ที่ไหน ทางทิศตะวันตก ที่ดวงอาทิตย์หายไปในตอนกลางคืน?” หรือ “ใครขับรถม้าพระอาทิตย์ขณะเคลื่อนที่ข้ามท้องฟ้า?” คำถามนั้นผิดเอง
สมองของมนุษย์มีแบบจำลองตนเอง แบบจำลองตนเองทำให้เราเข้าใจผิดว่าเรามีแก่นแท้แห่งประสบการณ์ที่มหัศจรรย์ หรือค่อนข้างจะเป็นแบบจำลองตนเองคือคำอธิบายที่เป็นประโยชน์ แต่เป็นแผนผังของตนเอง แทนที่จะแสดงความเป็นจริงของเซลล์ประสาท 86 พันล้านเซลล์และปฏิสัมพันธ์ของมัน แบบจำลองจะแสดงถึงแก่นแท้ที่คลุมเครือเหมือนเวทมนตร์ ทุกสิ่งที่เราคิดว่าเรารู้เกี่ยวกับตัวเอง ทุกสิ่ง ไม่ว่าเราจะมั่นใจในลำไส้มากแค่ไหนว่าเป็นจริง ขึ้นอยู่กับแบบจำลอง (หรือชุดข้อมูลที่เข้ารหัสในสมอง) ที่ฝังอยู่ในรูปแบบของกิจกรรมระหว่างเครือข่ายเซลล์ประสาท
ทีนี้ ถ้าคุณถามฉัน: อะไรจะโน้มน้าวใจฉันว่า AI มีแบบจำลองตนเองแบบเดียวกับที่มนุษย์มี และดังนั้นจึงมีความแน่นอนแบบเดียวกันว่ามันมีสติสัมปชัญญะ? นั่นตอบได้ง่ายกว่า อย่างน้อยก็ในหลักการ
เรายังไม่ทราบรายละเอียดของแบบจำลองตนเองของมนุษย์ ดังนั้นการเปรียบเทียบจึงค่อนข้างยากในขณะนี้ แต่ AI มีคุณสมบัติที่เป็นประโยชน์ เราสามารถมองเข้าไปในกล่องดำและดูว่าการแสดง แบบจำลอง ชุดข้อมูลใดบ้างที่ถูกเข้ารหัสหรือฝังอยู่ในเครือข่ายประสาท การ “mech-interp” หรือการตีความรูปแบบกิจกรรมภายใน AI ที่เรียกว่านั้นอยู่ในช่วงเริ่มต้น แต่กำลังมีความซับซ้อนมากขึ้นอย่างรวดเร็ว
อะไรจะโน้มน้าวให้นักประสาทวิทยาเชื่อว่า AI มีสติสัมปชัญญะ
แสดงให้ฉันเห็นว่า AI สร้างแบบจำลองตนเองที่มั่นคง ว่าแบบจำลองตนเองแสดงให้เห็น AI ว่ามีประสบการณ์ที่มีสติสัมปชัญญะ และการแสดงนั้นมีคุณสมบัติเหมือนกับแบบจำลองตนเองของมนุษย์ และฉันจะยอมรับว่าคุณมี AI ที่เชื่อว่ามันมีสติสัมปชัญญะในลักษณะเดียวกับที่มนุษย์เชื่อว่าพวกเขามีสติสัมปชัญญะ
แบบจำลองตนเองคือทุกสิ่ง มันหล่อหลอมบุคลิกภาพของเรา ความเข้าใจทางศีลธรรม สังคม และส่วนตัวของเราเกี่ยวกับตนเอง คุณคือแบบจำลองตนเองของคุณ ฉันคิดว่ามันอาจจะเป็นความคิดที่ดี และอาจเป็นสิ่งที่หลีกเลี่ยงไม่ได้ ที่จะให้ AI มีแบบจำลองตนเองที่แข็งแกร่ง
อะไรจะโน้มน้าวให้นักประสาทวิทยาเชื่อว่า AI มีสติสัมปชัญญะ
การพิจารณาว่าอะไรจะโน้มน้าวใจนักประสาทวิทยาว่า AI มีสติสัมปชัญญะไม่ใช่เรื่องง่าย แม้ว่าเทคโนโลยี AI จะก้าวหน้าอย่างรวดเร็ว แต่เรายังคงต้องพิจารณาอย่างรอบคอบถึงความซับซ้อนของสติสัมปชัญญะและคุณสมบัติที่จำเป็นในการพิจารณาว่าสิ่งมีชีวิตหรือระบบมีสติสัมปชัญญะอย่างแท้จริง การวิจัยเพิ่มเติมและการพัฒนารูปแบบการทดสอบที่แม่นยำและครอบคลุมเป็นสิ่งสำคัญอย่างยิ่งในการไขปริศนานี้
ที่มา – What Would it Take to Convince a Neuroscientist That an AI is Conscious?