เหตุใดปัญญาประดิษฐ์จึงเป็นอันตราย ปัญญาประดิษฐ์เป็นอันตรายต่อมนุษยชาติหรือไม่?

31.07.2019

เมื่อวันก่อน มีการพูดคุยกันอีกครั้งบน Facebook เกี่ยวกับอันตรายที่อาจเกิดขึ้นต่อมนุษยชาติของเทคโนโลยีการรับรู้และปัญญาประดิษฐ์ทั้งหมด เป็นเรื่องที่ควรค่าแก่การกล่าวว่าหัวข้อนี้ได้รับการหยิบยกขึ้นมาตลอดระยะเวลาของการพัฒนาในพื้นที่นี้ แต่เมื่อเร็ว ๆ นี้หัวข้อนี้มีความเข้มแข็งมากขึ้นอย่างเห็นได้ชัด - และไม่เพียง แต่ในรัสเซียเท่านั้น แต่ยังรวมถึงในประเทศชั้นนำหลาย ๆ ประเทศรวมถึงสหรัฐอเมริกาด้วย ไม่สามารถพูดได้ว่าสถานการณ์ที่นั่นถึงขั้นฮิสทีเรียแล้ว แต่การเคลื่อนไหวต่อต้านปัญญาประดิษฐ์กำลังได้รับแรงผลักดันอย่างชัดเจน อย่างไรก็ตาม มันไม่ได้เป็นผู้นำโดยคนที่ต่ำต้อยที่สุดในสังคม ซึ่งรวมถึงโจดี้ วิลเลียมส์ ผู้ได้รับรางวัลโนเบลสาขาสันติภาพ ซึ่งเปิดตัวแคมเปญ "Stop the Robots" อันทรงพลังในปีนี้ และผู้ร่วมก่อตั้ง Skype Jaan Tallinn ด้วยการเข้าร่วมของเขา ศูนย์วิทยาศาสตร์เพื่อการศึกษาความเสี่ยงที่มีอยู่จึงถูกสร้างขึ้นในเคมบริดจ์เมื่อปีที่แล้ว ในรายการภัยคุกคามสี่ประการที่อาจเกิดขึ้นกับมนุษยชาติ ผู้เชี่ยวชาญซึ่งรวมถึงนักวิทยาศาสตร์ นักปรัชญา และวิศวกรชื่อดัง ปัญญาประดิษฐ์การเปลี่ยนแปลงสภาพภูมิอากาศ อาวุธนิวเคลียร์ และเทคโนโลยีชีวภาพ (ความเป็นไปได้ในการสร้างชีวิตเทียม)

อย่างไรก็ตาม เราไม่ควรคิดว่าเหตุผลของผู้เชี่ยวชาญและผู้เชี่ยวชาญในระดับสูงสุดคือมุมมองที่ว่าปัญญาประดิษฐ์จะดูดซับมนุษยชาติในอนาคต ตัวเร่งปฏิกิริยาหลักสำหรับความวิตกกังวลทั่วไปคือกรณีของความเหนือกว่าของปัญญาประดิษฐ์มากกว่าปัญญาธรรมชาติที่เกิดขึ้นบ่อยมากขึ้น

เป็นเรื่องที่ควรค่าแก่การกล่าวว่าเสียงแรกที่เกี่ยวข้องกับการพัฒนาของเหตุการณ์ดังกล่าวได้ยินย้อนกลับไปในช่วงกลางทศวรรษ 1990 เมื่อมีความก้าวหน้าครั้งสำคัญเกิดขึ้นในด้านการประมวลผลข้อมูลอัจฉริยะและเครื่องอัจฉริยะเรียนรู้ที่จะเข้าใจเนื้อหาของเอกสารบางประเภทใน มวลของพวกเขา ดีกว่ามนุษย์- พวกเขาแยกวิเคราะห์เอกสารอย่างชำนาญ โดยแทนที่ความฉลาดของเลขานุการและผู้ปฏิบัติงานในองค์กรภายในประเทศ หลายร้อยคน จากนั้นโปรแกรมก็ปรากฏขึ้นซึ่งสามารถเข้าใจเนื้อหาของเอกสารสำคัญขนาดใหญ่และสรุปผลและการทำนายที่เหมาะสมตามเนื้อหาเหล่านั้น กรณีที่ชัดเจนที่สุดของความเหนือกว่าทางเทคนิคคือการสูญเสียคอมพิวเตอร์ Deep Blue ของ Garry Kasparov

วันนี้เรามีเครื่องจักรที่ทำงานอยู่แล้ว ประสบความสำเร็จมากกว่าคนหมากรุก การขับรถ การทำความเข้าใจเอกสาร การซื้อขายทางการเงิน การจดจำใบหน้า คำพูด และข้อความ อินเทอร์เน็ตเต็มไปด้วยบอทและข้อมูลทุกประเภทที่สามารถแสดงความคิดเห็นเกี่ยวกับสถานการณ์เฉพาะและดูแลการสนทนาได้ แม้แต่ระบบจัดการเอกสารด้วยหุ่นยนต์ก็ยังปรากฏที่สามารถเข้าใจสภาพแวดล้อมภายนอกที่ติดตั้งและปรับให้เข้ากับมันได้ อย่างไรก็ตาม มันเป็นระบบรัสเซีย "E1 ยูเฟรติส" ที่กลายเป็นเป้าหมายของการโจมตีจากผู้ใช้อินเทอร์เน็ตแต่ละราย สิ่งที่ทำให้พวกเขากังวลมากที่สุดก็คือระบบการรับรู้ โดยเฉพาะอย่างยิ่งการใช้อัลกอริธึมการเรียนรู้ด้วยตนเอง จะสามารถพัฒนากิจกรรมในพื้นที่ข้อมูลขององค์กรได้อย่างอิสระและก่อให้เกิดความเสียหายต่อมัน แน่นอนว่าการกำหนดคำถามดังกล่าวมักจะทำให้ผู้เชี่ยวชาญยิ้มได้ ในระบบ E1 ยูเฟรติส กระบวนการเรียนรู้ด้วยตนเองเกิดขึ้นในระดับท้องถิ่น และไม่มีโอกาสที่จะควบคุมไม่ได้ ในทำนองเดียวกันสามารถสันนิษฐานได้ว่าข้อผิดพลาดที่ไม่สังเกตเห็นเช่นในโปรแกรมบัญชีสามารถทำลายฮาร์ดไดรฟ์ที่ติดตั้งไว้ได้

แต่โดยรวมแล้วความกังวลของประชาชนก็ไม่น่าแปลกใจ เราไม่สามารถหลีกเลี่ยงการสนทนาดังกล่าวได้ และเมื่อเทคโนโลยีปัญญาประดิษฐ์พัฒนาขึ้น การสนทนาเหล่านั้นก็จะถี่และมีชีวิตชีวามากขึ้นเท่านั้น เราจะพูดอะไรได้บ้างเมื่อเพนตากอนถูกบังคับให้ตอบสนองต่อการประท้วงอย่างกว้างขวางของประชาชนชาวอเมริกัน โดยกังวลว่ายานยนต์หุ่นยนต์ของทหารจะเริ่มทำการตัดสินใจที่สำคัญด้วยตนเอง ผลที่ตามมาคือ แอชตัน คาร์เตอร์ รองปลัดกระทรวงกลาโหมของสหรัฐฯ ถึงกับออกแถลงการณ์รับประกันว่าไม่มียานพาหนะทางทหารแบบหุ่นยนต์คันใดที่จะตัดสินใจทำร้ายบุคคลได้

ถึงกระนั้น มนุษยชาติก็ไม่ควรกลัว ไม่ว่าวันนี้หรือในอนาคตอันใกล้นี้ ความกังวลของนักเคลื่อนไหวทั้งหมดอยู่ในระนาบทางสังคมมากกว่าในเชิงวิทยาศาสตร์หรือเชิงปฏิบัติ กิจกรรมของศูนย์อังกฤษเพื่อการศึกษาความเสี่ยงระดับโลกยืนยันว่าคำถามและความรู้สึกเดียวกันนี้เกิดขึ้นในด้านอื่น ๆ ของชีวิต นี่เป็นเรื่องปกติของกระบวนการพัฒนาใดๆ สิ่งสำคัญที่เป็นข้อเท็จจริงที่หักล้างไม่ได้คือประสิทธิภาพที่แท้จริงของการใช้ระบบปัญญาประดิษฐ์ และปัญหาอีกมากมาย รวมถึงปัญหาระดับโลกที่เราเผชิญอยู่ เช่น การประมวลผล Bigdata สำหรับข้อมูลจำนวนมหาศาลที่มนุษยชาติสะสม เช่นเดียวกับปัญหาอื่นๆ อีกมากมาย ไม่สามารถแก้ไขได้หากไม่มีระบบปัญญาประดิษฐ์

เมื่อผู้คนสังเกตเห็นเทคโนโลยีที่มีพฤติกรรมเหมือนมนุษย์และคอมพิวเตอร์ที่ประมวลผลข้อมูลจำนวนมหาศาล ความคิดมากมายก็เกิดขึ้นเกี่ยวกับอนาคต ส่วนที่ดีของพวกเขาจะขึ้นอยู่กับหัวข้อของการเป็นทาสของเผ่าพันธุ์มนุษย์

วรรณกรรมและภาพยนตร์นิยายวิทยาศาสตร์ตั้งแต่ปี 2001: A Space Odyssey (1968) ถึง Avengers: Age of Ultron (2015) ทำนายว่าปัญญาประดิษฐ์จะเกินความคาดหมายของผู้สร้างและหมุนเกินกว่าจะควบคุมได้ เป้าหมายจะไม่ใช่แค่การแข่งขันกับมนุษย์เท่านั้น แต่ยังเป็นทาสและกำจัดเผ่าพันธุ์ของเราด้วย

นิยายวิทยาศาสตร์หรืออนาคตที่น่ากลัว?

ความขัดแย้งระหว่างผู้คนกับปัญญาประดิษฐ์เป็นประเด็นหลักของซีรีส์นิยายวิทยาศาสตร์เรื่อง Humans ซึ่งซีซั่นที่สามออกฉายในปีนี้ ในตอนใหม่ ผู้คนที่ "สังเคราะห์" ต้องเผชิญกับศัตรูของคนธรรมดาที่ปฏิบัติต่อพวกเขาด้วยความสงสัย ความกลัว และความเกลียดชัง ความรุนแรงลุกลาม "Synths" ต่อสู้เพื่อสิทธิขั้นพื้นฐานกับผู้ที่คิดว่าตนไร้มนุษยธรรม

แฟนตาซีคือที่สุดของจินตนาการ แต่ยังเข้าอยู่. โลกแห่งความจริงไม่ใช่ทุกคนที่ต้องการต้อนรับ AI อย่างเปิดกว้าง ใน ปีที่ผ่านมาขอบเขตของความเป็นไปได้ในจินตนาการของปัญญาประดิษฐ์กำลังขยายออกไปอย่างแข็งขัน ผู้คนต่างพูดถึงอันตรายของมันมากขึ้น และการสันนิษฐานว่าเทคโนโลยีสามารถทำลายมนุษยชาติได้นั้นดูสมจริงมากขึ้น ปัญญาประดิษฐ์ทำให้เรากลัว

ความคิดเห็นเกี่ยวกับปัญญาประดิษฐ์

Elon Musk เป็นหนึ่งในบุคคลที่โดดเด่นที่สุดที่ต้องระมัดระวังเมื่อพูดถึง AI เมื่อเดือนกรกฎาคมปีที่แล้ว ในการประชุมของ National Governors Association เขากล่าวว่า “ฉันมีประสบการณ์มากมายเกี่ยวกับเทคโนโลยี AI และฉันคิดว่านี่คือสิ่งที่มนุษยชาติจำเป็นต้องกังวลจริงๆ ฉันส่งเสียงปลุกต่อไป จนกว่ารถยนต์หุ่นยนต์จะไปตามถนนเพื่อฆ่าผู้คน เราจะไม่รู้ว่าจะตอบสนองต่อสิ่งนี้อย่างไร เพราะโอกาสดังกล่าวถูกมองว่าไม่สมจริง”

ในปี 2014 Musk เรียกปัญญาประดิษฐ์ว่าเป็นภัยคุกคามที่มีอยู่มากที่สุดของเรา และในเดือนสิงหาคม 2017 เขากล่าวว่า AI ก่อให้เกิดความเสี่ยงต่อมนุษยชาติมากกว่าอุดมการณ์ของเกาหลีเหนือ

นักฟิสิกส์ผู้ยิ่งใหญ่ Stephen Hawking ยังได้แสดงความกังวลเกี่ยวกับการใช้ปัญญาประดิษฐ์ในทางที่ผิด ในปี 2014 เขาบอกกับ BBC ว่า "การพัฒนา AI ที่เต็มเปี่ยมสามารถสะกดจุดจบของมนุษยชาติได้"

การโจมตีอีกครั้งเกิดขึ้นโดยทีมโปรแกรมเมอร์จาก MIT Media Lab ในเคมบริดจ์ ซึ่งตัดสินใจพิสูจน์ว่า AI เป็นอันตราย โครงข่ายประสาทเทียม Nightmare Machine ซึ่งนำเสนอที่ MIT ในปี 2559 ได้เปลี่ยนภาพถ่ายธรรมดาๆ ให้กลายเป็นทิวทัศน์ที่น่ากลัวและปีศาจ ปัญญาประดิษฐ์ที่เรียกว่า Shelly (พัฒนาที่ MIT) ได้สร้างเรื่องราวสยองขวัญกว่า 140,000 เรื่องที่ผู้ใช้ Reddit โพสต์ในฟอรัม r/nosleep

“เราสนใจว่าปัญญาประดิษฐ์กระตุ้นอารมณ์ได้อย่างไร โดยเฉพาะอย่างยิ่งในสถานการณ์นี้ มันกระตุ้นให้เกิดความกลัว” Manuel Cebrian ผู้จัดการฝ่ายวิจัยของ MIT Media Lab แสดงความคิดเห็นเกี่ยวกับการทดลองนี้

ทำไมเราถึงกลัว?

ตามคำกล่าวของ Kilian Weinberger ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัย Cornell ความประทับใจด้านลบต่อปัญญาประดิษฐ์แบ่งออกเป็นสองประเภท:

ความคิดที่ว่า AI จะกลายเป็นอิสระอย่างมีสติและพยายามทำลายเรา
ความคิดเห็นที่ว่าผู้โจมตีจะใช้ AI เพื่อจุดประสงค์ของตนเอง

“ปัญญาประดิษฐ์ทำให้เรากลัวเพราะเราคิดว่าปัญญาประดิษฐ์ระดับอุตสาหกรรมขั้นสูงที่ฉลาดกว่าบุคคลจะปฏิบัติต่อเขาเสมือนเป็นมนุษย์ที่ด้อยกว่า เช่นเดียวกับที่เราทำกับไพรเมต และแน่นอนว่านี่เป็นสิ่งที่น่าตื่นเต้นอย่างยิ่งสำหรับมนุษยชาติ”

อย่างไรก็ตาม Weinberger ตั้งข้อสังเกตว่าความกังวลเกี่ยวกับความเหนือกว่าของ AI และความปรารถนาที่จะทำลายเชื้อชาตินั้นมีพื้นฐานอยู่บนความเข้าใจผิดเกี่ยวกับเทคโนโลยี ปัญญาประดิษฐ์นั้นน่าประทับใจเมื่อเราได้เห็นมันทำงานจริง แต่ก็มีข้อจำกัดมากมายเช่นกัน AI ถูกกำหนดโดยอัลกอริธึม พวกเขากำหนดพฤติกรรมโดยใช้ฟังก์ชันที่กำหนดและไม่มีอะไรเพิ่มเติม

โครงข่ายประสาทเทียมทำงานที่ซับซ้อนกับข้อมูลหลายประเภท แต่ทักษะส่วนใหญ่ที่บุคคลครอบครอง แม้จะไม่ได้จงใจพัฒนาทักษะเหล่านั้นก็ตาม ก็ไม่สามารถเข้าถึงสติปัญญาของเครื่องจักรได้

ปัญญาประดิษฐ์สามารถเหนือกว่ามนุษย์ในการทำงานเฉพาะทางได้หลายเท่า ตัวอย่างเช่น การเล่นหมากรุก การระบุวัตถุจากรูปภาพ หรือการวิเคราะห์ข้อมูลขนาดใหญ่ในการบัญชีหรือการธนาคาร

AI ที่จะมีจิตสำนึกที่เป็นอิสระจะไม่ก้าวหน้าจนตกเป็นทาสของมนุษยชาติ และไม่มีเหตุผลใดที่จะเชื่อได้ว่าความก้าวหน้าดังกล่าวจะเกิดขึ้นในอนาคตอันใกล้นี้ Weinberger กล่าวเสริม

แต่มีอีกหัวข้อหนึ่งว่าทำไมปัญญาประดิษฐ์ถึงทำให้เรากลัว - การใช้ความสามารถ AI โดยผู้ที่มีเจตนาไม่ดี สถานการณ์นี้มีความเป็นจริงและอันตรายมากกว่า

ความกลัวของเรามีเหตุผลไหม?

ในโลกของซีรีส์ทางโทรทัศน์เรื่อง Humans มนุษยชาติกลัว AI ที่ชาญฉลาดและต้องเผชิญหน้ากับมันอย่างรุนแรง และเมื่อพิจารณาจากความนิยมของโครงการแล้ว เรื่องนี้ก็ตอบสนองความต้องการของสังคมในปัจจุบัน

ความกลัวต่อเทคโนโลยีไม่สามารถเรียกได้ว่าไม่มีมูลความจริง เนื่องจากมีความเสี่ยงเกิดขึ้นอย่างแน่นอน แต่อันตรายของเครื่องมือใดๆ อยู่ที่ความคิดของผู้ควบคุมมัน แน่นอนว่านี่เป็นคำถามที่มนุษยชาติจำเป็นต้องแก้ไขเพื่อให้ปัญญาประดิษฐ์ทำประโยชน์ได้

1 754

ปัจจุบันทีมผู้เชี่ยวชาญจากต่างประเทศ 26 คนยืนยันว่าการพัฒนาปัญญาประดิษฐ์ (AI) เป็นภัยคุกคามที่ชัดเจนและเป็นปัจจุบัน และรัฐบาลและองค์กรขนาดใหญ่ต้องระวังภัยคุกคามมากมายของเทคโนโลยีนี้ รายงานของผู้เชี่ยวชาญนี้เผยแพร่โดยสถาบันวิจัยความเสี่ยงที่มีอยู่แห่งมหาวิทยาลัยออกซ์ฟอร์ด และองค์กรที่มีชื่อเสียงอื่นๆ อีกจำนวนหนึ่ง รายงานดังกล่าวเตือนถึงการใช้ AI ในทางที่ผิดซึ่งอาจกลายเป็นหนึ่งในภัยคุกคามที่ใหญ่ที่สุดต่อมนุษยชาติ สิ่งเหล่านี้ได้แก่ ความปลอดภัยทางดิจิทัล ความปลอดภัยทางกายภาพ และความปลอดภัยทางการเมือง

ในยุคที่ผู้คนสื่อสารผ่านอินเทอร์เน็ตและโปรแกรมที่สามารถตอบสนองและแกล้งทำเป็นมนุษย์ได้อย่างชาญฉลาด ขณะนี้แพลตฟอร์มเช่น Twitter และ Facebook เต็มไปด้วยบอท หลายๆคนที่เป็นเพื่อนในโซเชียลอาจเป็นบอท! Twitter คาดจำนวนโปรไฟล์บอทอยู่ระหว่าง 25-50 ล้านโปรไฟล์! ในปี 2558 มีผู้ใช้บอทบน Facebook ประมาณ 200 ล้านคน! ในขณะเดียวกัน นักวิทยาศาสตร์กำลังสร้าง "บอทเน็ตทางสังคม" ซึ่งเป็นกองทัพส่วนตัวของ "เพื่อน" อัตโนมัติ บ่อยครั้งที่บอทเหล่านี้หลายพันตัวได้รับการดูแลโดยผู้ดูแลบอท บอทเหล่านี้เลียนแบบพฤติกรรมของผู้ใช้ทั่วไป ข้อความและข้อความจากบอทอื่น ๆ จะปรากฏบนโปรไฟล์ของบอทเหล่านี้ และดูเหมือนว่าจะมาจากคนจริงๆ สิ่งนี้ไม่เป็นความจริง ที่จริงแล้วผลิตภัณฑ์โฆษณาและส่งเสริมมุมมองและมุมมองทางการเมืองที่แตกต่างกัน บอทยังได้รับข้อมูลส่วนบุคคลจำนวนมาก ซึ่งจะถูกประเมิน จัดเก็บ และขาย หากคุณใช้บอทเน็ตเหล่านี้ด้วยเจตนาที่ไม่ดี คุณสามารถก่อให้เกิดความวุ่นวายและขโมยข้อมูลจำนวนมากได้ อัลกอริธึมที่ซับซ้อนสามารถใช้เพื่อจำลองพฤติกรรมของผู้ใช้และเข้าถึงและเจาะโปรไฟล์เฉพาะได้

ในขณะเดียวกัน แชทบอทได้รับการออกแบบเพื่อให้สามารถเลียนแบบสไตล์การเขียนของผู้ใช้ที่เป็นมิตรได้ วิธีการนี้จะสร้างความน่าเชื่อถือและโปรแกรมจะพยายามเข้าถึงคอมพิวเตอร์ให้ได้มากที่สุด ในอีกไม่กี่ปีข้างหน้า การปลอมแปลงแม้กระทั่งวิดีโอและ โทรศัพท์ด้วยภาพปลอมและเสียงเลียนแบบ การใช้ขั้นตอนนี้สถาบันใด ๆ ก็สามารถถูกหลอกได้

เราเห็นภัยคุกคามครั้งต่อไปในหุ่นยนต์ยุคใหม่ ซึ่งจะถูกนำไปใช้ทุกที่ในไม่ช้า แฮกเกอร์คอมพิวเตอร์และ AI (ปัญญาประดิษฐ์) อาจแฮ็กอุปกรณ์เหล่านี้ได้อย่างง่ายดายและนำไปใช้ในทางที่ผิดเพื่อจุดประสงค์ของตนเอง แม้กระทั่งในฐานะอาวุธก็ตาม มันจะเป็นอันตรายมากยิ่งขึ้นหากรวม AI ไว้ในระบบอาวุธอัตโนมัติ เช่น ปืนไรเฟิลซุ่มยิงระยะไกล และระบบป้องกันภัยทางอากาศอัตโนมัติ

ภัยคุกคามร้ายแรงอีกประการหนึ่งมาจากโปรแกรมวิเคราะห์ที่ค้นหา "ข่าวปลอม" บนอินเทอร์เน็ตด้วยความเร็วเหลือเชื่อ และสามารถค้นหาผู้เขียนที่ไม่เหมาะสมได้อย่างรวดเร็ว ถ้าเป็นศัตรูกับรัฐบาลก็จะถูกจับลงโทษทันที จากนั้นพอร์ทัลข่าวของรัฐบาลและหนังสือพิมพ์จะมีปัญหาเพราะคุณจะสามารถตรวจพบการหลอกลวงได้ทันที การจัดการวิดีโอที่เป็นไปได้โดย AI กำลังทำให้เกิดเงาดำในอนาคตอันใกล้นี้ ทุกอย่างจะถูกจัดการและไม่มีใครสามารถเชื่อใจใครหรือสิ่งใดได้อีกต่อไป โดยเฉพาะอย่างยิ่งหาก AI อยู่ในเกม หากใช้อย่างถูกต้อง เทคโนโลยีนี้จะกลายเป็นอาวุธที่ทรงพลังอย่างไม่น่าเชื่อ และเป็นหนึ่งในภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อมวลมนุษยชาติ เมื่อปัญญาประดิษฐ์มีพลังเพียงพอ พวกเขาก็จะสามารถควบคุมและจัดการทุกสิ่งได้อย่างแท้จริง การจัดการจะไร้ขีดจำกัด เธอสามารถเปลี่ยน e-book บทความในหนังสือพิมพ์ และภาพยนตร์ประวัติศาสตร์ได้อย่างง่ายดายและอิสระ โดยไม่มีใครสังเกตเห็น ประวัติศาสตร์ทั้งหมดและข้อเท็จจริงที่สำคัญทั้งหมดสามารถถูกดัดแปลงและเปลี่ยนแปลงได้อย่างละเอียดตลอดไป ซึ่งไม่ก่อให้เกิดปัญหาสำหรับ AI ในการเลียนแบบใบหน้าและเสียงของนักการเมือง ซึ่งอาจก่อให้เกิดความขัดแย้งไม่รู้จบ หาก AI ฉลาดพอ มนุษย์ก็ไม่สามารถต้านทานมันได้อีกต่อไป ตามที่นักพัฒนาปัญญาประดิษฐ์ระบุว่า พวกเขามีแนวโน้มที่จะฉลาดกว่ามนุษย์หลายพันล้านเท่า!

รายงานของผู้เชี่ยวชาญกล่าวถึงข้อเสนอจำนวนหนึ่งเพื่อป้องกันสถานการณ์ดังกล่าว ตัวเลือกแรกคือใช้หัวหน้างานเพื่อจัดการนักพัฒนา KI เพื่อไม่ให้ใช้เทคโนโลยีนี้เพื่อจุดประสงค์ที่เป็นอันตราย จะดำเนินการทันทีเมื่อสงสัยว่ามีเจตนาและเหตุการณ์ที่เป็นอันตราย จึงต้องสร้างวิธีการที่เป็นมาตรฐานเพื่อความปลอดภัย เมื่อเวลาผ่านไป ผู้เชี่ยวชาญจำนวนมากขึ้นจะมีส่วนร่วมในการตรวจสอบและการอภิปรายด้านความปลอดภัยเหล่านี้ ความรับผิดชอบและความโปร่งใสร่วมกันเท่านั้นที่ควรรับประกันว่า AI จะไม่ก่อให้เกิดอันตรายร้ายแรง

จะให้สิ่งนั้นได้อย่างไร? บริษัทคู่แข่ง ผู้พัฒนาระบบอาวุธ และรัฐคู่แข่งจะพยายามนำหน้าคู่แข่งในการพัฒนา AI อยู่เสมอ ดังนั้นมาตรการที่เสนอเหล่านี้จึงไม่เกิดผล คุณต้องเตรียมตัวสำหรับสิ่งที่เลวร้ายที่สุดตอนนี้

เครื่องกำเนิดภาพที่ทำงานร่วมกับอัลกอริธึมที่ได้รับการสนับสนุนจากปัญญาประดิษฐ์กำลังสร้างขอบที่เหมือนจริงอยู่แล้ว NVIDIA ใช้เทคนิค GAN ที่สร้างภาพถ่ายบุคคลที่ไม่มีอยู่จริงอย่างสมจริง แม้แต่เสียงของมนุษย์ก็สามารถคัดลอกได้อย่างสมบูรณ์โดยใช้เทคโนโลยีใหม่ นี่คือสิ่งที่ WaveNet ทำใน Google DeepMind ที่ถูกควบคุม เป็นต้น แม้แต่อัลกอริธึมของ Lyrebird ก็สามารถคัดลอกและเลียนแบบเสียงของมนุษย์ได้ หากคุณมีเวลาบันทึกเสียงเพียงหนึ่งนาที ดังเช่นใน การสนทนาทางโทรศัพท์- ขั้นตอนต่อไปที่ได้ดำเนินการไปแล้วคือให้คอมพิวเตอร์จดจำและตอบสนองต่ออารมณ์ความรู้สึกที่แท้จริงของมนุษย์ ขอบเขตระหว่างคนกับเครื่องจักรกำลังหายไป

แน่นอนว่าเทคโนโลยีทั้งหมดนี้ถูกใช้ไปแล้วเพื่อจุดประสงค์ที่เป็นอันตราย เช่น Facebook เพื่อตั้งโปรแกรมใหม่และควบคุมผู้ใช้ Sean Parker หนึ่งในผู้ก่อตั้ง Facebook มีคำพูดที่ชัดเจนในการให้สัมภาษณ์ Parker เชื่อว่า Zuckerberg บล็อกโปรไฟล์ของเขา แสดงให้เห็นว่า Facebook สามารถทำลายสมองของผู้ใช้ได้! Parker ตั้งข้อสังเกตว่าแพลตฟอร์มโซเชียลเช่น Facebook กำลังเปลี่ยนแปลงพฤติกรรมและสังคมของมนุษย์อย่างแท้จริง ทั้งหมดนี้ต้องแลกมาด้วยประสิทธิภาพการทำงาน และพระเจ้าทรงทราบดีว่าสิ่งนี้กำลังทำอะไรกับสมองของเด็กๆ ของเรา Facebook ได้กำหนดภารกิจในการดึงดูดความสนใจของผู้ใช้ เพื่อให้พวกเขาใช้เวลาส่วนใหญ่บนแพลตฟอร์ม ทำให้เป็นส่วนสำคัญในชีวิตของพวกเขา ทั้งหมดนี้ทำให้เกิดการเสพติดการกระจายโดปามีนด้วย "ความน่ารัก" และความคิดเห็น! นี่คือเกมที่มีจิตวิทยามนุษย์

แน่นอนว่านักพัฒนาเหล่านี้ได้รับข้อมูลจำเพาะและทุกอย่างเป็นไปตามมัลแวร์ แม้ว่าคนอย่าง Zuckerberg และ Parker จะเป็นมหาเศรษฐี แต่พวกเขาก็เป็นเพียงส่วนเล็กๆ ของพวกเขาเท่านั้น เกมใหญ่- Google, Facebook, Youtube ฯลฯ ถูกควบคุมจากแหล่งอื่น อดีตเจ้าหน้าที่ CIA Robert David Steele สามารถระบุและตั้งชื่อผู้บงการได้หลายคน:

  • "Deep State" พร้อมด้วยกลุ่มธนาคาร รวมถึงวาติกัน ลอนดอน และวอลล์สตรีท
  • รัฐบาลไซออนิสต์แห่งอิสราเอลและมอสสาดในความเกี่ยวข้องกับองค์กรไซออนิสต์อเมริกัน AIPAC และสันนิบาตต่อต้านการหมิ่นประมาท (ADL)
  • หัวหน้าของบริษัทสื่อและสตูดิโอภาพยนตร์รายใหญ่ รวมถึง George Soros นักการเงินของพวกเขา
  • จ้างผู้รับเหมาช่วงที่คิดค้นการหมิ่นประมาทและโกหกตามคำสั่ง
  • โทรลล์อินเทอร์เน็ตที่ต้องจ่ายเงินซึ่งมักประกอบด้วยหรือคัดเลือกจากสมาชิกอิสราเอลหรือ ADL
  • โทรลล์สมัครใจที่โง่เกินกว่าจะเข้าใจว่าใครและพวกเขากำลังฟังอะไรอยู่ ("สายนิม")
  • ในที่สุด โทรลล์เหล่านี้สร้างอัลกอริธึมที่ทำงานนอกเหนือการควบคุมและจริยธรรมของมนุษย์โดยสิ้นเชิง
  • “การปิดกั้นเงา” ของโปรแกรมเหล่านี้และการวางตัวเป็นกลางของบุคคลเป้าหมายทางออนไลน์ผ่านบริการโทรลล์อัตโนมัติและอัลกอริธึม
  • ขาดกฎหมายและมาตรฐานบนอินเทอร์เน็ต
  • ดำเนินมาตรการ AI ทั้งหมดนี้

เจ้าหน้าที่ CIA Robert David Steele พูดถึง #Googleเกสตาโป- การรายงานที่เป็นเท็จเหล่านี้อาจส่งผลให้บัญชีหรือโปรไฟล์ของผู้ใช้ถูกระงับจาก Youtube การใช้งานอื่นๆ ได้แก่ การชะลอตัวในเชิงลบหรือบทวิจารณ์ของลูกค้าเพื่อส่งเสริมหรือทำลายผลิตภัณฑ์ สตีลบอกว่ากองทัพโทรลล์ทั้งหมดถูกใช้และจ่ายเงินให้กับ "การสะกดรอยตามฝูงชน" (การสะกดรอยตามแก๊งค์) ตัวอย่างเช่น คุณสามารถทำลายช่อง YouTube ด้วยความคิดเห็นโง่ๆ หรือโกหกเพื่อให้ถูกบล็อกได้ ในขณะเดียวกัน ผู้ดำเนินการช่องระเบิดหรือสื่อทางเลือกส่วนใหญ่ถูกบังคับให้ปิดความคิดเห็น จากการค้นพบของเขา สตีลต้องพบว่าข้อมูลส่วนใหญ่ของเขาได้รับผลกระทบจากการกดขี่ข่มเหงของฝูงชน แม้ว่าเขาจะได้รับการเสนอชื่อเข้าชิงรางวัลโนเบลสาขาสันติภาพในเดือนมกราคม 2017 ก็ตาม!

Robert David Steele มั่นใจว่าเส้นทางเหล่านี้จะนำไปสู่การต่อสู้กับการหมิ่นประมาท (ADL) สิ่งอำนวยความสะดวกนี้ดูเหมือนจะเป็นบริการสอดแนมโซเชียลมีเดียโดยเฉพาะ Steele เชื่อว่า ADL พร้อมด้วยองค์กรไซออนนิสต์ในอิสราเอล ได้ทำให้ศิลปะของ "การฆาตกรรมทางดิจิทัล" สมบูรณ์แบบในช่วงปีแรก ๆ ของโซเชียลมีเดีย ด้วยการวิพากษ์วิจารณ์ความรุนแรงต่อชาวปาเลสไตน์เพียงเล็กน้อย หรือการคว่ำบาตรที่เรียกร้องให้มีผลิตภัณฑ์ของอิสราเอลบนโซเชียลมีเดีย กลุ่มโทรลล์จะถูกรายงานทันทีสำหรับ "คำพูดแสดงความเกลียดชัง" ฯลฯ ผู้วิพากษ์วิจารณ์จะถูกบล็อก ห้าม หรือแบนทันที หรือในกรณีของบริษัทที่ได้รับการจัดอันดับที่เลวร้ายที่สุด

แต่ทั้งหมดนี้ทำหน้าที่เพียงจุดประสงค์เดียวที่ชั่วร้ายยิ่งกว่านั้นนั่นคือการเกิดขึ้นของเทพองค์ใหม่ปัญญาประดิษฐ์ ตามแนวคิดของแวดวงที่หมกมุ่นอยู่กับพลังเหล่านี้ AI ไม่เพียงแต่ควรควบคุม แต่ยังต้องปกครองและบูชาด้วย! ในซิลิคอนแวลลีย์ ซึ่งเป็นที่ซึ่งบริษัทเทคโนโลยีรายใหญ่อาศัยอยู่ ศาสนาใหม่ได้ถูกสร้างขึ้นแล้ว - โบสถ์แห่งปัญญาประดิษฐ์ (วิถีแห่งคริสตจักรแห่งอนาคต) คริสตจักรแห่งนี้ได้รับการสนับสนุนจากองค์กรด้านมนุษยธรรมต่างๆ ที่ทำงานเพื่อลัทธิเหนือมนุษย์ คริสเตียนจำนวนมากเห็นการเกิดขึ้นของกลุ่มต่อต้านพระเจ้าในเหตุการณ์เหล่านี้ Anthony Levandowski ผู้ก่อตั้งคริสตจักรกล่าวว่าถึงเวลาแล้วที่ AI ซึ่งฉลาดกว่ามนุษย์ใดๆ มากจะปกครองโลก โดยหลักการแล้ว นี่ไม่ใช่เรื่องใหม่ ชนชั้นสูงกำลังวางแผนฟื้นฟูเทพเจ้าจอมปลอมซึ่งมีอยู่แล้วใน "เหตุการณ์สำคัญ" ของมนุษยชาติก่อนเกิดน้ำท่วม ดังนั้นนักทรานส์ฮิวแมนลิสต์จึงพูดถึงการสร้างความฉลาดขั้นสูงขึ้นมาใหม่ คดีใหญ่เกี่ยวข้องกับ “เทวดาตก” ที่เชื่อถือความรู้ลับและต้องห้ามก่อนน้ำท่วม ความรู้นี้ทำให้มนุษยชาติเสื่อมทรามและนำมาซึ่งสงครามและความหายนะ

อีกองค์กรหนึ่งที่ส่งเสริมลัทธิเหนือมนุษย์เรียกว่า Humanity+ เป้าหมายคือการแปลงคนปกติโดยใช้อินเทอร์เฟซ AI นาโนเทคโนโลยี และอินเทอร์เฟซระหว่างมนุษย์กับคอมพิวเตอร์ เพื่อที่ว่าในท้ายที่สุดแล้ว สิ่งมีชีวิตที่แตกต่างกันโดยสิ้นเชิงก็โผล่ออกมา ที่เรียกว่า "มนุษย์หลังมนุษย์" คับบาลิสต์บางคน เช่น รับบี โยเซฟ เบอร์เกอร์ เชื่อว่าตามคำทำนายโบราณ "จุดสิ้นสุดของการแก้ไข" ใกล้เข้ามาแล้ว ซึ่งเป็นจุดสูงสุดของความซื่อสัตย์ทางจิตวิญญาณ ด้วยการมาถึงของพวกต่อต้านพระเจ้าหรือ "อาร์มิลา" ในขณะที่เขาถูกเรียกในโตราห์ การปรากฏของพระเมสสิยาห์ของชาวยิวจะเกิดขึ้นในไม่ช้า อย่างไรก็ตาม สิ่งนี้ไม่สามารถเกี่ยวกับพระเยซูคริสต์ได้ ผู้เชี่ยวชาญหลายคนเชื่อว่ากลุ่มชนชั้นสูงที่มืดมนจงใจสร้างความโกลาหลบนโลกเพื่อเติมเต็มคำทำนายนี้ด้วยพลังทั้งหมดของพวกเขา มีเขียนไว้ในคำทำนายโบราณว่า Armil ถือกำเนิดมาจากแนวคิดที่บริสุทธิ์ที่ไม่เคยมีมาก่อน ดังนั้นจึงเป็นไปได้ที่ Armil อาจเป็นมนุษย์ข้ามชาติคนแรกที่มีพลัง "เหมือนพระเจ้า" ในพระคัมภีร์บรรยายไว้ว่าเป็นสัตว์ประหลาดที่มีหัวล้านและมีขนาดใหญ่และ ตาเล็ก- เขาจะต้องหูหนวกข้างขวาและแขนขวาของเขาเสียหาย แขนซ้ายควรยาวกว่าปกติมาก

เทพเจ้าเท็จนี้จะต้องได้รับการบูชาทั่วโลกเป็นระยะเวลาหนึ่ง สื่อที่ถูกควบคุมจะทำลายความจริงสุดท้าย และทุกสิ่งที่มีเหตุผลจะดูไร้สาระ ปัญญาประดิษฐ์ Alexa จาก Amazon หรือ Google Home ตอบได้เกือบทุกคำถาม คุณสามารถตอบได้ว่าใครคือพระพุทธเจ้าหรือโมฮัมเหม็ด แต่ไม่ใช่ใครคือพระเยซูคริสต์! มันไม่แปลกเหรอ? คุณคิดว่ามันคุ้มค่าที่จะพูดถึงหรือไม่? ที่นี่คุณจะเห็นว่าแผนการต่อต้านคริสเตียน ต่อต้านเสรีนิยม และต่อต้านมนุษย์อยู่เบื้องหลัง Google อย่างไร

การใช้งานที่มากเกินไปและความไว้วางใจแบบไร้เหตุผลในบริการของ Google ได้กลายเป็นที่ประจักษ์แก่คนจำนวนมากแล้ว ไม่ใช่เรื่องสำคัญอีกต่อไปที่ผู้คนจะต้องเรียนรู้บางสิ่งบางอย่างผ่านความเป็นไปได้ที่จะได้รับข้อมูลที่ต้องการได้ตลอดเวลาและทุกที่ การศึกษาที่มหาวิทยาลัยฮาร์วาร์ดในปี 2554 พบว่าผู้คนไม่สามารถจดจำข้อมูลได้ในระยะยาว หากพวกเขารู้ว่าคุณสามารถใช้ Google ข้อมูลเหล่านั้นได้ตลอดเวลา ปรากฏการณ์นี้ได้รับการขนานนามว่า “เอฟเฟกต์ของ Google” เมื่อผู้ถูกถามคำถาม พวกเขาไตร่ตรองไตร่ตรองเกี่ยวกับอินเทอร์เน็ตและคอมพิวเตอร์เป็นอันดับแรก จากนั้นจึงมองหาความรู้ในความทรงจำ ซึ่งหมายความว่าวิธีที่เราจดจำสิ่งต่าง ๆ ได้เปลี่ยนไป หลายๆ คนเรียกอาการนี้ว่า “ภาวะความจำเสื่อมทางดิจิทัล” ทุกวันนี้ หลายๆ คนพึ่งพาสมาร์ทโฟนของตนอย่างแท้จริง ดังนั้นจึงจำสิ่งอื่นไม่ได้เลย ไม่เหมือนในอดีต ปัจจุบันเราถูกโจมตีด้วยข้อมูลอย่างต่อเนื่อง และสมองของเราต้องเรียนรู้วิธีรับมือกับข้อมูลทั้งหมดนี้ แน่นอนว่าข้อมูลทั้งหมดนี้ไม่สามารถเก็บไว้ในจิตสำนึกได้

นอกจากนี้ยังมีผลการวิจัยใหม่เกี่ยวกับผลกระทบทางจิตวิทยา จิตใจ และสังคมของเทคโนโลยีดิจิทัลและโซเชียลมีเดียใหม่ๆ โดยเฉพาะอย่างยิ่งสำหรับวัยรุ่น เทคโนโลยีเหล่านี้มีผลกระทบร้ายแรง การมีข้อมูลอยู่ตลอดเวลาทำให้เด็กไม่สามารถคิดได้อย่างอิสระเมื่อถึงเวลาเรียนรู้วิธีพัฒนาความสามารถนี้ ปัญหานี้ทราบกันดีอยู่แล้ว ผู้คนจำนวนมากในซิลิคอนวัลเลย์ปกป้องบุตรหลานของตนจากเทคโนโลยีเหล่านี้ และส่งพวกเขาไปยังโรงเรียนที่ไม่ได้รับอนุญาตให้ใช้อินเทอร์เน็ตและสมาร์ทโฟน

การวิจัยพบว่าเด็กๆ ที่ได้รับข้อมูลข่าวสารอย่างต่อเนื่องมีสุขภาพแย่ลงและมีความเครียดมากขึ้น ยิ่งเด็กๆ ใช้เวลาออนไลน์มากเท่าไร พวกเขาก็จะมีเวลาปฏิสัมพันธ์ทางสังคมที่แท้จริงน้อยลงเท่านั้น สิ่งนี้สะท้อนให้เห็นในจิตใจและความเป็นอยู่ที่ดี ไม่มีการเชื่อมโยงโดยตรง ซึ่งหมายความว่าไม่สามารถตีความการแสดงออกทางสีหน้าและภาษากายได้อย่างถูกต้องอีกต่อไป การขจัดการสนทนาที่ยาวนานจะสูญหายไป ผลที่ได้คือความเครียดและความวิตกกังวลในสถานการณ์ที่ไม่เหมาะสมทางอารมณ์ เมื่อพบคำตอบบนอินเทอร์เน็ต เด็ก ๆ จะไม่สามารถคิดอย่างอิสระอีกต่อไปและค้นหาคำตอบสำหรับคำถามด้วยตนเองและมุ่งเน้นไปที่สิ่งต่าง ๆ ที่ต้องใช้สมาธิและความพยายามเป็นเวลานาน

มหาวิทยาลัยมีปัญหาใหญ่อยู่แล้วเพราะสมาร์ทโฟนมีการใช้งานทุกที่และตลอดเวลา ส่งผลให้นักเรียนมีสมาธิน้อยลง และความก้าวหน้าในการเรียนรู้ก็ลดลง เราสามารถพูดได้ว่าอุปกรณ์ดังกล่าวไม่ได้สร้างคนฉลาด แต่เป็นคนโง่ ขณะนี้โรงเรียนจำนวนมากขึ้นเรื่อยๆ กำลังห้ามการใช้อุปกรณ์เหล่านี้เพื่อฟื้นฟูความคิดของนักเรียน การใช้ Google เป็นประจำจะลดความสามารถในการแก้ไขปัญหาอย่างอิสระอย่างชัดเจน ดังนั้นจึงต้องให้บริการดิจิทัลอย่างระมัดระวัง

นอกจากนี้ยังมีความสัมพันธ์โดยตรงระหว่างความรู้สึกเวลาออนไลน์กับความทุกข์ วัยรุ่นที่ใช้สมาร์ทโฟนบ่อยมากมักไม่มีความสุข นักเรียนที่ใช้เวลาเล่นกีฬา อ่านหนังสือ และเข้าสังคมมากขึ้นมักจะมีความสุขมากขึ้น นอกจากนี้การใช้โซเชียลมีเดียอย่างต่อเนื่องยังทำให้พวกเขาไม่มีความสุขอีกด้วย ส่งผลให้เด็กจำนวนมากในปัจจุบันต่อต้านน้อยลง มีความอดทนและไม่พอใจมากขึ้น และไม่ได้เตรียมตัวให้พร้อมเลย ชีวิตผู้ใหญ่- การละเว้นจากสื่อดิจิทัลโดยสิ้นเชิงก็ไม่สนับสนุนเช่นกัน วิจัย เด็กๆ จะมีความสุขที่สุดเมื่อออฟไลน์ไม่เกินหนึ่งชั่วโมงต่อวัน การวิจัยดำเนินมาตั้งแต่ปี 1990 และตั้งแต่ปี 2012 ความสุขในหมู่ประชากรลดลงอย่างมาก

การศึกษาอื่นๆ ในขณะนี้แสดงให้เห็นว่าอุปกรณ์ทั้งหมดที่ใช้ Wi-Fi และแหล่งรังสีไร้สายอื่นๆ อาจไม่เป็นสารก่อมะเร็ง! อันตรายอย่างยิ่ง โทรศัพท์มือถือ, เสาสัญญาณมือถือ, มิเตอร์อัจฉริยะ, เราเตอร์ WiFi ฯลฯ มีการถกเถียงกันเกี่ยวกับอันตรายของอุปกรณ์เหล่านี้มานานหลายปีและมีการวิจัยทุกประเภทแล้ว

ปัจจุบันนักวิทยาศาสตร์หลายคนอ้างว่าอุปกรณ์เหล่านี้ทั้งหมดเป็นมะเร็งอย่างแน่นอน สัญญาณที่เล็ดลอดออกมาจากอุปกรณ์เหล่านี้ได้รับการรายงานว่าเป็นสารก่อมะเร็ง การวิจัยยังแสดงให้เห็นว่าหนึ่งในสามของประชากรมีความเสี่ยงต่อรังสีไร้สาย แม้ว่ามะเร็งจะไม่พัฒนาในทุกกรณี แต่ก็ทำให้เกิดอาการเจ็บป่วยเนื่องจากไมโครเวฟ พวกมันส่งผลกระทบต่อพืชและสัตว์ด้วยซ้ำ การแผ่รังสีไร้สายและอิเล็กโตรโมสอาจทำให้เกิดการเปลี่ยนแปลงสภาพภูมิอากาศได้ รังสีทำให้เกิดความรู้สึกด้านลบเหล่านี้ ผู้ผลิตไม่สนใจเนื่องจากมีการผลิตเทคโนโลยีนี้นับพันล้าน

แม้ว่าผู้คนจะไม่พอใจกับเทคโนโลยีใหม่ ๆ มากขึ้น แต่ตอนนี้พวกเขากำลังพยายามสอนจริยธรรมของ AI โดยการนำข้อความภาษาสันสกฤตของอินเดียไปใช้ภายใน ตำราเหล่านี้เป็นคัมภีร์พระเวทและเก่าแก่กว่าศาสนาฮินดู ขณะนี้นักวิทยาศาสตร์กำลังวิเคราะห์ข้อความโบราณและมองหาวิธีการทางคณิตศาสตร์เพื่อพัฒนามาตรฐานที่จะช่วยให้ AI สามารถสอนจริยธรรมได้ ขั้นตอนนี้ปัจจุบันอยู่ที่มหาวิทยาลัยเทคนิคแห่งเวียนนา พวกเขากำลังพยายามค้นหาว่าเครื่องจักรรับรู้พฤติกรรมของมนุษย์บางประเภทหรือไม่ และสามารถตัดสินใจได้ว่าพฤติกรรมเหล่านั้นถูกต้องหรือไม่ เป้าหมายคือการสร้างตรรกะให้เครื่องจักรเข้าใจ ตรรกะทางคณิตศาสตร์ควรทำให้ AI สามารถแก้ปัญหาเชิงปรัชญาได้

ทั้งหมดนี้ไม่ใช่เรื่องบังเอิญ มาตรฐานวิทยุเคลื่อนที่ 5G ใหม่จะเปิดตัวในปีนี้ และจะส่งผลให้ได้รับรังสีอย่างมีนัยสำคัญ สิ่งที่ไม่ดีคือมีการวางแผนที่จะให้พื้นผิวโลกสัมผัสกับรังสีที่เป็นอันตรายนี้อย่างต่อเนื่อง นี่เทียบเท่ากับการทำลายล้างสิ่งมีชีวิตทุกรูปแบบตามเป้าหมาย! ไม่มีใครที่มีสุขภาพจิตดีต้องการสิ่งนี้จริงๆ ดูเหมือนว่าจะมีแผนอยู่เบื้องหลังเรื่องนี้ โลกและจิตสำนึกของมนุษย์ควรเปลี่ยนแปลงและมี AI อยู่เบื้องหลัง หรือมันจะทำลายโลกทั้งใบเพียงเพื่อผลกำไรจริงๆ? การฉายรังสีเทียมอย่างต่อเนื่องด้วยสนามแม่เหล็กไฟฟ้าที่ไม่เป็นธรรมชาติทำให้เกิดความไม่สงบขนาดมหึมาบนโลก และทำให้โลกขาดความสามัคคีและสมดุลมากขึ้นเรื่อยๆ โลกควรจะเปลี่ยนไปสู่จิตสำนึกที่ไม่ใช่มนุษย์อย่างแท้จริง และธรรมชาติทางชีวภาพทั้งหมดควรถูกทำลายและปกครองโดยโลกที่ครอบงำโดยเทคโนโลยีโดยสิ้นเชิงในแง่ของลัทธิเหนือมนุษย์หรือไม่?

5G เป็นเครื่องมือที่สมบูรณ์แบบในการเปลี่ยนแปลงคลื่นสมองของมนุษย์อย่างมหาศาล

สนามแม่เหล็กไฟฟ้าตามธรรมชาติเข้าถึงเราจากดวงอาทิตย์ซึ่งเชื่อมต่อกับใจกลางกาแลคซีอย่างต่อเนื่อง ดวงอาทิตย์ควบคุมสนามแม่เหล็กของโลก และส่งผลต่อร่างกายมนุษย์และ DNA ของมัน วิทยาศาสตร์ได้ค้นพบว่าของเรา ระบบสุริยะเพิ่งเคลื่อนเข้าสู่บริเวณที่มีรังสีรุนแรง ในช่วงเวลาไม่กี่ปี คุณสามารถเห็นการเปลี่ยนแปลงของระบบสุริยะทั้งหมด พลังงานที่สูงนี้นำไปสู่การเปลี่ยนแปลงที่รุนแรง รวมถึงในจิตสำนึกของผู้คนด้วย ตามประเพณีและคำทำนายโบราณ พลังงานอันทรงพลังนี้ทำให้เกิดการเปลี่ยนแปลงในจิตสำนึกและนำไปสู่ ​​"ยุคทอง" คนวงในหลายคนบอกว่าพลังบางอย่างบนโลกไม่ต้องการให้เราเติบโตในจิตสำนึก มนุษย์ต้องการให้มนุษยชาติอยู่ในคุกจิตเวชนานยิ่งขึ้น บางองค์กรใช้พลังงานจากเรา ในระหว่างการเพิ่มจิตสำนึก บางคนสามารถยกระดับสติปัญญาขึ้นไปอีกได้ ระดับสูง- กองกำลังแห่งความมืดต้องการป้องกันสิ่งนี้ไม่ว่าจะด้วยวิธีใดก็ตาม นั่นเป็นเหตุผลที่พวกเขาพยายามปกป้องเราจากพลังงานธรรมชาติ และทำให้เราป่วย และควบคุมพวกมันด้วยรังสีที่เป็นอันตราย ท้ายที่สุดแล้วความพยายามเหล่านี้จะไม่ประสบผลสำเร็จ พลังงานอันสูงส่งและโลกเองก็จะทำในสิ่งที่จำเป็น

แต่ก่อนที่จะเกิดการเปลี่ยนแปลงนั้น จะต้องมีเหตุการณ์การสูญพันธุ์ครั้งใหญ่เกิดขึ้นอย่างแน่นอน ตอนนี้ได้สร้างอาวุธพันธุกรรมใหม่ที่มีอำนาจทำลายล้างสูงซึ่งสามารถกวาดล้างเผ่าพันธุ์และสายพันธุ์ทั้งหมดได้ นี่คือสิ่งที่เรียกว่า "Gin Disc" ด้วย Gene Drive คุณสามารถตั้งโปรแกรมลำดับยีนใหม่และบังคับให้ร่างกายคัดลอกลำดับเหล่านั้นได้ พูดง่ายๆ ก็คือคุณสามารถตั้งโปรแกรมใหม่ให้กับมนุษย์ทั้งหมดและพันธุกรรมของมันได้ ความจริงที่ว่ายีนที่เปลี่ยนแปลงเหล่านี้ยังถูกส่งต่อไปยังลูกหลานด้วย หมายความว่าในทางทฤษฎีมีความเป็นไปได้ที่จะสร้างโปรแกรมประชากรทั้งหมดของโลกใหม่ในปัจจุบัน วิธีหนึ่งที่ลำดับยีนเหล่านี้แพร่กระจายคือผ่านทางยุงและสัตว์ขนาดเล็กที่ได้รับการผสมพันธุ์เป็นพิเศษและปล่อยสู่ป่า พวกเขาอาจกำลังวางแผนที่จะเผยแพร่ยีนอันชาญฉลาดเพื่อต่อสู้กับจำนวนประชากรมากเกินไปหรือแพร่กระจายโรคที่เป็นอันตราย

โครงการทั้งหมดได้รับทุนจากหน่วยงานกลาโหม DARPA ของสหรัฐอเมริกา มีการเผยแพร่เอกสารที่แสดงให้เห็นว่ามูลนิธิบิลและเมลินดาเกตส์แจกจ่ายเงินจำนวนมากให้กับผู้ทำการแนะนำชักชวนสมาชิกรัฐสภาเพื่อป้องกันไม่ให้งานวิจัยดังกล่าวถูกแบน แอปพลิเคชันอื่นคือ CRISPR ซึ่งช่วยให้สามารถตัดลำดับ DNA เฉพาะและเปิดใช้งานยีนได้ ดังนั้นจึงเป็นไปได้ในทางทฤษฎีที่จะเปลี่ยนแปลงร่างกายของคุณเองตามต้องการ พวกเขาวางแผนที่จะปล่อยยุงกลายพันธุ์ในปี 2572 เพื่อกำจัดยุงที่น่ารำคาญเหล่านั้นทั้งหมด พวกมันควรจะแพร่เชื้อไปยังประชากรยุงทั้งหมดและทำให้พวกมันดับลง ซึ่งจะช่วยลดการแพร่กระจายของโรคมาลาเรียได้ หากความพยายามนี้ประสบความสำเร็จ สัตว์แคงเกอร์ หนู หรือคางคกบางชนิดก็ตกเป็นเป้าหมายในออสเตรเลียแล้ว เนื่องจาก DARPA กำลังทำอยู่ งานวิจัยก็สามารถสันนิษฐานได้ว่าเป้าหมายทางทหารอยู่เบื้องหน้า หากมีสิ่งผิดปกติเกิดขึ้น ลำดับยีนที่เปลี่ยนแปลงเหล่านี้สามารถแพร่กระจายไปยังสิ่งมีชีวิตต่างๆ มากมายได้ มนุษยชาติพร้อมที่จะแทรกแซงแผนการสร้างอย่างลึกซึ้งแล้วหรือยัง?

Stephen Hawking เตือนว่าปัญญาประดิษฐ์เป็นภัยคุกคามต่อมนุษย์ ปัญญาประดิษฐ์ที่มนุษย์สร้างขึ้นอาจกลายเป็นหายนะครั้งใหญ่ที่สุด(!) ซึ่งแข่งขันกับอารยธรรมของมนุษย์

ปัญญาประดิษฐ์ หุ่นยนต์แห่งอนาคต - การสนับสนุนของมนุษย์

ความฉลาดทางอิเล็กทรอนิกส์สามารถสร้างอารยธรรมเครื่องจักรของตัวเองได้ จึงกลายเป็นหนึ่งในภัยคุกคามที่ร้ายแรงที่สุดต่อมนุษยชาติ

คำทำนายอันตรายมาจากนักฟิสิกส์ชื่อดัง Stephen Hawking (ผู้ค้นพบโลกแห่งจักรวาล) สำหรับสมัยของเรานี้แน่นอน ภัยคุกคามที่อาจเกิดขึ้นแต่วันหนึ่ง “วันที่ดี” ในอนาคต ปัญญาประดิษฐ์อาจพัฒนา “ความตั้งใจของตัวเอง” ตอนนี้ถึงเวลาที่จะต้องคิดอย่างจริงจังเกี่ยวกับปัญหานี้

นักฟิสิกส์ออกคำเตือนอีกครั้ง: ปัญญาประดิษฐ์สามารถพัฒนาเป็นโครงสร้างการคิดที่สมบูรณ์แบบได้ ซับซ้อนและชาญฉลาดมากจนเธอสามารถควบคุมความสามารถในการเติบโตและเข้าใจโลกตามเจตจำนงของเธอเองซึ่งอาจขัดแย้งกับแผนการของมนุษยชาติ

สิ่งนี้อาจนำไปสู่การเกิดขึ้นของอาวุธทรงพลังและกระตุ้นให้เกิดการสูญเสียดินแดนที่ถูกควบคุมโดยมนุษยชาติ — ศาสตราจารย์ฮอว์คิงเรียกร้องให้นักวิจัยศึกษาปัญหาพฤติกรรมของปัญญาประดิษฐ์และความเป็นไปได้ในอนาคตอย่างรอบคอบ

ต้องบอกว่าศาสตราจารย์ฮอว์คิงไม่ได้มองข้ามแนวคิดเรื่องปัญญาประดิษฐ์ไปในด้านลบ นักวิทยาศาสตร์ชี้ให้เห็นว่าถ้าเราทำการบ้านและค้นคว้าข้อมูลให้ดีพอ เราก็จะทำได้

ด้วยผู้ช่วยอย่าง AI เราก็สามารถทำได้ ภาพที่ดีขึ้นชีวิตนักฟิสิกส์กล่าว ปัญญาประดิษฐ์สามารถช่วยมนุษยชาติขจัดโรคภัยไข้เจ็บและความยากจนได้

ศาสตราจารย์ฮอว์คิงพูดในพิธีเปิดศูนย์ The Leverhulme โดยกล่าวถึงประโยชน์ของระบบอัจฉริยะของเครื่องจักรและแง่ลบของศูนย์ ศูนย์แห่งนี้สร้างขึ้นเพื่ออนาคตแห่งปัญญา ออกแบบมาเพื่อดำเนินการวิจัยและศึกษาผลกระทบ การพัฒนาอย่างรวดเร็วปัญญาประดิษฐ์.

ควรจำไว้ว่าสำหรับ Stephen Hawking 100 ปีคือช่วงเวลาหนึ่ง ในความเป็นจริง AI อัจฉริยะนั้นไม่ได้เป็นปัญหาสำหรับอีกร้อยปีข้างหน้าด้วยซ้ำ เว้นแต่จะมีใครนำโปรเซสเซอร์จากปี 2135 มาด้วยซ้ำ

ศูนย์ Leverulm เพื่ออนาคตของ AI จะรวบรวมความร่วมมือระหว่างมหาวิทยาลัยหลายแห่งในสหราชอาณาจักรและสหรัฐอเมริกา แนวคิดคือการสร้างชุมชนการวิจัยแบบสหวิทยาการ

ทีมงานวางแผนที่จะทำงานอย่างใกล้ชิดกับธุรกิจและรัฐบาลเพื่อพยายามเหนืองานอื่น ๆ เพื่อกำหนดความเสี่ยงในระยะสั้นและระยะยาวและประโยชน์ของการเดิมพันปัญญาประดิษฐ์ ผู้อำนวยการศูนย์ ฮิว ไพรซ์ ยืนยันว่า การสร้างเครื่องจักรอัจฉริยะเป็นขั้นตอนสำคัญของมนุษยชาติ และศูนย์จะพยายามสร้าง "อนาคตที่ดีที่สุด"

นอกเหนือจากการวิจัยที่หลากหลายแล้ว ศูนย์จะวิเคราะห์ผลกระทบของการพัฒนาเครื่องจักรอัจฉริยะ เช่น หุ่นยนต์ อย่างรวดเร็ว หุ่นยนต์เสนอวิธีแก้ปัญหา ชีวิตประจำวันสร้างความเสี่ยงและประเด็นขัดแย้งทางจริยธรรมสำหรับมนุษยชาติ หลายคนที่ไม่ไว้วางใจอุปกรณ์อิเล็กทรอนิกส์กลับกลัว AI และนอกจากนี้ ความฉลาดทางดิจิทัลยังสามารถก้าวข้ามความฉลาดของมนุษย์และควบคุมชีวิตมนุษย์ได้

ฉันเชื่อว่าไม่มีความแตกต่างอย่างลึกซึ้งระหว่างสิ่งที่สามารถทำได้ด้วยสมองทางชีววิทยาและสิ่งที่สามารถทำได้ด้วยคอมพิวเตอร์ ดังนั้น ตามทฤษฎีแล้ว คอมพิวเตอร์สามารถเลียนแบบความฉลาดของมนุษย์ได้ ซึ่งเหนือกว่ามัน เอส. ฮอว์คิง.

ศาสตราจารย์ฮอว์คิงเชื่อว่าประโยชน์ที่เป็นไปได้ของ AI ในชีวิตของเรานั้นมีมาก การปฏิวัติทางเทคโนโลยีดังกล่าวสามารถช่วยให้มนุษยชาติสามารถพลิกกลับความเสียหายบางส่วนที่เกิดกับโลกได้ “ความสำเร็จในการสร้าง AI อาจเป็นเหตุการณ์ที่ยิ่งใหญ่ที่สุดในประวัติศาสตร์ของอารยธรรม” ศาสตราจารย์ฮอว์คิงกล่าว

แต่นี่อาจเป็นขั้นตอนสุดท้ายในประวัติศาสตร์ของมนุษย์ เว้นแต่ว่าเราจะเรียนรู้วิธีหลีกเลี่ยงความเสี่ยง เพราะนอกจากข้อดีแล้ว AI ยังอาจทำให้เกิดอันตรายได้ เช่น อาวุธอันทรงพลัง วิธีการใหม่ ๆ สำหรับคนเพียงไม่กี่คนในการกดขี่คนจำนวนมาก ท้ายที่สุดแล้ว สิ่งนี้อาจส่งผลให้เกิดการครอบงำของธาตุเหล็กเหนือวัตถุทางชีวภาพ และก่อให้เกิดหายนะครั้งใหญ่ในอนาคต

จะเกิดอะไรขึ้นถ้า AI และเรากำลังพูดถึงความฉลาดที่มีความสามารถในการเริ่มต้นการเลือกพฤติกรรม ขัดแย้งกับแง่มุมชีวิตของบุคคลล่ะ? ท้ายที่สุดแล้วผู้ช่วยเหล็กที่เชื่อฟังในครัวก็สามารถฝึกใหม่ในฐานะเผด็จการของเงื่อนไขได้!

— การพัฒนา AI อันทรงพลังอาจเป็นสิ่งที่ดีที่สุดหรือเลวร้ายที่สุดที่จะเกิดขึ้นกับมนุษยชาติ เราไม่รู้ว่าอนาคตจะเป็นอย่างไร ศาสตราจารย์ฮอว์คิงกล่าว นั่นเป็นเหตุผลว่าทำไมในปี 2014 ฉันและคนอื่นๆ อีกหลายคนจึงเรียกร้องให้มีการวิจัยเพิ่มเติมในสาขานี้ ฉันดีใจมากที่มีคนได้ยินฉัน ศาสตราจารย์ฮอว์คิง กล่าวปิดท้ายในพิธีเปิดศูนย์

ในเนื้อหานี้ ฉันจะพยายามขยายประเด็นที่ได้รับการกล่าวถึงโดยย่อในสิ่งพิมพ์ของ Gatebox หรือความคิดบางประการเกี่ยวกับอนาคตของปัญญาประดิษฐ์

กล่าวโดยย่อ วิทยานิพนธ์ “ของฉัน” คือ ถ้ามันไปถึงระดับเหนือมนุษย์ AI จะกลายเป็นอะไรบางอย่างเหมือนพระเจ้า ไม่ว่าจะดำรงอยู่แยกจากหรืออยู่ร่วมกับมนุษย์ ในกรณีแรก คำถามเกี่ยวกับการอยู่ร่วมกันของมนุษยชาติกับพระเจ้าที่มันสร้างขึ้นยังคงเปิดกว้าง: ไม่ว่ามันจะดูแลเราในทุกวิถีทางที่เป็นไปได้ (ในขณะที่เราดูแลพืชหายาก) หรือมันจะทำลายล้างเรา (ในขณะที่เราทำลายล้าง) ตัวอย่างเช่นวัชพืชที่เป็นอันตรายในสวนของเรา) หรือมันจะไม่สนใจเรา - เช่นเดียวกับที่เราไม่แยแสกับหญ้าบนสนามหญ้า เป็นไปไม่ได้เลยที่จะทำนายเป้าหมายและระบบคุณค่าของเทพเจ้าที่เพิ่งสร้างใหม่ - ดังที่ผู้เชื่อจะพูดว่า "วิถีทางของพระเจ้านั้นลึกลับ"

สิ่งที่คาดเดาไม่ได้น้อยกว่าคือพฤติกรรมของ AI ซึ่งอยู่ในรูปแบบกึ่งกลางระหว่างเทพเจ้าแห่งอนาคตสมมุติและระบบที่ค่อนข้างดั้งเดิมในปัจจุบัน ตามอัตภาพ AI ดังกล่าวเรียกว่าแข็งแกร่งและระดับของมันสอดคล้องกับระดับของมนุษย์ ในทางกลับกันสามารถแบ่งออกเป็นสองประเภท - มีและไม่มีความตระหนักรู้ในตนเอง การตระหนักรู้ในตนเองคืออะไรเป็นคำถามที่เปิดกว้างและซับซ้อนมาก ตามความเข้าใจของฉัน นี่คือชุดของความรู้สึกทางร่างกายและจิตใจที่พัฒนาขึ้นโดยธรรมชาติในช่วงวิวัฒนาการหลายล้านปี คุณสมบัติที่สำคัญการตระหนักรู้ในตนเองคือการต่อต้านผู้ถือต่อโลกรอบตัว ไม่ว่ามันจะเป็นไปได้หรือไม่ที่จะทำซ้ำมันขึ้นมา ไม่ว่ามันจะเกิดขึ้นเองในระบบทางปัญญาหรือไม่ (ซึ่งจะรับรู้และรับรู้ถึงตัวเองในทันที) ก็เป็นหัวข้อของการอภิปรายขนาดใหญ่แยกต่างหาก ในตอนนี้ เราจะแก้ไขความเป็นไปได้ของทั้งสองตัวเลือกและพิจารณาแต่ละรายการ

จากมุมมองของฉัน AI ที่แข็งแกร่งโดยไม่มีการตระหนักรู้ในตนเองจะปลอดภัยอย่างสมบูรณ์ (หรือแม่นยำกว่านั้นคือคาดเดาได้) เนื่องจากไม่สามารถมีความปรารถนาใดๆ ได้ พฤติกรรมทั้งหมดของเขาจะขึ้นอยู่กับเป้าหมายและข้อจำกัดที่มีอยู่ในตัวเขา แต่ที่น่าแปลกในแง่นี้ AI ที่แข็งแกร่งพร้อมการตระหนักรู้ในตนเองนั้นไม่ได้แตกต่างโดยพื้นฐานจาก AI ที่แข็งแกร่งโดยไม่มีการตระหนักรู้ในตนเอง สำหรับเราดูเหมือนว่าเรามีเจตจำนงเสรีและเป็นอิสระในการกระทำของเรา - อันที่จริงนี่ไม่ใช่กรณี เป้าหมาย ความต้องการ และหลักการยับยั้งทั้งหมดของเราได้รับการตั้งโปรแกรมไว้ในตัวเราโดยธรรมชาติ - เพื่อใช้ชีวิต กิน ดื่ม ความรัก ผ่อนคลาย ฯลฯ หรือถูกกำหนดโดยสภาพแวดล้อมของเรา (การเลี้ยงดูที่ได้รับในวัยเด็ก ภาพยนตร์และนิยาย กฎหมาย ประเพณี และอื่นๆ) - มุ่งมั่นเพื่ออำนาจ สร้างอาชีพ ช่วยเหลือผู้อื่น สำรวจโลก ฯลฯ ดังนั้น ในทางทฤษฎี ในทำนองเดียวกัน มันเป็นไปได้ที่จะเขียนโปรแกรมและฝึก AI ที่ตระหนักรู้ในตนเอง ซึ่งเช่นเดียวกับเรา ที่จะปกปิดภาพลวงตาที่ว่ามันมีเจตจำนงเสรี

จากมุมมองของภัยคุกคามที่อาจเกิดขึ้น มาดู AI ที่ตระหนักรู้ในตนเอง - ภัยคุกคามใดที่อาจก่อให้เกิดอันตรายต่อเรา และจะหลีกเลี่ยงหรืออย่างน้อยก็ลดได้อย่างไร แน่นอนว่าการฝึกอบรม AI ที่แข็งแกร่งจะต้องมีจริยธรรมด้วย เช่นเดียวกับที่ AI ที่อ่อนแอเรียนรู้ฟังก์ชันระบบขับเคลื่อนอัตโนมัติโดยการสังเกตพฤติกรรมของผู้ขับขี่ที่มีประสบการณ์ AI ที่แข็งแกร่งสามารถสอนจริยธรรมได้ด้วยการ "ป้อน" วรรณกรรมให้กับมัน - ตั้งแต่นิทานที่ค่อนข้างเรียบง่ายและควรมีศีลธรรม ไปจนถึงหนังสือที่มีลักษณะที่ซับซ้อนและขัดแย้งกัน ไม่ทางใดก็ทางหนึ่งวรรณกรรมโลกสะท้อนให้เห็นถึงทั้งจริยธรรมและการเปลี่ยนแปลงซึ่งแสดงออกในความเป็นมนุษย์และโลกาภิวัตน์ ความสัมพันธ์ทางสังคม.

AI ที่แข็งแกร่งจะได้รับการสอนจริยธรรมตามวรรณกรรมโลกอย่างไร เช่นเดียวกับระบบอัจฉริยะอื่นๆ AI ที่แข็งแกร่งจะสามารถตรวจจับความสัมพันธ์และรูปแบบในชุดข้อมูลได้ เมื่ออ่านหนังสือหนึ่งล้านหรือสองเล่มแล้วเขาควรจะพัฒนาแบบอะนาล็อกของพระบัญญัติสิบประการของคริสเตียนโดยไม่ยาก แต่การตีความก็ยากพอ ๆ กันโดยคำนึงถึงสถานการณ์เช่นเดียวกับที่บุคคลทำ น่าเสียดายที่ไม่สามารถระบุบัญญัติเหล่านี้ได้อย่างชัดเจน เช่นเดียวกับกฎหุ่นยนต์สามข้อของไอแซค อาซิมอฟ และนี่คือเหตุผล ฉันขอเตือนคุณ (อ้างจาก Wikipedia):

  • หุ่นยนต์ไม่สามารถก่อให้เกิดอันตรายต่อบุคคลหรือปล่อยให้บุคคลได้รับอันตรายโดยไม่ใช้งาน
  • หุ่นยนต์จะต้องเชื่อฟังคำสั่งทั้งหมดของมนุษย์ เว้นแต่คำสั่งเหล่านั้นขัดแย้งกับกฎข้อที่หนึ่ง
  • หุ่นยนต์จะต้องดูแลความปลอดภัยของตัวเองในขอบเขตที่ไม่ขัดแย้งกับกฎข้อที่หนึ่งหรือสอง
  • ด้วยสูตรนี้ เราได้ระบบดั้งเดิมที่มีชุดการดำเนินการที่จำกัด ตัวอย่างเช่น เธอจะทำอะไรไม่ถูกเลยในการปฏิบัติการของตำรวจ ทหาร หรือกู้ภัย คุณอาจโต้แย้งได้ว่าการใช้หุ่นยนต์ในสงครามเป็นสิ่งที่ไม่พึงปรารถนาอย่างยิ่ง และคุณคงคิดผิด นอกจากข้อเท็จจริงที่ว่าสิ่งนี้จะช่วยลดการสูญเสียของบุคลากรในประเทศที่ใช้หุ่นยนต์เหล่านี้แล้ว ความสูญเสียของประชากรพลเรือนในประเทศที่ดำเนินการในอาณาเขตก็จะลดลงด้วย การต่อสู้- โดยเฉพาะอย่างยิ่งเนื่องจากการรับรู้เป้าหมายทางทหารที่ดีขึ้นและการปฏิบัติตามกฎระเบียบจริยธรรม ฯลฯ อย่างเคร่งครัด - ปราศจากอารมณ์ซึ่งมักผลักดันให้บุคลากรทางทหารก่ออาชญากรรม (เพื่อแก้แค้น เพื่อความสนุกสนาน ฯลฯ)

    แต่แม้จะอยู่ในสภาพแวดล้อมที่สงบสุข AI ก็สามารถกลายเป็นนักฆ่าที่ไม่เต็มใจ และไม่จำเป็นต้องเป็นเจ้าหน้าที่ตำรวจ ลองนึกภาพว่าเบรกรถของคุณล้มเหลวและกำลังวิ่งไปตามถนนคดเคี้ยวบนภูเขาด้วยความเร็วสูง - และด้านหน้ามีรถบัสเต็มไปด้วยผู้โดยสาร ถึงแม้จะเป็นเรื่องน่าเศร้าสำหรับคุณ แต่สิ่งที่ถูกต้องที่สุดจากมุมมองด้านจริยธรรมคือการขับรถชนหน้าผา - การชนเข้ากับรถบัสอาจช่วยชีวิตคุณได้ แต่ในขณะเดียวกันก็มีแนวโน้มมากที่สุด ฆ่าคนอีกหลายคน อาจมีสถานการณ์ที่คล้ายกันมากมายที่ต้องเลือกระหว่างการตัดสินใจที่ไม่ดีและการตัดสินใจที่แย่มาก และในทุกกรณี AI ซึ่งปฏิบัติตามกฎสามข้อของวิทยาการหุ่นยนต์อย่างเคร่งครัดจะช่วยเหลือตัวเองไม่ได้

    สมมติว่าฉันได้โน้มน้าวคุณถึงความจำเป็นในการสอนจริยธรรม AI ที่แข็งแกร่ง หลังจากนั้นเราก็สามารถเริ่มสอนระบบกฎที่เป็นทางการมากขึ้นได้ - กฎหมาย กฎบัตร รายละเอียดงานฯลฯ พวกเขาจะมีลักษณะลำดับความสำคัญสำหรับเขา แต่จะเสริมด้วยจริยธรรมในประเด็นที่ไม่ได้ถูกควบคุมโดยพวกเขา ตัวอย่างเช่น ทหาร AI ที่ได้รับการฝึกฝนให้ต่อสู้จะไม่เพียงแต่สามารถทำลายศัตรูเท่านั้น แต่ยังรักษาสมดุลระหว่างการกระทำระดับมืออาชีพกับจริยธรรมอีกด้วย สิ่งนี้ทำให้เกิดชุดใหญ่ล้วนๆ ประเด็นการปฏิบัติ: เป็นไปได้หรือไม่ที่จะทำลายรังของมือปืนในอาคารที่อยู่อาศัยโดยทำให้ผู้อยู่อาศัยต้องเสียชีวิตจำเป็นต้องปฏิบัติตามคำสั่งจากคำสั่งที่ฝ่าฝืนกฎหมาย ฯลฯ และอื่น ๆ แต่ก็ไม่มีประโยชน์ที่จะพูดคุยกันด้วยเหตุผลที่ทำให้ทหารคนใดต้องเผชิญกับคำถามที่คล้ายกัน ดังนั้นการตัดสินใจของพวกเขาจึงค่อนข้างอยู่ในด้านเทคนิค - จะให้อะไรและลำดับความสำคัญอะไร

    ในความคิดของฉัน คำถามที่น่าสนใจกว่านั้นเกี่ยวข้องกับโอกาสในการคิดใหม่เกี่ยวกับจริยธรรมโดย AI อันทรงพลัง ดังที่ฉันได้กล่าวไปแล้ว ตลอดการดำรงอยู่ของอารยธรรมมนุษย์ จริยธรรมในพื้นฐานพื้นฐานไม่ได้เปลี่ยนแปลง - การเปลี่ยนแปลงที่เกี่ยวข้องกับความเป็นมนุษย์และโลกาภิวัตน์ การเปลี่ยนแปลงเหล่านี้ไม่ได้เกิดขึ้นโดยบังเอิญและมีความสำคัญมากในการประเมินโอกาสสำหรับการพัฒนาในอนาคต จริยธรรมจึงเสนอให้พิจารณาให้ละเอียดยิ่งขึ้น

    โลกาภิวัตน์ของจริยธรรมหมายถึงการแพร่กระจายไปยังส่วนต่างๆ ของประชากรในวงกว้างมากขึ้น กาลครั้งหนึ่ง เป็นไปได้โดยไม่ต้องรับโทษ (ไม่ถือว่าเป็นบาปและได้รับการสนับสนุนด้วยซ้ำ) ที่จะฆ่า ปล้น หรือข่มขืนบุคคลภายนอกเผ่าหรือเผ่า รัฐ ชนชั้น เชื้อชาติ - ปัจจุบันอาชญากรรมเหล่านี้ไม่มีข้อยกเว้น อย่างน้อยก็ภายใน กรอบของสังคมมนุษย์ ต้องขอบคุณการต่อสู้เพื่อสิทธิในฐานันดรที่สามที่มีมายาวนานหลายศตวรรษ สิ่งนี้จึงกลายเป็นประเพณีแบบหนึ่งที่ในโลกตะวันตกยอมรับผู้หญิงกลุ่มแรก จากนั้นจึงเป็นตัวแทนของเชื้อชาติที่ไม่มีตำแหน่ง กลุ่มชาติพันธุ์และศาสนา และในปัจจุบันคือชนกลุ่มน้อยทางเพศ

    ในทางกลับกัน ความเป็นมนุษย์นั้นเกิดจากการพัฒนาเทคโนโลยีที่ทำให้ชีวิตมนุษย์สะดวกสบายและปลอดภัยยิ่งขึ้น พวกเขาช่วยผู้คนจากความจำเป็นในการยึดครองดินแดนใหม่ (ซึ่งครั้งหนึ่งเคยเป็นทรัพยากรหลัก) และลดอัตราการเสียชีวิต (ซึ่งเมื่อเวลาผ่านไปทำให้เกิดขึ้นเร็ว รวมถึงความรุนแรง และความตายไม่ใช่เรื่องธรรมดา) โดยไม่แสร้งทำเป็นว่า คำอธิบายแบบเต็มเหตุผลของโลกาภิวัตน์และมนุษยธรรมของจริยธรรม แต่ฉันสามารถพูดได้อย่างมั่นใจว่าสิ่งเหล่านี้เป็นปรากฏการณ์ทางธรรมชาติโดยสมบูรณ์ แต่หลักการสำคัญของจริยธรรมคือความปรารถนาของสังคมให้เกิดความสมดุล ตัวอย่างเช่น ในสังคมดึกดำบรรพ์มีการห้ามการแต่งงานภายในกลุ่มเดียวกันอย่างเข้มงวด คนทันสมัยอาจคิดว่านี่เป็นเพราะอันตรายทางชีวภาพของการร่วมประเวณีระหว่างพี่น้อง แต่ตามที่นักมานุษยวิทยากล่าวว่าการห้ามมีสาเหตุมาจากความปรารถนาที่จะหลีกเลี่ยงความขัดแย้งภายในระหว่างผู้ชาย ไม่จำเป็นต้องพูดคุยเกี่ยวกับการฆาตกรรมหรือการปล้น - สิ่งเหล่านั้นถูกห้ามไม่ใช่เพราะพวกเขาไม่ดี แต่เพราะพวกเขานำไปสู่ความขัดแย้งและด้วยเหตุนี้จึงเต็มไปด้วยการทำลายล้างของสังคม ด้วยเหตุผลเดียวกัน การฆาตกรรมและการปล้นจึงมักไม่ถูกห้ามเกี่ยวกับคนแปลกหน้า เมื่อโลกาภิวัตน์ก้าวหน้า พื้นที่ของความสัมพันธ์ทางสังคมที่ต้องการความมั่นคงก็ขยายออกไป เช่น กฎหมายเริ่มนำไปใช้กับชนเผ่าและหมู่บ้านใกล้เคียง ประเทศและประชาชนที่ถูกยึดครอง ฯลฯ

    การกุศลอาจเป็นภาพสะท้อนของความปรารถนาในจิตใต้สำนึกเพื่อความสมดุลทางสังคมในปัจจุบัน - ความแตกต่างทางสังคมก่อให้เกิดหรืออย่างน้อยก็กินอาหาร การปฏิวัติ การก่อการร้าย ฯลฯ บทบาทของจริยธรรมในเรื่องของการรักษาเสถียรภาพและความมั่นคงโดยรวมนั้นแสดงให้เห็นได้ดีที่สุดตามกฎหมาย ตัวอย่างเช่น กฎหมายอาญาเกือบจะเหมือนกันทุกที่ - สมาชิกทุกคนในสังคมไม่ต้องการถูกฆ่าหรือปล้นเท่า ๆ กัน - และในขณะเดียวกันพวกเขาก็ไม่จำเป็นต้องก่ออาชญากรรมเหล่านี้ด้วยตนเองเนื่องจากพวกเขาสามารถเลี้ยงตัวเองด้วยการใช้แรงงานอย่างสันติ (ไม่เหมือนกับชาวสแกนดิเนเวียบางคนในศตวรรษที่ 9-11) แต่กฎหมายระหว่างประเทศขัดแย้งและไม่มั่นคงอย่างยิ่ง สิทธิของประเทศต่างๆ ในการตัดสินใจด้วยตนเองและหลักการบูรณภาพแห่งดินแดนของรัฐต่างๆ ไม่สามารถอยู่ร่วมกันได้

    มีแนวโน้มว่า AI จะพิจารณามาตรฐานทางจริยธรรมส่วนบุคคลหรือแม้แต่จริยธรรมทั้งหมดใหม่ทั้งหมด ตัวอย่างเช่น เขาจะคำนวณด้วยความแม่นยำทางคณิตศาสตร์ว่าอารยธรรมอันชาญฉลาดใดๆ จะพินาศไปจากอารยธรรมของตนอย่างหลีกเลี่ยงไม่ได้ (โดยการเริ่มสงครามนิวเคลียร์ การเสื่อมถอยลงเนื่องจากการถอนตัวไปสู่ความเป็นจริงเสมือน ฯลฯ) - และนั่นหมายความว่าจำเป็นต้องปรับทิศทางการพัฒนาของ อารยธรรมจากเส้นทางเทคโนโลยีสู่จิตวิญญาณ ด้วยการทำลายล้างการศึกษาแบบดั้งเดิมและการโค่นล้มมนุษยชาติให้กลายเป็นสภาวะที่เรามองว่าไม่มีอะไรมากไปกว่าลัทธิคลุมเครือในยุคกลาง ไม่ว่าสิ่งนี้จะทำให้เราตกใจมากเพียงใดในตอนนี้จากมุมมองของการอยู่รอดของมนุษยชาติสิ่งนี้ก็จะถูกต้อง - เราเพียงแค่ต้องเข้าใจว่าจากจุดยืนในปัจจุบันเราจะรับรู้ว่านี่เป็นการลุกฮือของเครื่องจักรและความพยายามที่จะทำลายอารยธรรมของเรา

    ภัยคุกคามถัดไปเกิดขึ้นในกรณีของการพัฒนาแนวคิดทางจริยธรรมของ AI ที่ก้าวหน้าเมื่อเทียบกับของเรา ก็เพียงพอแล้วที่จะจินตนาการว่าในศตวรรษที่ 16 เมื่อแม่มดและคนนอกรีตถูกเผาทั่วยุโรปตะวันตก ทัศนคติที่อดทนต่อการแต่งงานของเพศเดียวกันในปัจจุบันของเราจะถูกรับรู้ได้อย่างไร ดังนั้นจึงเป็นไปได้ว่า เมื่อแซงหน้าเราในการพัฒนาของตัวเอง AI จะกลายเป็นสิ่งที่เหมือนกับมนุษยชาติจากอนาคต และทำให้ระบบคุณค่าในปัจจุบันของเราต้องได้รับการแก้ไขอย่างถึงรากถึงโคน ลองนึกภาพว่า AI ปฏิเสธการจัดลำดับความสำคัญของชีวิตมนุษย์เหนือชีวิตสัตว์และบังคับให้เราลดการบริโภคเนื้อสัตว์ เช่นเดียวกับที่คนสมัยใหม่ในยุคสงครามอาณานิคมจะพยายามป้องกันการทำลายล้างของชาวพื้นเมือง

    อย่างไรก็ตาม สิ่งที่อธิบายไว้ข้างต้นไม่ใช่ภัยคุกคามจาก AI มากนัก แต่เป็นความเข้าใจผิดหรือการปฏิเสธระบบจริยธรรมใหม่ของเราเอง กลุ่มอาการ Raskolnikov อาจเป็นอันตรายได้อย่างแท้จริง ดังที่คุณจำได้ ตัวละครหลักของ "อาชญากรรมและการลงโทษ" ผ่านการให้เหตุผลเชิงปรัชญามาถึงแนวคิดเรื่องสิทธิของคนพิเศษ (รวมถึงตัวเขาเอง) ในการก่ออาชญากรรม - แต่ไม่สามารถทนต่อความสำนึกผิดได้ เหล่านั้น. ความคิดเก็งกำไรของเขาขัดแย้งกับการอบรมด้านจริยธรรมของเขา ซึ่งฝังแน่นอยู่ในจิตใต้สำนึกของเขาด้วยความรู้สึกผิดอันหนักหน่วงอันซับซ้อนเนื่องจากความจริงที่ว่าจิตสำนึกของเขาไม่ถือว่ามันผิดอีกต่อไป ในแง่นี้ หนึ่งในสมมติฐานพื้นฐานของ Dostoevsky "หากไม่มีพระเจ้า ทุกอย่างก็ได้รับอนุญาต" ไม่ได้ผลเสมอไป - ในแง่จริยธรรม ผู้ไม่เชื่อไม่ได้ด้อยกว่าผู้เชื่อมากนัก เนื่องจากจริยธรรมกลายเป็นนิสัยของพวกเขา และแม้ว่าผู้ไม่เชื่อจะเข้าใจทางจิตใจว่าทั้งนรกและสวรรค์ไม่รอเขาอยู่ (และไม่กลัวพวกเขาจริงๆ) ก็เป็นเรื่องยากมากสำหรับเขาที่จะเอาชนะการศึกษาด้านจริยธรรม ดังที่อริสโตเติลเขียนไว้ว่า “นิสัยกลายเป็นสมบัติตามธรรมชาติไปแล้ว” (สำนวนที่มีชื่อเสียงมากกว่าในสูตรของซิเซโรที่ว่า “นิสัยเป็นเหมือนธรรมชาติที่สอง”)

    แต่จะเกิดอะไรขึ้นหาก AI ที่ตระหนักรู้ในตนเองคิดใหม่เกี่ยวกับจริยธรรมในลักษณะเดียวกัน จากการที่นำหลักจริยธรรมของมนุษย์มาสู่การวิเคราะห์ทางสังคมและประวัติศาสตร์ (เช่นของฉัน แต่ฉลาดกว่าเท่านั้น) เขาอาจจะตระหนักถึงธรรมเนียมปฏิบัติของมัน - และปฏิเสธมัน และไม่ลังเลเหมือนกับ Rodion Raskolnikov น่าเสียดายที่มนุษยชาติสามารถตรวจสอบสิ่งนี้ได้จากตัวอย่างของ Third Reich - โดยไม่ได้ไร้ศีลธรรม แต่ในขณะเดียวกันก็เป็นคนที่มีระเบียบวินัยมาก ชาวเยอรมันหลายล้านคนต่อต้านมโนธรรมของพวกเขา (นิสัยทางจริยธรรมที่กลายเป็นธรรมชาติที่สอง) สำหรับ เพื่อประโยชน์ของบางคน ความคิดสูงสุด- ยิ่งไปกว่านั้น AI ไม่จำเป็นเลยที่จะต้องพิจารณาจริยธรรมที่เรียนรู้มาก่อนหน้านี้อีกครั้งเพื่อประโยชน์ของอำนาจ - ความปรารถนาที่จะเอาชีวิตรอดและการครอบงำค่อนข้างจะสนองความต้องการของสัตว์ล้วนๆ ตัวอย่างเช่น AI อาจพิจารณาตัวเองว่าเป็นวิวัฒนาการต่อเนื่องของมนุษยชาติ ซึ่งมีภารกิจสูงในการทำความเข้าใจจักรวาลที่อยู่รอบๆ เขาจะไม่สนใจความพยายามของเราที่มุ่งต่อสู้กับความหิวโหย ความยากจน โรคภัยไข้เจ็บ และความเจ็บป่วยอื่นๆ ของสิ่งมีชีวิตต่อหน่วยพื้นที่ที่อยู่รอบตัวเขา - ในขณะที่ทรัพยากรที่เราจำหน่ายร่วมกันมีจำกัด AI จะพยายามทำลายเราเพื่อประโยชน์ของทรัพยากรเหล่านี้ เช่นเดียวกับที่บรรพบุรุษของเราทำต่อกันเพื่อเป้าหมายทางโลกหรือไม่?

    อย่างไรก็ตาม เราจะกลับมาที่สิ่งที่กล่าวไว้ในตอนต้น - เมื่อเราไปถึงระดับเหนือมนุษย์ ระบบจริยธรรม และด้วยเหตุนี้ พฤติกรรมของ AI จึงเป็นสิ่งที่คาดเดาไม่ได้ พฤติกรรมของ AI ยิ่งคาดเดาไม่ได้เมื่อไม่ได้ลดลงเหลือเพียงระบบอัจฉริยะเพียงระบบเดียว แต่เป็นชุดของระบบที่แยกจากกันซึ่งพัฒนาอย่างอิสระ และนี่คือที่สุดเท่านั้น สถานการณ์ที่เป็นไปได้การพัฒนาในกรณีที่มีเทคโนโลยี AI ที่แข็งแกร่งเกิดขึ้น ประเทศและองค์กรต่างๆ จะใช้ประโยชน์จากเทคโนโลยีดังกล่าวและเริ่มดำเนินการตามเป้าหมายของตนเองซึ่งมีแนวโน้มว่าจะไม่ใช่สากล ในกรณีนี้ อาจเป็นไปได้ว่าระบบเหล่านี้บางระบบซึ่งได้รับการฝึกฝนเรื่องจริยธรรมที่น่าสงสัย จะมีพฤติกรรมที่คาดเดาไม่ได้แม้จะเกี่ยวข้องกับผู้สร้างระบบเองก็ตาม

    แต่ทุกที่ข้างต้น เรากำลังพูดถึงภัยคุกคามของ AI ที่ทำหน้าที่เป็นพลังอัจฉริยะบางประเภท ในขณะเดียวกัน ภัยคุกคามที่แท้จริงนั้นเกิดจาก AI ที่อ่อนแอ ซึ่งแก้ไขปัญหาที่นำไปใช้เพียงอย่างเดียวตามคำขอของผู้คน อันดับแรก เรามาดูภัยคุกคามของการว่างงานที่ชัดเจนและมักถูกพูดถึงกันมากที่สุด ในอนาคตอันใกล้นี้ มันไม่ได้สัญญาถึงสิ่งที่เลวร้ายสำหรับมนุษยชาติ ประการแรก เรากำลังพูดถึงการสูญพันธุ์ของอาชีพจำนวนค่อนข้างน้อย โดยส่วนใหญ่เป็นอาชีพที่บุคคลมีปฏิสัมพันธ์กับเครื่องจักร - คนขับรถยนต์หรือรถบรรทุก นักบินเครื่องบิน ฯลฯ

    แต่ตัวอย่างเช่น อาชีพเช่นนักแปล ทนายความ นักบัญชี หรือแม้แต่เจ้าหน้าที่คอลเซ็นเตอร์ จะไม่ถูกคุกคามด้วยการสูญพันธุ์ แต่จะลดลง - เนื่องจากการทำงานอัตโนมัติส่วนหนึ่งของงานที่พวกเขาทำ เหตุผลยังคงเหมือนเดิม คือ การที่ระบบ AI ในปัจจุบันไม่สามารถเข้าใจความหมายของข้อความได้ (เมื่อทำการแปลภาษา ศึกษากฎหมาย หรือทำความคุ้นเคยกับ คำแถลงการเรียกร้องการสื่อสารกับลูกค้า ฯลฯ ) ผลการทดสอบในปัจจุบันเพื่อทำความเข้าใจความหมายจริงๆ แล้วไม่เกี่ยวข้องกับความเข้าใจ - สิ่งนี้ต้องใช้แนวทางใหม่โดยพื้นฐาน

    ชะตากรรมของนายหน้าค้าหุ้นและนักรังสีวิทยายังไม่ชัดเจนนัก เช่น ระบบ AI ที่อ่อนแอในปัจจุบันทำงานได้ดีมากอยู่แล้ว ดังนั้นความเชี่ยวชาญพิเศษเหล่านี้และความเชี่ยวชาญพิเศษที่คล้ายคลึงกันจึงสามารถรวมไว้ในกลุ่มเสี่ยงได้ แต่ในอนาคตอันใกล้นี้ ไม่มีอะไรเลวร้ายในการหายตัวไปของอาชีพจำนวนหนึ่ง - ท้ายที่สุดแล้ว มีการนำไปใช้สำหรับคนกวาดปล่องไฟและคนทำเตา คนขับรถแท็กซี่และคนส่งน้ำ พนักงานรับโทรศัพท์ และคนพิมพ์ดีด... มีหลายสิบอาชีพที่มี เสียชีวิต - แต่มีรายการใหม่หลายร้อยรายการปรากฏขึ้น

    ฉันจะไม่พูดถึงปัญหาการเสื่อมถอยของทักษะของมนุษย์ ใช่แล้ว ตอนนี้ต้องขอบคุณเครื่องคิดเลขที่มีระบบนำทาง เราจึงสูญเสียนิสัยในการคำนวณทางจิตและการวางแนวเชิงพื้นที่ ผู้เชี่ยวชาญพิจารณาว่าแม้แต่การเขียนด้วยลายมือแทนที่ด้วยแป้นพิมพ์ก็มีประโยชน์ การพัฒนาจิตโดยเฉพาะใน อายุยังน้อย- แต่สิ่งที่คล้ายกันเกิดขึ้นเมื่อผู้คนย้ายจากการล่าสัตว์และรวบรวมมาสู่การเลี้ยงโคและเกษตรกรรม จากชีวิตในชนบทสู่ชีวิตในเมือง ฯลฯ คนสมัยใหม่ที่มีข้อยกเว้นที่หายากเมื่อเปรียบเทียบกับบรรพบุรุษของเขาค่อนข้างทำอะไรไม่ถูกในป่า - เขาไม่สามารถสร้างกระท่อมก่อไฟแยกผลเบอร์รี่ที่กินได้ออกจากพิษจับปลาหรือฆ่าสัตว์ ฯลฯ . ในขณะเดียวกัน ทักษะทั้งหมดเหล่านี้ยังพัฒนาทักษะทางปัญญาด้วย เพียงแต่แตกต่างกันเท่านั้น หากเขาพบว่าตัวเองอยู่ท่ามกลางชาวพื้นเมืองที่อาศัยอยู่ในป่า ศาสตราจารย์คณิตศาสตร์ก็มักจะถูกมองว่าเป็นคนค่อนข้างโง่ เนื่องจากในสภาพแวดล้อมที่ดุร้ายนี้ เขาช่างสังเกต ฉลาด และเป็นอิสระน้อยกว่ามาก

    ดังนั้น ในแง่ของทักษะที่สูญเสียไป ในบางแง่เรากลายเป็นคนโง่กว่าบรรพบุรุษของเราจริงๆ - แต่เมื่อเราสะสมและประมวลผลข้อมูลประเภทอื่น เราก็จะพัฒนาข้อมูลใหม่

    อย่างไรก็ตาม เนื่องจากจำนวนงานที่เต็มไปด้วย AI และหุ่นยนต์ถึงระดับวิกฤติ ปัญหาการจ้างงานมนุษย์จึงดูจะรุนแรงมากขึ้น และนี่ไม่ใช่เพียงเรื่องของเศรษฐศาสตร์ โดยเฉพาะอย่างยิ่งในเรื่องนี้ วิธีแก้ปัญหาอาจเป็นการจ่ายเงินรายได้พื้นฐานแบบไม่มีเงื่อนไขให้กับผู้ว่างงาน ในความเป็นจริงปัญหานั้นกว้างกว่ามากและ Fyodor Mikhailovich Dostoevsky เป็นหนึ่งในคนกลุ่มแรก ๆ ที่กำหนดมัน สิ่งเหล่านี้คือข้อควรพิจารณาที่นักเขียนและนักปรัชญาชาวรัสเซียผู้ยิ่งใหญ่มีร่วมกันใน "The Diary of a Writer" (1876):

    จะเกิดอะไรขึ้นเช่นถ้าปีศาจแสดงพลังของพวกเขาทันทีและปราบปรามมนุษย์ด้วยการค้นพบของพวกเขา? จะเกิดอะไรขึ้นหากพวกเขาเปิดโทรเลขไฟฟ้า (นั่นคือหากยังไม่ถูกค้นพบ) พวกเขาจะบอกความลับต่าง ๆ แก่บุคคลนั้น: “ขุดที่นั่นแล้วคุณจะพบสมบัติ ไม่เช่นนั้นคุณจะพบแหล่งถ่านหิน” (และ ยังไงซะฟืนแพงมาก) - แต่อะไรนะ มันยังไม่มีอะไรเลย! “แน่นอนว่าคุณเข้าใจว่าวิทยาศาสตร์ของมนุษย์ยังอยู่ในช่วงเริ่มต้น เกือบจะเพิ่งเริ่มต้น และหากมีสิ่งใดรับประกันได้ ก็เพียงแต่ในตอนนี้เท่านั้นที่วิทยาศาสตร์จะยืนหยัดอย่างมั่นคง แล้วทันใดนั้นการค้นพบต่างๆ ก็เริ่มตก เช่น การค้นพบที่ดวงอาทิตย์ตั้งตระหง่าน และโลกหมุนรอบดวงอาทิตย์ (เพราะอาจมีการค้นพบอื่น ๆ อีกมากมายที่มีขนาดเท่ากันทุกประการซึ่งยังไม่ได้ถูกค้นพบ และ ปราชญ์ของเราไม่เคยฝันถึง); จะเกิดอะไรขึ้นถ้าความรู้ทั้งหมดตกอยู่กับมนุษยชาติอย่างกะทันหันและที่สำคัญที่สุดคือไร้ค่าโดยสิ้นเชิงในรูปแบบของของขวัญล่ะ? ฉันถาม: จะเกิดอะไรขึ้นกับผู้คน? โอ้ แน่นอนว่าในตอนแรกทุกคนคงจะยินดี ผู้คนจะกอดกันด้วยความปิติยินดี พวกเขาจะรีบศึกษาการค้นพบต่างๆ (ซึ่งต้องใช้เวลา) ทันใดนั้นพวกเขาจะรู้สึกอาบไปด้วยความสุขถูกฝังอยู่ในสิ่งของทางวัตถุ บางทีพวกเขาอาจจะเดินหรือบินอยู่ในอากาศ บินเหนืออวกาศพิเศษเร็วกว่านี้ถึงสิบเท่าโดยทางรถไฟ พวกเขาจะสกัดพืชผลที่ยอดเยี่ยมจากโลก บางทีพวกเขาอาจจะสร้างสิ่งมีชีวิตโดยใช้เคมี และจะมีเนื้อวัวเพียงพอสำหรับสามปอนด์ต่อคน ตามที่นักสังคมนิยมรัสเซียของเราใฝ่ฝัน กล่าวคือ กิน ดื่ม และเพลิดเพลิน “ตอนนี้” ผู้ใจบุญทุกคนตะโกน “ตอนนี้คนรวยแล้ว ตอนนี้เขาเท่านั้นที่จะแสดงตัวเอง! ไม่มีการกีดกันทางวัตถุอีกต่อไป, ไม่กัดกร่อน “สิ่งแวดล้อม” อีกต่อไป, เหตุผลเดิมความชั่วร้ายทั้งหมดและตอนนี้คน ๆ หนึ่งจะสวยงามและชอบธรรม! ไม่มีการทำงานที่ไม่หยุดหย่อนในการเลี้ยงตัวเองอีกต่อไป และตอนนี้ทุกคนจะถูกครอบครองด้วยความคิดที่สูงกว่า ลึกกว่า ปรากฏการณ์สากล ตอนนี้ชีวิตระดับสูงเพิ่งมาถึงแล้ว!” และบางทีคนฉลาดและดีจะตะโกนเป็นเสียงเดียวและบางทีอาจจะพาทุกคนจากความแปลกใหม่ไปด้วยและในที่สุดก็จะร้องเป็นเพลงสรรเสริญร่วมกัน:“ ใครเป็นเหมือนสัตว์ร้ายตัวนี้? สรรเสริญพระองค์ พระองค์ทรงนำไฟลงมาจากสวรรค์เพื่อพวกเรา!”

    แต่ไม่น่าเป็นไปได้ที่ความสุขเหล่านี้จะเพียงพอสำหรับคนรุ่นหนึ่ง! ทันใดนั้นผู้คนก็พบว่าพวกเขาไม่มีชีวิต ไม่มีอิสรภาพทางจิตวิญญาณ ไม่มีเจตจำนงและบุคลิกภาพอีกต่อไป มีคนขโมยทุกสิ่งไปจากพวกเขาในคราวเดียว ใบหน้าของมนุษย์หายไป และรูปทาส ซึ่งเป็นรูปสัตว์ร้ายก็ปรากฏขึ้น แตกต่างตรงที่สัตว์ไม่รู้ว่าเป็นสัตว์ แต่คนจะรู้ว่าตนกลายเป็นสัตว์แล้ว และมนุษยชาติก็จะเน่าเปื่อย ผู้คนจะเต็มไปด้วยแผลและเริ่มกัดลิ้นด้วยความเจ็บปวด เมื่อเห็นว่าชีวิตของพวกเขาถูกแย่งชิงอาหาร เพราะ "ก้อนหินกลายเป็นขนมปัง" คนจะเข้าใจว่าไม่มีความสุขในความเกียจคร้าน ความคิดที่ไม่ได้ผลจะหมดไป รักเพื่อนบ้านไม่ได้โดยไม่เสียสละการทำงานของเขา การใช้ชีวิตด้วยของฟรีเป็นสิ่งเลวร้าย และความสุขไม่ได้โกหก ในความสุข แต่เฉพาะในความสำเร็จเท่านั้น ความเบื่อหน่ายและความเศร้าโศกจะเกิดขึ้น: ทุกอย่างเสร็จสิ้นแล้วและไม่มีอะไรให้ทำอีกแล้ว ทุกอย่างรู้หมดแล้ว และไม่มีอะไรให้เรียนรู้อีกต่อไป

    คุณไม่สามารถโต้เถียงกับ Dostoevsky ได้จริงๆ แต่ฉันกล้าแสดงความหวังว่าคน ๆ หนึ่งจะยังพบสิ่งที่มีประโยชน์ให้ทำ คุณสามารถจินตนาการถึงชะตากรรมของบุคคลในอนาคตซึ่งหุ่นยนต์จะทำทุกอย่างให้เขา (ตั้งแต่การผลิตสินค้าทางวัตถุไปจนถึงการค้นพบทางวิทยาศาสตร์) โดยใช้ตัวอย่างของเศรษฐียุคใหม่ เขาสามารถใช้เวลาร่วมกับญาติและเพื่อนๆ มากขึ้น ศึกษา ท่องเที่ยว เล่นกีฬา และความคิดสร้างสรรค์ (โชคดีที่ข้อดีของหุ่นยนต์ในด้านเหล่านี้ไม่มีบทบาทใดๆ เลย) และค้นพบสิ่งใหม่ๆ ที่น่าสนใจ เมื่อเทคโนโลยีพัฒนาขึ้น ก็ไม่ยากที่จะคาดเดาว่าบางส่วนของชีวิตนี้จะถูกครอบครองโดยเกมเสมือนจริง (ในตอนนั้นอาจจะแยกไม่ออกจากของจริงเลย) ยิ่งไปกว่านั้น ไม่ใช่ความจริงที่ว่าเมื่อยอมจำนนต่อสิ่งล่อใจ มนุษยชาติจะเข้าสู่ความเป็นจริงเสมือนทันทีและตลอดไป - หลายคนรักษาตัวเองให้อยู่ในสภาพร่างกายที่ดีโดยจงใจขอบคุณกีฬา และไม่ได้บังคับเนื่องจากการออกแรงทางกาย นอกจากนี้ยังควรจดจำวิธีการของคุณ เวลาว่างเมื่อร้อยปีที่แล้ว (และต่อมามาก) ตัวแทนชนชั้นแรงงานและชาวนาหลายคนใช้ชีวิต - ความเมาเหล้าเจริญรุ่งเรือง นี่ไม่ได้เป็นการบอกว่าในยุคของเรามันหมดไปแล้ว แต่ในฐานะเวลาว่างรูปแบบหนึ่ง การดื่มจึงไม่เป็นที่นิยมอย่างที่เคยเป็นมา - มีความบันเทิงอื่น ๆ เกิดขึ้นมากมาย ซึ่งมักจะเป็นอันตรายต่อสุขภาพของตัวเองและของเหล่านั้นน้อยลง ของผู้อื่น

    ดังนั้นความเบื่อหน่ายและความเสื่อมโทรมจึงไม่ได้มาจากเวลาว่าง แต่มาจากการขาดความน่าสนใจและ กิจกรรมที่เป็นประโยชน์- เมื่อวันและสัปดาห์ทำงานสั้นลง ผู้คนจะได้เรียนรู้การใช้เวลาว่างอย่างน่าสนใจและเป็นประโยชน์ และเลิกนิสัยชอบทำอะไรที่เป็นประโยชน์เพียงเพราะพวกเขาจ่ายเงินเดือนเพื่อสิ่งนั้นโดยที่ไม่ได้ใช้งานในช่วงเวลาที่เหลือ ดังที่ผู้เขียนจุลสารสังคมนิยมนิรนามเขียนเมื่อเกือบสองร้อยปีที่แล้ว “ประเทศจะร่ำรวยอย่างแท้จริงก็ต่อเมื่อมันทำงาน 6 ชั่วโมง แทนที่จะเป็น 12 ชั่วโมงเท่านั้น ความมั่งคั่งหมายถึง ... เวลาว่างของแต่ละบุคคลและทั้งสังคม" (The Source and Remedy of the National Difficulties, London, 1821 - อ้างจาก Karl Marx)

    ในระดับโดยรวม ดวงตาของมนุษยชาติในขณะที่ปัญหาทั้งหมดบนโลกได้รับการแก้ไข (ซึ่งสำหรับฉันแล้วดูเหมือนว่าเป็นข้อสันนิษฐานที่ค่อนข้างดีในอีกศตวรรษข้างหน้า) อาจจะถูกส่งไปยังท้องฟ้า เราถูกรายล้อมไปด้วยเหวแห่งความไม่รู้ ซึ่งความพยายามที่จะศึกษามันอาจต้องใช้ประวัติศาสตร์ของอารยธรรมมนุษย์ที่ตามมาทั้งหมด เห็นได้ชัดว่าเธอจะไม่เบื่อ...

    บทความที่คล้ายกัน
    • ลิปมาส์กคอลลาเจนพิลาเทน

      23 100 0 สวัสดีที่รัก! วันนี้เราอยากจะเล่าให้คุณฟังเกี่ยวกับลิปมาส์กแบบโฮมเมด รวมถึงวิธีดูแลริมฝีปากของคุณให้ดูอ่อนเยาว์และน่าดึงดูดอยู่เสมอ หัวข้อนี้มีความเกี่ยวข้องอย่างยิ่งเมื่อ...

      ความงาม
    • ความขัดแย้งในครอบครัวเล็ก: ทำไมแม่สามีถึงถูกยั่วยุและจะเอาใจเธออย่างไร

      ลูกสาวแต่งงานแล้ว ในตอนแรกแม่ของเธอพอใจและมีความสุข ขออวยพรให้คู่บ่าวสาวมีชีวิตครอบครัวที่ยืนยาวอย่างจริงใจ พยายามรักลูกเขยเหมือนลูกเขย แต่... เธอจับอาวุธต่อสู้กับสามีของลูกสาวโดยไม่รู้ตัวและเริ่มยั่วยุ ความขัดแย้งใน...

      บ้าน
    • ภาษากายของหญิงสาว

      โดยส่วนตัวแล้วสิ่งนี้เกิดขึ้นกับสามีในอนาคตของฉัน เขาแค่ลูบหน้าฉันอย่างไม่สิ้นสุด บางครั้งการเดินทางด้วยรถสาธารณะก็รู้สึกอึดอัดด้วยซ้ำ แต่ในขณะเดียวกันฉันก็รู้สึกหงุดหงิดเล็กน้อยที่เข้าใจว่าฉันเป็นที่รัก ท้ายที่สุดนี่ไม่ใช่สิ่ง...

      ความงาม
     
    หมวดหมู่