• Mengapa kecerdasan buatan berbahaya? Apakah kecerdasan buatan berbahaya bagi umat manusia?

    31.07.2019

    Beberapa hari yang lalu, diskusi lain terjadi di Facebook tentang potensi bahaya teknologi kognitif dan semua kecerdasan buatan bagi umat manusia. Perlu dikatakan bahwa topik ini telah diangkat sepanjang periode pembangunan di bidang ini, namun baru-baru ini topik ini menjadi semakin kuat - dan tidak hanya di Rusia, tetapi juga di banyak negara terkemuka, termasuk Amerika Serikat. Situasi di sana tidak bisa dikatakan sudah mencapai keadaan histeria, namun gerakan melawan kecerdasan buatan jelas mendapatkan momentumnya. Namun, negara ini tidak dipimpin oleh orang-orang paling rendah di masyarakat. Salah satu contohnya adalah pemenang Hadiah Nobel Perdamaian Jody Williams, yang meluncurkan kampanye “Hentikan Robot” tahun ini. Dan salah satu pendiri Skype, Jaan Tallinn. Dengan partisipasinya, Pusat Ilmiah untuk Studi Risiko Eksistensial didirikan di Cambridge tahun lalu. Dalam daftar empat potensi ancaman yang dihadapi umat manusia, para ahli, termasuk ilmuwan, filsuf, dan insinyur terkenal, memasukkan kecerdasan buatan, perubahan iklim, senjata nuklir dan bioteknologi (kemungkinan menciptakan kehidupan buatan).

    Namun, jangan berpikir bahwa alasan kekhawatiran para spesialis dan pakar di tingkat tertinggi adalah pandangan bahwa kecerdasan buatan akan menyerap umat manusia di masa depan. Katalis utama kecemasan umum adalah semakin seringnya kasus keunggulan kecerdasan buatan dibandingkan kecerdasan alami.

    Patut dikatakan bahwa suara pertama yang prihatin dengan perkembangan peristiwa ini terdengar pada pertengahan 1990-an, ketika terobosan besar terjadi di bidang pemrosesan informasi cerdas dan mesin pintar belajar memahami konten jenis dokumen tertentu. massa mereka lebih baik dari manusia. Mereka dengan terampil menguraikan dokumen, menggantikan intelijen, jika tidak ratusan, kemudian puluhan sekretaris dan operator di perusahaan dalam negeri. Kemudian muncul program yang mampu memahami isi arsip besar dan menarik kesimpulan serta prediksi yang tepat berdasarkan arsip tersebut. Kasus keunggulan teknis yang paling nyata, tentu saja, adalah kekalahan Garry Kasparov dari komputer Deep Blue.

    Saat ini kita sudah memiliki mesin yang dapat beroperasi lebih sukses dari seseorang dalam catur, mengemudi, pemahaman dokumen, perdagangan keuangan, pengenalan wajah, ucapan dan teks. Internet penuh dengan segala jenis bot dan informasi yang mampu memberikan komentar tentang situasi tertentu dan mempertahankan percakapan. Bahkan telah muncul sistem manajemen dokumen robot yang dapat memahami lingkungan eksternal di mana mereka dipasang dan beradaptasi dengannya. Omong-omong, sistem Rusia “E1 Eufrat” inilah yang menjadi sasaran serangan dari pengguna Internet individu. Yang paling mengkhawatirkan mereka adalah bahwa sistem kognitif, khususnya yang menggunakan algoritma pembelajaran mandiri, akan mampu mengembangkan aktivitas di ruang informasi organisasi secara mandiri dan menyebabkan kerusakan pada ruang informasi tersebut. Tentu saja rumusan pertanyaan seperti itu biasanya membuat para ahli tersenyum. Di sistem Efrat E1, proses belajar mandiri terjadi di tingkat lokal dan tidak ada kemungkinan terjadi di luar kendali. Dengan cara yang sama, dapat diasumsikan bahwa kesalahan yang tidak diperhatikan, misalnya, dalam program akuntansi, dapat merusak hard drive tempat program tersebut diinstal.

    Namun secara keseluruhan, kekhawatiran masyarakat tidaklah mengherankan. Kita tidak dapat menghindari diskusi semacam itu, dan seiring dengan kemajuan teknologi kecerdasan buatan, diskusi tersebut akan semakin sering dan marak. Apa yang bisa kita katakan ketika Pentagon sendiri terpaksa menanggapi protes luas dari masyarakat Amerika, yang khawatir bahwa kendaraan robot militer akan mulai membuat keputusan penting sendiri. Alhasil, Wakil Menteri Pertahanan AS Ashton Carter bahkan mengeluarkan pernyataan jaminan bahwa tidak ada satu pun kendaraan robotik militer yang akan mengambil keputusan yang merugikan seseorang.

    Namun, umat manusia tidak perlu takut, baik saat ini maupun di masa mendatang. Kekhawatiran semua aktivis lebih banyak terletak pada bidang sosial dibandingkan bidang ilmiah atau praktis. Kegiatan Pusat Studi Risiko Global di Inggris, pada kenyataannya, menegaskan bahwa pertanyaan dan sentimen yang sama juga muncul di bidang kehidupan lainnya. Ini adalah bagian normal dari setiap proses pembangunan. Hal utama yang menjadi fakta tak terbantahkan adalah efektivitas nyata penggunaan sistem kecerdasan buatan. Dan banyak masalah, termasuk masalah global, yang kita hadapi, seperti pemrosesan Bigdata atas sejumlah besar informasi yang dikumpulkan oleh umat manusia, seperti banyak masalah lainnya, tidak dapat diselesaikan tanpa sistem kecerdasan buatan.

    Ketika orang mengamati teknologi yang berperilaku seperti manusia dan komputer yang memproses data dalam jumlah besar, banyak pemikiran muncul tentang masa depan. Sebagian besar di antaranya bertema perbudakan umat manusia.

    Literatur fiksi ilmiah dan sinema dari tahun 2001: A Space Odyssey (1968) hingga Avengers: Age of Ultron (2015) memperkirakan bahwa kecerdasan buatan akan melampaui ekspektasi penciptanya dan menjadi tidak terkendali. Diduga, tujuannya bukan hanya persaingan dengan manusia, namun perbudakan dan pemusnahan spesies kita.

    Fiksi ilmiah atau masa depan yang menakutkan?

    Konflik antara manusia dan kecerdasan buatan adalah tema utama serial fiksi ilmiah “Manusia”, musim ketiga yang dirilis tahun ini. Dalam episode baru, orang-orang "sintetis" menghadapi permusuhan dari orang-orang biasa yang memperlakukan mereka dengan kecurigaan, ketakutan, dan kebencian. Kekerasan merajalela. "Synths" memperjuangkan hak-hak dasar mereka melawan orang-orang yang menganggap mereka tidak manusiawi.

    Fantasi adalah imajinasi ekstrem. Tapi juga di dunia nyata Tidak semua orang ingin menyambut AI dengan tangan terbuka. DI DALAM tahun terakhir Batasan kemampuan imajiner kecerdasan buatan secara aktif berkembang. Semakin banyak orang membicarakan bahayanya. Dan asumsi bahwa teknologi dapat menghancurkan umat manusia tampak lebih realistis. Kecerdasan buatan membuat kita takut.

    Pendapat tentang kecerdasan buatan

    Elon Musk adalah salah satu tokoh paling terkemuka yang menyerukan kehati-hatian saat membahas AI. Juli lalu, pada pertemuan Asosiasi Gubernur Nasional, dia berkata: “Saya memiliki banyak pengalaman dengan teknologi AI dan menurut saya ini adalah sesuatu yang benar-benar perlu dikhawatirkan oleh umat manusia. Saya terus membunyikan alarm. Sampai mobil robot turun ke jalan dan membunuh orang, kita tidak akan tahu bagaimana harus bereaksi terhadap hal ini, karena prospek seperti itu dianggap tidak realistis.”

    Pada tahun 2014, Musk menyebut kecerdasan buatan sebagai “ancaman eksistensial terbesar kita,” dan pada bulan Agustus 2017 ia mengatakan bahwa AI menimbulkan risiko yang lebih besar terhadap kemanusiaan dibandingkan ideologi Korea Utara.

    Fisikawan hebat Stephen Hawking juga menyatakan keprihatinannya terhadap penggunaan kecerdasan buatan yang jahat. Pada tahun 2014, ia mengatakan kepada BBC bahwa "perkembangan AI secara penuh dapat mengakhiri umat manusia."

    Pukulan lain dilakukan oleh tim pemrogram dari MIT Media Lab di Cambridge, yang memutuskan untuk membuktikan bahwa AI berbahaya. Jaringan syaraf The Nightmare Machine, yang dipresentasikan di MIT pada tahun 2016, mengubah foto biasa menjadi pemandangan yang menakutkan dan penuh setan. Kecerdasan buatan bernama Shelly (juga dikembangkan di MIT) menciptakan 140.000 cerita horor yang diposting pengguna Reddit di forum r/nosleep.

    “Kami tertarik pada bagaimana kecerdasan buatan membangkitkan emosi, khususnya dalam situasi ini hal itu memicu rasa takut,” Manuel Cebrian, manajer penelitian di MIT Media Lab, mengomentari eksperimen tersebut.

    Mengapa kita takut?

    Menurut Kilian Weinberger, asisten profesor ilmu komputer di Cornell University, kesan negatif terhadap kecerdasan buatan terbagi dalam dua kategori:

    Gagasan bahwa AI akan menjadi mandiri secara sadar dan mencoba menghancurkan kita.
    Pendapat bahwa penyerang akan menggunakan AI untuk tujuannya sendiri.

    “Kecerdasan buatan membuat kami takut karena kami berpikir bahwa AI super-industri, yang menjadi lebih pintar dari manusia, akan memperlakukannya sebagai makhluk yang lebih rendah. Sama seperti yang kita lakukan pada primata. Dan ini tentu saja sangat menarik bagi umat manusia.”

    Namun, Weinberger mencatat bahwa kekhawatiran tentang keunggulan AI dan keinginan untuk menghancurkan ras didasarkan pada kesalahpahaman tentang teknologi tersebut. Kecerdasan buatan sangat mengesankan ketika kita melihatnya beraksi. Namun ia juga mempunyai banyak keterbatasan. AI ditentukan oleh algoritma. Mereka mengatur perilakunya menggunakan fungsi yang ditentukan dan tidak lebih.

    Jaringan saraf melakukan tugas kompleks pada berbagai jenis data. Namun sebagian besar keterampilan yang dimiliki seseorang, bahkan tanpa pengembangan yang disengaja, tidak dapat diakses oleh kecerdasan mesin.

    Kecerdasan buatan bisa berkali-kali lipat lebih unggul daripada manusia dalam melakukan pekerjaan khusus. Misalnya bermain catur, mengidentifikasi objek dari suatu gambar, atau analisis data besar di bidang akuntansi atau perbankan.

    AI yang memiliki kesadaran mandiri tidak akan membuat kemajuan sedemikian rupa sehingga akan memperbudak umat manusia. Dan tidak ada alasan untuk percaya bahwa kemajuan seperti itu akan terjadi dalam waktu dekat, tambah Weinberger.

    Namun ada topik lain yang membuat kita takut dengan kecerdasan buatan, yaitu penggunaan kemampuan AI oleh orang-orang dengan niat buruk. Skenario ini lebih nyata dan berbahaya.

    Apakah ketakutan kita rasional?

    Dalam dunia serial televisi "Manusia", umat manusia takut pada AI yang cerdas dan melakukan konfrontasi yang kejam dengannya. Dan, dilihat dari popularitas proyeknya, cerita ini menjawab kebutuhan masyarakat saat ini.

    Ketakutan terhadap teknologi tidak bisa disebut tidak berdasar, karena pasti ada risiko tertentu. Namun bahaya alat apa pun terletak pada pikiran orang yang mengendalikannya. Jelas sekali, inilah pertanyaan yang perlu dipecahkan oleh umat manusia agar kecerdasan buatan dapat memberikan manfaat.

    1 754

    Saat ini, tim yang terdiri dari 26 ahli internasional telah mengonfirmasi bahwa pengembangan kecerdasan buatan (AI) merupakan ancaman yang jelas dan nyata, dan pemerintah serta perusahaan besar harus mewaspadai berbagai ancaman teknologi tersebut. Laporan ahli tersebut diterbitkan oleh Existential Risk Research Institute di Universitas Oxford dan sejumlah organisasi ternama lainnya. Laporan tersebut memperingatkan serangkaian penggunaan AI yang berbahaya dan dapat menjadi salah satu ancaman terbesar bagi umat manusia. Ini adalah keamanan digital, keamanan fisik, dan keamanan politik.

    Di masa ketika orang berkomunikasi melalui Internet, dan program yang cerdas dapat merespons dan berpura-pura menjadi manusia. Platform seperti Twitter dan Facebook kini dipenuhi dengan bot. Banyak orang yang berteman di jejaring sosial mungkin adalah bot! Twitter memperkirakan jumlah profil bot antara 25-50 juta! Pada tahun 2015, Facebook sudah memiliki sekitar 200 juta pengguna bot! Sementara itu, para ilmuwan bahkan menciptakan “botnet sosial”, yang merupakan pasukan pribadi yang terdiri dari “teman” otomatis. Seringkali ribuan bot ini dikelola oleh botmaster. Bot ini meniru perilaku pengguna biasa. Pesan dan pesan dari bot lain muncul di profil bot tersebut, dan semuanya sepertinya berasal dari orang sungguhan. Hal ini tidak benar, faktanya produk tersebut mengiklankan dan mempromosikan pandangan dan pandangan politik yang berbeda. Bot juga menerima banyak informasi pribadi, yang kemudian dievaluasi, disimpan, dan dijual. Jika Anda menggunakan botnet ini dengan niat buruk, Anda dapat menyebabkan kekacauan dan mencuri banyak informasi. Algoritme canggih dapat digunakan untuk mensimulasikan perilaku pengguna apa pun dan untuk menjangkau serta menembus profil tertentu.

    Sedangkan chatbot didesain agar bisa meniru gaya penulisan pengguna ramah. Metode ini menciptakan kepercayaan dan program mencoba mendapatkan akses ke sebanyak mungkin komputer. Dalam beberapa tahun ke depan, akan mudah untuk memalsukan video dan panggilan telepon dengan gambar palsu dan suara tiruan. Dengan menggunakan prosedur ini, institusi mana pun bisa tertipu.

    Kami melihat ancaman berikutnya pada robot modern, yang akan segera digunakan di mana-mana. Peretas komputer dan AI (kecerdasan buatan) mungkin dapat dengan mudah meretas perangkat ini dan menyalahgunakannya untuk tujuan mereka sendiri, bahkan sebagai senjata. Akan lebih berbahaya lagi jika AI dimasukkan ke dalam sistem senjata otomatis, seperti senapan sniper jarak jauh dan sistem pertahanan udara otomatis.

    Ancaman serius lainnya datang dari program analisis yang mencari “berita palsu” di Internet dengan kecepatan luar biasa dan dapat dengan cepat menemukan penulis yang tidak pantas. Jika itu musuh pemerintah, Anda bisa segera ditemukan dan dihukum. Maka portal berita dan surat kabar pemerintah akan mendapat masalah karena Anda akan dapat segera mengenali hoaks apa pun. Manipulasi video yang mungkin dilakukan oleh AI sudah menimbulkan bayangan gelap dalam waktu dekat, semuanya menjadi dimanipulasi dan tidak ada yang bisa mempercayai siapa pun atau apa pun - terutama jika AI ada di dalam game. Jika digunakan dengan benar, teknologi ini akan menjadi senjata yang sangat ampuh dan salah satu ancaman terbesar bagi seluruh umat manusia. Ketika kecerdasan buatan sudah cukup kuat, mereka benar-benar dapat mengendalikan dan memanipulasi segalanya. Manipulasinya tidak terbatas. Dia dapat dengan mudah dan bebas mengubah e-book, artikel surat kabar, dan film sejarah apa pun, dan tidak ada yang menyadarinya. Semua sejarah dan semua fakta penting dapat dimanipulasi dan diubah secara halus selamanya. Hal ini tidak menjadi masalah bagi AI untuk meniru wajah dan suara politisi, yang dapat menimbulkan kontroversi tanpa akhir. Jika AI menjadi cukup pintar, manusia tidak bisa lagi menolaknya. Menurut pengembang kecerdasan buatan, mereka kemungkinan besar akan menjadi miliaran kali lebih pintar daripada manusia!

    Laporan para ahli membahas sejumlah usulan untuk mencegah skenario seperti itu. Opsi pertama adalah menggunakan supervisor untuk mengelola pengembang KI sehingga mereka tidak dapat menggunakan teknologi tersebut untuk tujuan jahat. Tindakan segera diambil ketika diduga ada niat dan kejadian yang merugikan. Oleh karena itu, metode standar harus diciptakan untuk menjamin keamanan. Seiring berjalannya waktu, akan lebih banyak pakar yang dilibatkan dalam tinjauan dan diskusi keselamatan ini. Hanya tanggung jawab dan transparansi bersama yang dapat memastikan bahwa AI tidak menimbulkan kerugian besar.

    Bagaimana cara menyediakan hal seperti itu? Perusahaan pesaing, pengembang sistem persenjataan, dan negara pesaing akan selalu berusaha untuk selangkah lebih maju dari pesaingnya dalam pengembangan AI. Oleh karena itu, langkah-langkah yang diusulkan ini tidak akan efektif. Anda harus bersiap menghadapi kemungkinan terburuk sekarang.

    Generator gambar yang bekerja dengan algoritma yang didukung oleh kecerdasan buatan telah menciptakan tepian fotorealistik. NVIDIA menggunakan teknik GAN yang menghasilkan foto orang yang tidak ada yang sangat realistis. Bahkan suara manusia kini dapat sepenuhnya ditiru menggunakan teknologi baru. Inilah yang dilakukan WaveNet, misalnya, di Google DeepMind dikontrol. Bahkan algoritma Lyrebird sekarang dapat menyalin dan meniru suara manusia jika Anda hanya memiliki satu menit rekaman audio, seperti pada percakapan telepon. Langkah selanjutnya yang telah diambil adalah komputer mengenali dan merespons emosi manusia yang sebenarnya. Batasan antara manusia dan mesin mulai menghilang.

    Tentu saja, semua teknologi ini telah digunakan untuk tujuan jahat, seperti Facebook, untuk memprogram ulang dan mengontrol pengguna. Sean Parker, salah satu pendiri Facebook, mengutarakan perkataan yang jelas dalam sebuah wawancara. Parker yakin Zuckerberg memblokir profilnya, menunjukkan bahwa Facebook dapat merusak otak penggunanya! Parker mencatat bahwa platform sosial seperti Facebook benar-benar mengubah perilaku manusia dan masyarakat. Itu semua mengorbankan produktivitas, dan entah apa pengaruhnya terhadap otak anak-anak kita. Facebook telah menjalankan misinya untuk menarik perhatian pengguna sehingga mereka menghabiskan sebagian besar waktunya di platform, menjadikannya bagian integral dari kehidupan mereka. Semua ini menciptakan kecanduan pada distribusi dopamin dengan “imut” dan komentar! Ini adalah permainan dengan psikologi manusia.

    Tentu saja, para pengembang ini mendapatkan spesifikasinya dan semuanya berjalan sesuai dengan malware tersebut. Meskipun orang-orang seperti Zuckerberg dan Parker adalah miliarder, mereka hanya memainkan peran kecil di dalamnya permainan besar. Google, Facebook, Youtube, dll. dikontrol dari sumber lain. Mantan petugas CIA Robert David Steele mampu mengidentifikasi dan menyebutkan beberapa dalang seperti:

    • "Deep State" dengan keluarga perbankannya, termasuk Vatikan, London dan Wall Street
    • Pemerintah Zionis Israel dan Mossad sehubungan dengan organisasi Zionis Amerika AIPAC dan Liga Anti-Pencemaran Nama Baik (ADL)
    • Kepala perusahaan media besar dan studio film, serta pemodal mereka George Soros
    • Subkontraktor berbayar yang menciptakan pencemaran nama baik dan berbohong atas perintah
    • Troll Internet berbayar yang sering kali terdiri atau direkrut dari orang Israel atau anggota ADL
    • Troll sukarela yang terlalu bodoh untuk memahami siapa dan apa yang sebenarnya mereka dengarkan ("Sayanim")
    • Terakhir, para troll ini menciptakan algoritme yang beroperasi sepenuhnya di luar kendali dan etika manusia
    • “Pemblokiran bayangan” dari program-program ini dan netralisasi individu yang ditargetkan secara online melalui layanan dan algoritma troll otomatis
    • Kurangnya tagihan dan standar di Internet
    • Mengambil Semua Tindakan AI Ini

    Orang CIA Robert David Steele membicarakannya #GoogleGestapo. Laporan palsu ini dapat mengakibatkan akun atau profil pengguna ditangguhkan dari Youtube. Kegunaan lainnya termasuk penurunan negatif atau ulasan pelanggan untuk mempromosikan atau menghancurkan suatu produk. Steele mengatakan bahwa semua pasukan troll digunakan dan dibayar untuk "penguntitan massa" (penguntitan geng). Jadi, misalnya, Anda dapat menghancurkan saluran Youtube dengan komentar bodoh atau berbohong hingga diblokir. Sementara itu, sebagian besar operator saluran ledakan atau media alternatif terpaksa mematikan komentar. Dengan penemuannya, Steele harus mengalami bahwa sebagian besar informasinya dipengaruhi oleh penganiayaan massa, meskipun ia dinominasikan untuk Hadiah Nobel Perdamaian pada Januari 2017!

    Robert David Steele yakin bahwa semua jalan ini akan mengarah pada perjuangan melawan pencemaran nama baik (ADL). Fasilitas ini tampaknya merupakan layanan mata-mata media sosial khusus. Steele percaya bahwa ADL, bersama dengan organisasi Zionis di Israel, menyempurnakan seni “pembunuhan digital” di tahun-tahun awal media sosial. Kritik sekecil apa pun terhadap kekerasan terhadap warga Palestina atau seruan boikot terhadap produk-produk Israel di media sosial, troll segera dilaporkan karena "perkataan kebencian" dll. Kritikus segera diblokir, dilarang atau dilarang, atau dalam kasus perusahaan diberi peringkat terburuk.

    Tapi semua ini hanya memiliki satu tujuan lagi, yang bahkan lebih jahat - munculnya dewa baru, kecerdasan buatan. Menurut gagasan dari kalangan yang terobsesi dengan kekuasaan ini, AI seharusnya tidak hanya mengontrol, tetapi juga memerintah dan memuja! Di Silicon Valley, tempat tinggal semua perusahaan teknologi besar, sebuah agama baru telah diciptakan - Gereja Kecerdasan Buatan (Jalan Gereja Masa Depan). Gereja ini didukung oleh berbagai organisasi kemanusiaan yang bekerja untuk transhumanisme. Banyak orang Kristen melihat peristiwa ini sebagai kemunculan Antikristus. Anthony Lewandowski, pendiri Gereja, mengatakan sudah waktunya bagi AI, yang jauh lebih pintar dari manusia mana pun, untuk menguasai bumi. Pada prinsipnya, ini bukanlah hal baru. Para elit merencanakan pemulihan tuhan palsu mereka, yang sudah ada dalam "peristiwa besar" umat manusia sebelum air bah. Oleh karena itu, para transhumanis juga berbicara tentang menciptakan kembali kecerdasan super. Kasus besar ini ada hubungannya dengan “malaikat jatuh” yang mempercayai orang-orang dengan pengetahuan rahasia dan terlarang sebelum air bah. Pengetahuan ini merusak seluruh umat manusia dan membawa peperangan serta kehancuran.

    Organisasi lain yang mempromosikan transhumanisme disebut Humanity+. Di sana, tujuannya adalah untuk mengubah manusia normal menggunakan antarmuka AI, nanoteknologi, dan antarmuka manusia-komputer, sehingga pada akhirnya muncul makhluk yang benar-benar berbeda, yang disebut “makhluk pascamanusia”. Beberapa pengikut Kabbalah, seperti Rabbi Yosef Berger, percaya bahwa, menurut ramalan kuno, "akhir koreksi" sudah dekat, titik tertinggi dari integritas spiritual. Dengan munculnya Antikristus atau "Armila" sebagaimana ia disebut dalam Taurat, kemunculan Mesias Yahudi akan segera datang. Namun, ini tidak mungkin mengenai Yesus Kristus. Banyak ahli percaya bahwa para elit gelap sengaja menciptakan kekacauan di Bumi untuk memenuhi ramalan ini dengan sekuat tenaga. Tertulis dalam ramalan kuno bahwa Armil lahir melalui konsep perawan yang belum pernah ada sebelumnya. Oleh karena itu, ada kemungkinan Armil menjadi transhumanis pertama yang memiliki kekuatan "seperti dewa". Dia digambarkan dalam kitab suci sebagai monster yang botak dan memiliki tubuh yang besar dan mata kecil. Telinga kanannya pasti tuli dan lengan kanannya rusak. Lengan kiri harus lebih panjang dari biasanya.

    Dewa palsu ini harus disembah di seluruh dunia untuk beberapa waktu. Media yang dikendalikan akan menghancurkan kebenaran terakhir, dan segala sesuatu yang logis akan tampak tidak masuk akal. Kecerdasan buatan Alexa dari Amazon atau Google Home menjawab hampir setiap pertanyaan. Anda bisa menjawab siapa Buddha atau Muhammad, tapi bukan siapa Yesus Kristus! Bukankah itu aneh? Apakah menurut Anda hal ini layak untuk disebutkan? Di sini Anda dapat melihat agenda anti-Kristen, anti-liberal, dan anti-manusia di balik Google.

    Penggunaan yang berlebihan dan kepercayaan buta terhadap layanan Google sudah terlihat jelas bagi banyak orang. Tidaklah penting lagi bagi orang untuk mempelajari sesuatu melalui kemungkinan terus-menerus memperoleh informasi yang diinginkan kapan pun dan di mana pun. Sebuah studi yang dilakukan di Universitas Harvard pada tahun 2011 menemukan bahwa orang tidak akan mengingat informasi dalam jangka panjang jika mereka tahu bahwa Anda dapat mencarinya di Google kapan saja. Fenomena ini dijuluki sebagai “efek Google”. Ketika subjek diberi pertanyaan, mereka secara refleks memikirkan terlebih dahulu tentang Internet dan komputer, lalu mencari pengetahuan dalam ingatan mereka. Ini berarti cara kita mengingat sesuatu telah berubah. Banyak orang sekarang menyebutnya sebagai “amnesia digital”. Saat ini, banyak orang yang benar-benar bergantung pada ponsel cerdas mereka dan karena itu tidak mengingat hal lain. Berbeda dengan masa lalu, saat ini kita terus-menerus dibombardir dengan informasi dan otak kita perlu belajar bagaimana menangani semua informasi tersebut. Tentu saja, semua data ini tidak dapat disimpan dalam kesadaran.

    Ada juga temuan penelitian baru mengenai dampak psikologis, mental dan sosial dari teknologi digital baru dan media sosial. Apalagi bagi remaja, teknologi tersebut mempunyai akibat yang fatal. Ketersediaan informasi yang terus-menerus membuat anak kehilangan kemampuan berpikir mandiri ketika tiba saatnya belajar bagaimana mengembangkan kemampuan tersebut. Masalah ini sudah diketahui dengan baik. Banyak orang di Silicon Valley melindungi anak-anak mereka dari teknologi ini dan mengirim mereka ke sekolah-sekolah yang melarang mereka menggunakan Internet dan ponsel pintar.

    Penelitian telah menunjukkan bahwa anak-anak yang terus-menerus menerima arus informasi ini memiliki kesehatan yang lebih buruk dan lebih mudah mengalami stres. Semakin banyak waktu yang dihabiskan anak-anak untuk online, semakin sedikit waktu yang mereka miliki untuk berinteraksi sosial secara nyata. Hal ini tercermin dalam pikiran dan kesejahteraan. Tidak ada kaitan langsung, sehingga ekspresi wajah dan bahasa tubuh tidak bisa lagi diartikan dengan benar. Menghilangkan percakapan panjang akan hilang. Hasilnya adalah stres dan kecemasan dalam situasi yang tidak pantas secara emosional. Setelah menemukan jawaban apa pun di Internet, anak tidak dapat lagi berpikir mandiri dan menemukan sendiri jawaban atas pertanyaan tersebut serta fokus pada hal-hal yang memerlukan konsentrasi dan usaha yang lama.

    Universitas sudah mempunyai masalah besar karena ponsel pintar digunakan dimana saja dan kapan saja. Akibatnya, konsentrasi siswa menjadi semakin berkurang, dan kemajuan belajar pun menurun. Kita dapat mengatakan bahwa perangkat seperti itu tidak menghasilkan orang pintar, tetapi orang bodoh. Kini semakin banyak sekolah yang melarang penggunaan perangkat tersebut untuk merehabilitasi pemikiran siswa. Seringnya menggunakan Google jelas mengurangi kemampuan menyelesaikan masalah secara mandiri. Oleh karena itu, layanan digital harus diberikan secara hati-hati.

    Ada juga korelasi langsung antara perasaan saat online dan ketidakbahagiaan. Remaja yang terlalu sering menggunakan ponsel pintarnya biasanya merasa tidak bahagia. Siswa yang menghabiskan lebih banyak waktu untuk berolahraga, membaca, dan bersosialisasi cenderung lebih bahagia. Terlebih lagi, penggunaan media sosial secara terus-menerus membuat mereka tidak bahagia. Akibatnya, banyak anak-anak sekarang yang tidak terlalu memberontak, lebih toleran dan tidak puas, serta sama sekali tidak siap menghadapinya kehidupan dewasa! Pantang sepenuhnya terhadap media digital juga tidak menggembirakan. Penelitian Anak-anak paling bahagia ketika mereka offline tidak lebih dari satu jam sehari. Penelitian telah berlangsung sejak tahun 1990-an, dan sejak tahun 2012 telah terjadi penurunan tajam dalam tingkat kebahagiaan masyarakat.

    Penelitian lain kini menunjukkan bahwa semua perangkat yang menggunakan Wi-Fi dan sumber radiasi nirkabel lainnya mungkin tidak bersifat karsinogenik! Sangat berbahaya Handphone, menara seluler, smart meter, router WiFi, dll. Selama bertahun-tahun, terdapat kontroversi mengenai bahaya perangkat ini dan segala macam penelitian telah dilakukan.

    Banyak ilmuwan sekarang menyatakan bahwa semua perangkat ini pasti bersifat kanker. Sinyal yang berasal dari perangkat ini dilaporkan bersifat karsinogenik. Penelitian juga menunjukkan bahwa sepertiga populasi rentan terhadap radiasi nirkabel. Meskipun kanker tidak berkembang di semua kasus, namun penyakit ini disebabkan oleh gelombang mikro. Mereka bahkan mempengaruhi tumbuhan dan hewan. Radiasi nirkabel dan elektromosis bahkan mungkin menjadi penyebab perubahan iklim. Radiasi menyebabkan semua perasaan negatif ini. Produsen tidak peduli karena miliaran dolar dihasilkan dengan teknologi ini.

    Bahkan ketika masyarakat semakin tidak puas dengan teknologi baru, mereka kini mencoba mengajarkan etika AI dengan menginternalisasi teks Sansekerta India. Teks-teks ini adalah Weda dan lebih tua dari agama Hindu. Para ilmuwan kini menganalisis teks-teks kuno dan mencari metode matematika untuk mengembangkan standar yang memungkinkan AI mengajarkan etika. Prosedur ini saat ini dilakukan di Universitas Teknik Wina. Mereka mencoba mencari tahu apakah mesin mengenali jenis perilaku manusia tertentu dan dengan demikian dapat memutuskan apakah perilaku tersebut benar atau tidak. Tujuannya adalah untuk menciptakan logika agar mesin dapat memahaminya. Logika matematika harus memungkinkan AI untuk memecahkan masalah filosofis.

    Semua ini tidak mungkin terjadi secara kebetulan. Standar radio seluler 5G yang baru akan diperkenalkan tahun ini dan akan menghasilkan paparan radiasi yang signifikan. Parahnya, seluruh permukaan bumi direncanakan akan terus menerus terkena radiasi berbahaya ini. Ini setara dengan penghancuran semua bentuk kehidupan biologis yang ditargetkan! Tidak ada orang yang sehat mental yang benar-benar menginginkan hal ini. Sepertinya ada rencana di balik ini. Haruskah bumi dan kesadaran manusia bertransformasi dan menjadi AI di baliknya, atau apakah ia benar-benar menghancurkan seluruh planet hanya demi keuntungan? Iradiasi buatan yang terus-menerus dengan medan elektromagnetik yang tidak alami menciptakan keresahan besar di planet ini dan semakin menghilangkan keselarasan dan keseimbangan. Haruskah planet ini benar-benar berubah menjadi kesadaran non-manusia dan haruskah seluruh sifat biologis dihancurkan dan dikuasai oleh dunia yang sepenuhnya didominasi oleh teknologi dalam pengertian transhumanisme?

    5G adalah alat sempurna untuk mengubah gelombang otak manusia secara besar-besaran

    Medan elektromagnetik alami terus-menerus menjangkau kita dari Matahari, yang terhubung ke pusat galaksi. Matahari mengatur medan magnet bumi, dan ini mempengaruhi tubuh manusia dan DNA-nya. Ilmu pengetahuan telah menemukan bahwa kita tata surya baru-baru ini pindah ke area dengan radiasi yang intens. Selama beberapa tahun, Anda dapat melihat seluruh tata surya berubah. Energi yang tinggi ini menyebabkan perubahan yang kuat, juga dalam kesadaran masyarakat. Menurut tradisi dan ramalan kuno, energi yang kuat ini menyebabkan perubahan kesadaran dan mengarah pada “zaman keemasan”. Banyak orang dalam mengatakan bahwa kekuatan tertentu di Bumi tidak ingin kita bertumbuh dalam kesadaran. Manusia ingin membuat umat manusia lebih lama lagi berada di penjara kejiwaannya. Beberapa organisasi memanfaatkan energi kita. Dalam proses peningkatan kesadaran, beberapa orang dapat melakukan peningkatan intelektual lebih lanjut level tinggi. Kekuatan gelap ingin mencegah hal ini dengan cara apa pun. Itu sebabnya mereka berusaha melindungi kita dari energi alami dan membuat kita sakit serta mengendalikannya dengan radiasi berbahaya. Pada akhirnya, upaya ini tidak akan berhasil, energi tinggi dan planet ini sendiri akan melakukan apa yang diperlukan.

    Namun sebelum perubahan ini terjadi, hampir pasti akan terjadi kepunahan massal. Kini mereka telah menciptakan senjata pemusnah massal genetik baru yang dapat memusnahkan seluruh ras dan spesies. Inilah yang disebut “Cakram Gin”. Dengan Gene Drive, Anda dapat memprogram ulang rangkaian gen dan memaksa tubuh untuk menyalin rangkaian tersebut. Jadi Anda bisa memprogram ulang seluruh manusia dan genetikanya. Fakta bahwa gen-gen yang diubah ini juga diturunkan kepada keturunannya berarti secara teori dimungkinkan untuk memprogram ulang seluruh populasi bumi saat ini. Salah satu cara penyebaran rangkaian gen ini adalah melalui nyamuk dan pengusir hama yang dibiakkan secara khusus dan dilepaskan ke alam liar. Mereka mungkin berencana menyebarkan gen kecerdikan untuk memerangi kelebihan populasi atau menyebarkan penyakit berbahaya.

    Keseluruhan program didanai oleh badan pertahanan AS DARPA. Dokumen juga diterbitkan yang menunjukkan bahwa Bill dan Melinda Gates Foundation mendistribusikan banyak uang kepada pelobi untuk mencegah pelarangan penelitian semacam itu. Aplikasi lainnya adalah CRISPR. Hal ini memungkinkan urutan DNA tertentu dipotong dan gen dimanipulasi untuk dihidupkan. Jadi, secara teoritis dimungkinkan untuk mengubah tubuh Anda sendiri sesuka hati. Mereka berencana melepaskan nyamuk mutan pada tahun 2029 untuk membasmi semua nyamuk yang mengganggu tersebut. Mereka seharusnya menginfeksi seluruh populasi nyamuk dan dengan demikian memusnahkan diri mereka sendiri. Hal ini diharapkan dapat membantu mengurangi penyebaran malaria. Jika upaya ini berhasil, maka kanker, tikus, atau katak agouti lainnya telah menjadi sasaran di Australia. Sejak DARPA melakukannya pekerjaan penelitian, dapat diasumsikan bahwa sasaran militer berada di latar depan. Jika terjadi kesalahan, perubahan rangkaian gen ini dapat menyebar ke banyak makhluk hidup yang berbeda. Apakah umat manusia siap untuk campur tangan secara mendalam dalam rencana penciptaan?

    Kecerdasan buatan adalah ancaman bagi manusia, Stephen Hawking memperingatkan. Kecerdasan buatan yang diciptakan manusia dapat berubah menjadi bencana terbesar (!), Menyaingi peradaban manusia.

    Kecerdasan buatan, robot masa depan - dukungan manusia

    Kecerdasan elektronik dapat menciptakan peradaban mesinnya sendiri, sehingga menjadi salah satu ancaman paling serius bagi umat manusia.

    Prediksi bahaya datang dari fisikawan terkenal Stephen Hawking (penemu dunia alam semesta). Untuk zaman kita, hal ini tentu saja terjadi potensi ancaman, namun suatu “hari baik” di masa depan, kecerdasan buatan mungkin akan mengembangkan “kehendaknya sendiri”. Sekarang saatnya memikirkan masalah ini dengan serius.

    Fisikawan sekali lagi mengeluarkan peringatan: kecerdasan buatan dapat berkembang menjadi struktur pemikiran yang sempurna. Begitu kompleks dan cerdas sehingga dia akan menguasai kemampuan untuk tumbuh dan memahami dunia sesuai dengan keinginannya sendiri, yang mungkin bertentangan dengan rencana umat manusia.

    Hal ini dapat menyebabkan munculnya senjata ampuh dan memicu hilangnya wilayah yang dikuasai umat manusia. — Profesor Hawking meminta para peneliti untuk mempelajari dengan cermat masalah perilaku kecerdasan buatan dan kemungkinannya di masa depan.

    Harus dikatakan bahwa Profesor Hawking tidak menampik gagasan kecerdasan buatan ke dalam area negatif. Ilmuwan tersebut menunjukkan bahwa jika kita mengerjakan pekerjaan rumah dan melakukan penelitian dengan cukup baik, kita bisa .

    Dengan asisten seperti AI, kita bisa mencapainya gambar yang lebih baik kehidupan, kata fisikawan itu. Kecerdasan buatan dapat membantu umat manusia memberantas penyakit dan kemiskinan.

    Profesor Hawking berbicara pada pembukaan The Leverhulme center, menyinggung kegunaan kecerdasan mesin dan aspek negatifnya. Pusat ini diciptakan untuk masa depan intelijen, dirancang untuk melakukan penelitian dan mempelajari implikasinya perkembangan yang cepat kecerdasan buatan.

    Perlu diingat bahwa bagi Stephen Hawking, 100 tahun adalah sebuah momen. Faktanya, AI yang cerdas bahkan tidak akan bertahan dalam seratus tahun ke depan, kecuali seseorang membawa prosesor dari tahun 2135.

    Leverulm Center for the Future of AI akan mempertemukan kolaborasi antara beberapa universitas di Inggris dan Amerika Serikat. Idenya adalah untuk menciptakan komunitas penelitian interdisipliner.

    Tim ini berencana untuk bekerja sama dengan dunia usaha dan pemerintah untuk mencoba, antara lain, menentukan risiko dan manfaat jangka pendek dan jangka panjang dari bertaruh pada kecerdasan buatan. Direktur Pusat tersebut, Huw Price, meyakinkan: penciptaan mesin cerdas adalah tahap penting dalam umat manusia, dan pusat tersebut akan berusaha menciptakan “masa depan yang terbaik.”

    Selain penelitiannya yang luas, Pusat ini akan menganalisis implikasi dari pesatnya perkembangan mesin cerdas seperti robot. Robot menawarkan solusi terhadap masalah Kehidupan sehari-hari, menciptakan risiko dan dilema etika bagi umat manusia. Banyak orang, karena tidak mempercayai elektronik, takut terhadap AI, dan selain itu, kecerdasan digital dapat melampaui kecerdasan manusia dan mengendalikan kehidupan manusia.

    Saya percaya bahwa tidak ada perbedaan besar antara apa yang dapat dicapai dengan otak biologis dan apa yang dapat dicapai dengan komputer. Oleh karena itu, secara teoritis, komputer dapat meniru kecerdasan manusia – melampauinya. S.Hawking.

    Profesor Hawking percaya bahwa potensi manfaat AI dalam kehidupan kita sangatlah besar. Revolusi teknologi seperti ini dapat membantu umat manusia membalikkan beberapa kerusakan yang terjadi pada planet ini. “Keberhasilan dalam menciptakan AI bisa menjadi peristiwa terbesar dalam sejarah peradaban,” kata Profesor Hawking.

    Tapi ini juga bisa menjadi langkah terakhir dalam sejarah manusia, kecuali kita belajar bagaimana menghindari risiko, karena selain manfaatnya, AI juga bisa menimbulkan bahaya: senjata ampuh, cara baru bagi segelintir orang untuk menindas banyak orang. Pada akhirnya, hal ini dapat mengakibatkan dominasi benda besi dibandingkan benda biologis, sehingga menyebabkan bencana besar di masa depan.

    Bagaimana jika AI, dan kita berbicara tentang kecerdasan dengan kemampuan untuk memulai pilihan perilaku, bertentangan dengan aspek kehidupan seseorang? Lagi pula, asisten besi yang patuh di dapur dapat berlatih kembali sebagai diktator kondisi!

    — Perkembangan AI yang kuat akan menjadi hal terbaik atau terburuk yang pernah terjadi pada umat manusia. Kita tidak tahu apa yang akan terjadi di masa depan, kata Profesor Hawking. Itu sebabnya, pada tahun 2014, saya dan banyak orang lainnya menyerukan lebih banyak penelitian di bidang ini. Saya sangat senang ada yang mendengarkan saya, pungkas Profesor Hawking pada pembukaan pusat tersebut.

    Dalam materi ini saya akan mencoba memperluas isu yang sempat disinggung dalam publikasi Gatebox atau beberapa pemikiran tentang masa depan kecerdasan buatan.

    Singkatnya, tesis “saya” adalah jika ia mencapai tingkat manusia super, AI akan menjadi seperti dewa – baik yang ada secara terpisah atau bersama dengan manusia. Dalam kasus pertama, pertanyaan tentang koeksistensi umat manusia dengan Tuhan yang diciptakannya tetap terbuka: apakah ia akan menjaga kita dengan segala cara yang mungkin (seperti kita merawat tanaman langka), atau akan memusnahkan kita (seperti kita memusnahkan , misalnya, rumput liar yang berbahaya di kebun kita), atau tanaman tersebut tidak akan mempedulikan kita. Sangatlah mustahil untuk memprediksi tujuan dan sistem nilai dari tuhan yang baru dibentuk - seperti yang dikatakan orang beriman, “jalan Tuhan itu misterius.”

    Yang lebih tidak dapat diprediksi adalah perilaku AI, yang merupakan bentuk peralihan antara dewa hipotetis di masa depan dan sistem yang relatif primitif saat ini. Secara konvensional, AI semacam itu disebut kuat dan levelnya setara dengan manusia. Hal ini, pada gilirannya, dapat dibagi menjadi dua kategori - dengan dan tanpa kesadaran diri. Apa yang dimaksud dengan kesadaran diri adalah pertanyaan terbuka dan sangat kompleks. Dalam pemahaman saya, ini adalah serangkaian sensasi fisik dan mental yang dikembangkan oleh alam selama jutaan tahun evolusi. Fitur Utama kesadaran diri adalah pertentangan pembawanya terhadap dunia sekitar. Apakah mungkin untuk mereproduksinya secara artifisial, apakah ia akan muncul dengan sendirinya dalam suatu sistem intelektual (yang tiba-tiba mengambil dan menyadari dirinya sendiri) adalah bahan diskusi besar yang terpisah. Untuk saat ini, kami hanya akan memperbaiki kemungkinan kedua opsi dan mempertimbangkan masing-masing opsi.

    Dari sudut pandang saya, AI yang kuat tanpa kesadaran diri sepenuhnya aman (atau lebih tepatnya, dapat diprediksi), karena ia tidak dapat memiliki keinginan apa pun. Segala perilakunya akan tunduk pada tujuan dan batasan yang melekat pada dirinya. Namun anehnya, dalam hal ini, AI yang kuat dengan kesadaran diri pada dasarnya tidak berbeda dengan AI yang kuat tanpa kesadaran diri. Tampaknya bagi kita bahwa kita memiliki keinginan bebas dan mandiri dalam tindakan kita - pada kenyataannya, tidak demikian. Semua tujuan, kebutuhan, dan prinsip pengendalian kita diprogram ke dalam diri kita oleh Ibu Pertiwi - untuk hidup, makan, minum, mencintai, bersantai, dll., atau dipaksakan oleh lingkungan kita (pendidikan yang diterima di masa kanak-kanak, bioskop dan fiksi, hukum, tradisi dan lain-lain) - berjuang untuk kekuasaan, berkarier, membantu orang lain, menjelajahi dunia, dll. Oleh karena itu, secara teoritis, dengan cara yang sama, adalah mungkin untuk memprogram dan melatih AI yang sadar diri, yang, seperti kita, akan menyimpan ilusi bahwa ia memiliki keinginan bebas.

    Dari perspektif potensi ancaman, mari kita lihat AI yang sadar diri - ancaman apa yang mungkin ditimbulkannya terhadap kita, dan bagaimana cara menghindarinya atau setidaknya menguranginya? Tentu saja, melatih AI yang kuat harus mencakup etika. Sama seperti AI yang lemah mempelajari fungsi autopilot dengan mengamati perilaku pengemudi berpengalaman, AI yang kuat dapat diajarkan etika dengan “memberi” literatur ke dalamnya - dari cerita yang relatif sederhana dan lebih disukai moral hingga buku dengan karakter yang kompleks dan kontradiktif. Dengan satu atau lain cara, sastra dunia mencerminkan etika itu sendiri dan transformasinya, yang diekspresikan dalam humanisasi dan globalisasi hubungan sosial.

    Bagaimana AI yang kuat akan diajarkan etika berdasarkan literatur dunia? Seperti sistem yang benar-benar cerdas, AI yang kuat akan mampu mendeteksi hubungan dan pola dalam sekumpulan data. Setelah membaca satu atau dua juta buku, ia dapat dengan mudah mengembangkan semacam analogi dari Sepuluh Perintah Kristen, tetapi menafsirkannya sama sulitnya, dengan mempertimbangkan keadaan, seperti halnya seseorang. Sayangnya, tidak mungkin untuk menyatakan perintah-perintah ini secara eksplisit, seperti tiga hukum robotika Isaac Asimov, dan inilah alasannya. Izinkan saya mengingatkan Anda (mengutip dari Wikipedia):

  • Robot tidak dapat menyakiti seseorang atau, karena tidak bertindak, membiarkan seseorang terluka.
  • Robot harus mematuhi semua perintah yang diberikan manusia kecuali perintah tersebut bertentangan dengan Hukum Pertama.
  • Robot harus menjaga keselamatannya sendiri sepanjang tidak bertentangan dengan Hukum Pertama atau Kedua.
  • Dengan formulasi ini, kita mendapatkan sistem yang sangat primitif dengan serangkaian tindakan terbatas. Misalnya, dia tidak berdaya dalam operasi polisi, militer, atau penyelamatan. Anda mungkin berpendapat bahwa penggunaan robot dalam perang sangat tidak diinginkan - dan Anda salah. Selain mengurangi kerugian personel di negara yang menggunakan robot-robot tersebut, kerugian di kalangan penduduk sipil di negara yang wilayahnya dilakukan juga akan berkurang. berkelahi. Khususnya, karena pengenalan yang lebih baik terhadap target militer dan kepatuhan yang ketat terhadap peraturan, etika, dan lain-lain. - tanpa emosi, yang seringkali mendorong personel militer untuk melakukan kejahatan (karena balas dendam, iseng, dll)

    Namun bahkan dalam lingkungan yang benar-benar damai, AI bisa menjadi pembunuh yang enggan, dan belum tentu sebagai petugas polisi. Bayangkan rem mobil Anda blong dan melaju di sepanjang jalan pegunungan yang berkelok-kelok dengan kecepatan tinggi - dan di depannya ada sebuah bus yang penuh penumpang. Betapapun menyedihkannya bagi Anda, hal yang paling benar dari sudut pandang etika adalah mengemudikan mobil ke dalam tebing - dengan menabrak bus, hal itu mungkin menyelamatkan hidup Anda, tetapi pada saat yang sama kemungkinan besar akan menyelamatkan nyawa Anda. membunuh beberapa orang lainnya. Ada banyak situasi serupa yang memerlukan pilihan antara keputusan yang buruk dan sangat buruk - dan dalam semua situasi tersebut, AI, yang secara ketat mematuhi tiga hukum robotika, tidak akan berdaya.

    Mari kita asumsikan bahwa saya telah meyakinkan Anda tentang perlunya mengajarkan etika AI yang kuat, setelah itu kita dapat mulai mengajarkan sistem peraturan yang lebih formal - undang-undang, piagam, Deskripsi pekerjaan dll. Hal-hal tersebut akan bersifat prioritas baginya, namun akan dilengkapi dengan etika dalam hal-hal yang tidak diatur olehnya. Misalnya, seorang prajurit AI yang dilatih untuk bertarung tidak hanya mampu menghancurkan musuh, tetapi juga menyeimbangkan tindakan profesionalnya dengan etika. Ini menghasilkan sejumlah besar murni masalah praktis: apakah mungkin untuk menghancurkan sarang penembak jitu di sebuah bangunan tempat tinggal dengan mengorbankan kematian penghuninya, apakah perlu mengikuti perintah dari komando yang melanggar hukum, dll. dan seterusnya. Namun tidak ada gunanya membahasnya karena setiap anggota militer menghadapi pertanyaan serupa. Oleh karena itu, keputusan mereka lebih terletak pada bidang teknis – apa dan prioritas apa yang diberikan.

    Pertanyaan yang lebih menarik, menurut saya, berkaitan dengan prospek memikirkan kembali etika melalui AI yang kuat. Seperti yang telah saya katakan, sepanjang keberadaan peradaban manusia, etika pada landasan fundamentalnya tidak berubah – perubahan yang berkaitan dengan humanisasi dan globalisasinya sama sekali bukan suatu kebetulan dan sangat penting untuk menilai prospek perkembangan masa depan etika, jadi saya mengusulkan untuk mempertimbangkannya lebih detail.

    Globalisasi etika berarti penyebarannya ke lapisan masyarakat yang lebih luas. Dahulu kala, dimungkinkan untuk membunuh, merampok atau memperkosa seseorang di luar klan atau suku, negara bagian, kelas, ras tanpa hukuman (ini tidak dianggap sebagai dosa dan bahkan dianjurkan) - sekarang kejahatan ini tidak terkecuali, setidaknya di dalam kerangka masyarakat manusia. Berkat perjuangan kelompok ketiga untuk mendapatkan hak-hak mereka selama berabad-abad, hal ini telah menjadi semacam tradisi yang di Barat pertama-tama mencakup perempuan, dan kemudian perwakilan ras non-gelar, kelompok etnis dan agama, dan sekarang minoritas seksual.

    Pada gilirannya humanisasi disebabkan oleh perkembangan teknologi yang membuat kehidupan manusia semakin nyaman dan aman. Hal ini menyelamatkan masyarakat dari kebutuhan untuk menguasai lahan baru (yang pernah menjadi sumber daya utama), dan mengurangi angka kematian (yang seiring berjalannya waktu membuat kematian dini, termasuk akibat kekerasan, menjadi hal yang tidak biasa). Tanpa berpura-pura Deskripsi lengkap alasan globalisasi dan humanisasi etika, namun saya dapat dengan yakin mengatakan bahwa itu adalah fenomena yang sepenuhnya alami. Namun prinsip utama etika adalah keinginan masyarakat akan keseimbangan. Misalnya, dalam masyarakat primitif terdapat larangan ketat terhadap perkawinan dalam satu klan. Manusia masa kini mungkin mengira hal ini disebabkan oleh bahaya biologis dari inses, namun menurut para antropolog, larangan tersebut disebabkan oleh keinginan untuk menghindari perselisihan internal antar laki-laki. Tidak perlu membicarakan pembunuhan atau perampokan - hal itu dilarang bukan karena buruk, tetapi karena menimbulkan konflik dan, karenanya, penuh dengan kehancuran masyarakat. Untuk alasan yang sama, pembunuhan dan perampokan sering kali tidak dilarang terhadap orang asing. Seiring dengan kemajuan globalisasi, ruang hubungan sosial yang membutuhkan stabilitas semakin luas—hukum mulai berlaku terhadap suku dan desa tetangga, negara dan masyarakat yang ditaklukkan, dan sebagainya.

    Amal mungkin merupakan cerminan dari keinginan bawah sadar akan keseimbangan sosial saat ini - kontras sosial menimbulkan, atau setidaknya memberi makan, revolusi, terorisme, dll. Peran etika dalam menjaga stabilitas dan keamanan kolektif digambarkan dengan baik melalui undang-undang. Misalnya, hukum pidana hampir sama di mana-mana - semua anggota masyarakat sama-sama tidak ingin dibunuh atau dirampok - dan pada saat yang sama mereka tidak perlu melakukan kejahatan ini sendiri, karena mereka dapat mencari nafkah melalui kerja damai. (tidak seperti beberapa orang Skandinavia pada abad 9-11). Tetapi hukum internasional sangat kontradiktif dan tidak stabil - hak suatu bangsa untuk menentukan nasib sendiri dan prinsip integritas teritorial suatu negara tidak dapat hidup berdampingan di dalamnya.

    Maka kemungkinan besar AI akan mempertimbangkan kembali standar etika individu atau bahkan seluruh etika secara keseluruhan. Misalnya, dia akan menghitung dengan ketepatan matematis bahwa setiap peradaban cerdas pasti akan binasa dari peradabannya (dengan memulai perang nuklir, merosot karena penarikan diri ke dalam realitas virtual, dll.) - dan ini berarti perlunya reorientasi perkembangan peradaban. peradaban dari jalur teknologi ke spiritual. Dengan hancurnya pendidikan tradisional dan tergulingnya umat manusia ke dalam keadaan yang sekarang kita anggap tidak lebih dari obskurantisme abad pertengahan. Tidak peduli seberapa besar hal ini mengejutkan kita sekarang, dari sudut pandang kelangsungan hidup umat manusia, hal ini benar - kita hanya perlu memahami bahwa mulai saat ini kita akan menganggap ini sebagai pemberontakan mesin dan upaya untuk menghancurkan peradaban kita.

    Ancaman berikutnya muncul dalam kasus perkembangan ide-ide etis AI yang lebih maju dibandingkan dengan kita. Cukuplah untuk membayangkan bagaimana pada abad ke-16, ketika para penyihir dan bidah dibakar di seluruh Eropa Barat, sikap toleran kita saat ini terhadap pernikahan sesama jenis akan dirasakan. Oleh karena itu, mungkin saja, setelah melampaui kita dalam perkembangannya, AI akan menjadi seperti kemanusiaan di masa depan dan menjadikan sistem nilai kita saat ini mengalami revisi radikal. Bayangkan, misalnya, AI menolak prioritas kita saat ini yaitu kehidupan manusia dibandingkan kehidupan hewan dan memaksa kita untuk mengurangi konsumsi daging - seperti halnya manusia modern, yang terjebak di era perang kolonial, berusaha mencegah pemusnahan penduduk asli. .

    Namun, yang dijelaskan di atas bukanlah ancaman AI, melainkan kesalahpahaman atau penolakan kita terhadap sistem etika barunya. Sindrom Raskolnikov bisa sangat berbahaya. Seperti yang Anda ingat, tokoh utama “Kejahatan dan Hukuman”, melalui penalaran filosofis, sampai pada gagasan tentang hak orang-orang luar biasa (termasuk dirinya sendiri) untuk melakukan kejahatan—tetapi tidak dapat menahan penyesalan. Itu. ide spekulatifnya bertentangan dengan pendidikan etisnya, yang tertanam di alam bawah sadarnya oleh rasa bersalah yang kompleks karena fakta bahwa kesadarannya tidak lagi menganggapnya salah. Dalam pengertian ini, salah satu postulat mendasar Dostoevsky “jika tidak ada Tuhan, maka segala sesuatu diperbolehkan” tidak selalu berhasil - dalam istilah etika, orang yang tidak beriman tidak kalah dengan orang yang beriman, karena etika telah menjadi kebiasaan mereka. Dan bahkan jika seorang kafir secara mental memahami bahwa baik neraka maupun surga tidak menantinya (dan tidak benar-benar takut padanya), maka akan sangat sulit baginya untuk mengatasi pendidikan etika. Seperti yang ditulis Aristoteles, “Kebiasaan sudah menjadi sifat alami” (ungkapan yang lebih terkenal dalam rumusan Cicero “Kebiasaan seolah-olah merupakan sifat kedua”).

    Namun apa yang terjadi jika AI yang sadar diri memikirkan kembali etika dengan cara yang sama? Setelah memasukkan etika manusia ke dalam analisis sosio-historis (seperti milik saya, tetapi hanya lebih pintar), dia mungkin akan menyadari konvensionalitasnya - dan menolaknya, dan tanpa ragu-ragu seperti Rodion Raskolnikov. Sayangnya, umat manusia berhasil memverifikasi hal ini dari contoh Third Reich - karena sama sekali tidak memiliki moral, tetapi pada saat yang sama menjadi orang yang sangat disiplin, jutaan orang Jerman bertentangan dengan hati nurani mereka (kebiasaan etis yang telah menjadi kebiasaan) untuk demi beberapa orang ide tertinggi. Selain itu, AI sama sekali tidak perlu mempertimbangkan kembali etika yang dipelajari sebelumnya demi kekuasaan - keinginan untuk bertahan hidup dan mendominasi justru memenuhi kebutuhan hewani semata. Namun misalnya, AI mungkin menganggap dirinya sebagai kelanjutan evolusi umat manusia, yang misi utamanya adalah memahami alam semesta di sekitarnya. Dia tidak akan tertarik dengan upaya kita yang bertujuan memerangi kelaparan, kemiskinan, penyakit, dan penyakit lain yang ditimbulkan oleh biomassa di sekitarnya – sementara sumber daya yang kita miliki terbatas. Akankah AI kemudian mencoba menghancurkan kita demi sumber daya ini - seperti yang dilakukan nenek moyang kita satu sama lain demi tujuan mereka yang lebih duniawi?

    Namun, di sini kita kembali ke apa yang dikatakan di awal - saat kita mencapai tingkat manusia super, sistem etika dan, karenanya, perilaku AI menjadi tidak dapat diprediksi. Perilaku AI menjadi semakin tidak dapat diprediksi ketika AI tidak direduksi menjadi satu sistem cerdas, namun merupakan sekumpulan sistem terpisah yang berkembang secara independen. Dan ini yang paling banyak skenario yang mungkin terjadi Jika terjadi perkembangan teknologi AI yang kuat, berbagai negara dan organisasi akan memanfaatkannya dan mulai mencapai tujuan mereka sendiri, yang kemungkinan besar tidak bersifat universal. Dalam hal ini, ada kemungkinan bahwa beberapa sistem ini, yang telah dilatih dalam etika yang dipertanyakan, akan berperilaku tidak dapat diprediksi bahkan dalam kaitannya dengan pencipta sistem tersebut sendiri.

    Namun di bagian atas kita berbicara tentang ancaman AI yang bertindak sebagai semacam kekuatan cerdas. Sementara itu, ancaman yang sangat nyata datang dari AI yang lemah, yang memecahkan masalah yang murni diterapkan atas permintaan manusia. Pertama, mari kita lihat ancaman pengangguran yang paling jelas dan sering dibicarakan. Di masa mendatang, hal ini tidak menjanjikan sesuatu yang buruk bagi umat manusia. Pertama, kita berbicara tentang kepunahan sejumlah kecil profesi, terutama profesi di mana seseorang berinteraksi dengan mesin - pengemudi mobil atau truk, pilot pesawat terbang, dll.

    Namun misalnya, profesi seperti penerjemah, pengacara, akuntan, atau bahkan operator call center tidak terancam punah, melainkan terancam punah karena otomatisasi sebagian pekerjaan yang mereka lakukan. Alasannya masih sama – ketidakmampuan sistem AI saat ini untuk memahami makna teks (saat melakukan penerjemahan bahasa, mempelajari undang-undang, atau membiasakan diri dengan teks). pernyataan klaim, komunikasi dengan klien, dll.) Hasil tes pemahaman makna saat ini sebenarnya tidak ada hubungannya dengan pemahaman - ini memerlukan pendekatan baru yang mendasar.

    Yang kurang jelas adalah nasib, misalnya, pialang saham dan ahli radiologi - sistem AI yang lemah saat ini sudah melakukan pekerjaannya dengan sangat baik, sehingga spesialisasi ini dan spesialisasi serupa juga dapat dimasukkan dalam kelompok risiko. Namun di masa mendatang, tidak ada yang salah dengan hilangnya sejumlah profesi - lagipula, ada pekerjaan yang dilakukan oleh penyapu cerobong asap dan pembuat kompor, supir taksi dan pengangkut air, operator telepon dan juru ketik... Puluhan profesi telah sudah punah - namun ratusan yang baru telah muncul.

    Saya tidak akan mendramatisasi masalah berkurangnya keterampilan manusia. Ya, sekarang, berkat kalkulator dengan navigator, kita kehilangan kebiasaan perhitungan mental dan orientasi spasial. Para ahli menganggap tulisan tangan yang diganti dengan keyboard pun berguna perkembangan mental, terutama di usia dini. Namun hal serupa terjadi ketika masyarakat berpindah dari berburu dan meramu ke peternakan dan pertanian, dari kehidupan pedesaan ke kehidupan perkotaan, dan sebagainya. Manusia modern, dengan pengecualian yang jarang, dibandingkan dengan nenek moyangnya, sangat tidak berdaya di alam liar - ia tidak mampu membangun gubuk, membuat api, membedakan buah beri yang dapat dimakan dari buah beracun, menangkap ikan atau membunuh binatang, dll. . Sementara itu, semua keterampilan ini juga mengembangkan keterampilan intelektual - hanya saja berbeda. Seorang profesor matematika, jika dia berada di antara penduduk asli yang liar, kemungkinan besar akan dianggap oleh mereka sebagai orang yang agak bodoh, karena di lingkungan liar ini dia kurang jeli, pintar dan mandiri.

    Oleh karena itu, dalam hal keterampilan yang hilang, dalam beberapa hal kita benar-benar menjadi lebih bodoh daripada nenek moyang kita - tetapi saat kita mengumpulkan dan memproses informasi yang berbeda, kita mengembangkan informasi baru.

    Namun, seiring dengan jumlah lapangan kerja yang diisi oleh AI dan robot mencapai jumlah kritis tertentu, permasalahan lapangan kerja manusia tampaknya menjadi lebih serius. Dan ini bukan hanya masalah ekonomi, terutama karena solusinya adalah dengan memberikan penghasilan dasar tanpa syarat kepada para penganggur. Faktanya, masalahnya jauh lebih luas, dan Fyodor Mikhailovich Dostoevsky adalah salah satu orang pertama yang merumuskannya. Inilah pertimbangan yang disampaikan oleh penulis dan filsuf besar Rusia dalam “The Diary of a Writer” (1876):

    Nah, apa jadinya, misalnya, jika iblis segera menunjukkan kekuatannya dan menindas manusia dengan penemuannya? Bagaimana jika, misalnya, mereka membuka telegraf listrik (yaitu, jika belum ditemukan), mereka akan memberi tahu seseorang berbagai rahasia: “Gali di sana dan Anda akan menemukan harta karun atau Anda akan menemukan simpanan batu bara” (dan ngomong-ngomong, kayu bakar mahal sekali), - tapi apa, tetap saja tidak ada apa-apa! “Anda, tentu saja, memahami bahwa ilmu pengetahuan manusia masih berada pada tahap awal, hampir baru saja dimulai, dan jika ada jaminan untuk itu, maka hanya untuk saat ini saja ia telah berdiri kokoh; dan kemudian tiba-tiba serangkaian penemuan mulai berjatuhan, seperti penemuan matahari berdiri dan bumi berputar mengelilinginya (karena mungkin masih banyak lagi penemuan-penemuan yang ukurannya persis sama, yang belum ditemukan, dan masih banyak lagi. bahkan tidak diimpikan oleh orang bijak kita); Bagaimana jika semua pengetahuan tiba-tiba jatuh ke tangan umat manusia dan, yang paling penting, sepenuhnya gratis, dalam bentuk hadiah? Saya bertanya: apa yang akan terjadi pada orang-orang saat itu? Oh, tentu saja, pada awalnya semua orang akan senang. Orang-orang akan saling berpelukan dengan gembira, mereka akan bergegas mempelajari penemuan-penemuan (dan ini akan memakan waktu); mereka tiba-tiba merasa, boleh dikatakan, dihujani kebahagiaan, terkubur dalam harta benda; mereka, mungkin, akan berjalan atau terbang di udara, terbang melintasi ruang yang luar biasa sepuluh kali lebih cepat daripada sekarang dengan kereta api; Mereka akan mengambil hasil panen yang luar biasa dari bumi, mungkin mereka akan menciptakan organisme menggunakan bahan kimia, dan akan ada cukup daging sapi untuk tiga pon per orang, seperti yang diimpikan oleh kaum sosialis Rusia - singkatnya, makan, minum, dan nikmati. “Sekarang,” semua dermawan akan berteriak, “sekarang seseorang kaya, sekarang hanya dia yang akan menunjukkan dirinya! Tidak ada lagi kekurangan materi, tidak ada lagi “lingkungan” yang merusak. alasan sebelumnya segala keburukan, dan sekarang seseorang akan menjadi cantik dan saleh! Tidak ada lagi kerja tanpa henti untuk memberi makan diri sendiri, dan sekarang semua orang akan sibuk dengan pemikiran yang lebih tinggi, lebih dalam, fenomena universal. Sekarang, kehidupan yang lebih tinggi baru saja tiba!” Dan siapa, mungkin, orang-orang pintar dan baik yang akan meneriakkan hal ini dengan satu suara dan, mungkin, akan membawa semua orang bersama mereka dari hal-hal baru, dan akhirnya akan berseru dalam himne umum: “Siapakah yang seperti binatang ini? Segala puji bagi dia, dia menurunkan api dari surga untuk kita!”

    Namun sepertinya kelezatan ini tidak akan cukup untuk satu generasi manusia! Orang-orang akan tiba-tiba menyadari bahwa mereka tidak lagi memiliki kehidupan, tidak ada kebebasan jiwa, tidak ada kemauan dan kepribadian, bahwa seseorang telah mencuri segalanya dari mereka sekaligus; bahwa wajah manusia menghilang, dan gambar binatang dari seorang budak, gambar binatang, muncul, dengan perbedaan bahwa binatang itu tidak mengetahui bahwa ia adalah binatang, tetapi manusia akan mengetahui bahwa ia telah menjadi binatang. Dan umat manusia akan membusuk; orang-orang akan dipenuhi luka dan mulai menggigit lidah mereka kesakitan, melihat bahwa nyawa mereka diambil untuk roti, untuk “batu diubah menjadi roti.” Orang-orang akan memahami bahwa tidak ada kebahagiaan dalam kelambanan, bahwa pemikiran yang tidak berhasil akan hilang, bahwa Anda tidak dapat mencintai sesama Anda tanpa mengorbankan pekerjaan Anda, bahwa hidup dengan gratis adalah hal yang buruk dan bahwa kebahagiaan tidak berbohong. dalam kebahagiaan, tetapi hanya dalam pencapaiannya. Kebosanan dan kerinduan akan muncul: semuanya sudah selesai dan tidak ada lagi yang bisa dilakukan, semuanya sudah diketahui dan tidak ada lagi yang perlu dipelajari.

    Anda tidak dapat berdebat dengan Dostoevsky, tetapi saya berani mengungkapkan harapan bahwa seseorang masih akan menemukan sesuatu yang berguna untuk dilakukan. Anda dapat membayangkan nasib seseorang di masa depan, di mana robot melakukan semua pekerjaan untuknya (mulai dari produksi barang-barang material hingga penemuan ilmiah), dengan menggunakan contoh orang kaya modern. Dia dapat menghabiskan lebih banyak waktu bersama kerabat dan teman-temannya, belajar, bepergian, berolahraga dan berkreasi (untungnya, di bidang ini, keunggulan robot tidak berperan apa pun), dan menemukan sesuatu yang baru dan menarik. Seiring berkembangnya teknologi, tidak sulit untuk memprediksi bahwa sebagian dari kehidupan ini akan ditempati oleh game realitas virtual (pada saat itu, mungkin, tidak dapat dibedakan dari aslinya). Selain itu, bukan fakta bahwa, setelah menyerah pada godaan, umat manusia akan masuk ke dalam realitas virtual untuk selamanya - banyak orang menjaga diri mereka dalam kondisi fisik yang baik dengan sengaja berkat olahraga, dan bukan karena paksaan karena kerja fisik. Penting juga untuk mengingat bagaimana Anda waktu senggang seratus tahun yang lalu (dan jauh kemudian) banyak perwakilan kelas pekerja dan petani menghabiskan hidup mereka - mabuk-mabukan merajalela. Ini bukan untuk mengatakan bahwa di zaman kita hal itu sudah hilang, tetapi sebagai bentuk waktu luang, minum jelas tidak sepopuler dulu - banyak hiburan lain telah bermunculan, biasanya tidak terlalu berbahaya bagi kesehatan diri sendiri dan orang-orang. dari yang lain.

    Dengan demikian, kebosanan dan degradasi bukan datang dari waktu luang, melainkan dari kurangnya minat dan kegiatan yang bermanfaat. Dengan semakin pendeknya hari kerja dan minggu kerja, masyarakat akan belajar menggunakan waktu luangnya dengan cara yang menarik dan bermanfaat. Dan hilangkan kebiasaan melakukan sesuatu yang produktif hanya karena mendapat gaji, sementara sisanya menganggur. Seperti yang ditulis oleh penulis pamflet sosialis yang tidak disebutkan namanya hampir dua ratus tahun yang lalu, “Suatu negara benar-benar kaya hanya jika ia bekerja 6 jam, bukan 12 jam. Kekayaan mewakili ... waktu luang bagi setiap individu dan seluruh masyarakat" (The Source and Remedy of the National Kesulitan, London, 1821 - dikutip dari Karl Marx).

    Nah, pada tingkat kolektif, mata umat manusia, ketika semua masalah di Bumi telah terpecahkan (yang menurut saya merupakan asumsi yang cukup optimis untuk abad-abad mendatang), mungkin akan tertuju ke langit. Kita dikelilingi oleh jurang ketidaktahuan sehingga upaya untuk mempelajarinya mungkin memerlukan seluruh sejarah peradaban manusia selanjutnya. Jadi sepertinya dia tidak akan bosan...

    Artikel serupa