Изкуственият интелект, потенциална заплаха за оцеляването на човечеството. Може ли супер калкулаторът да е заплаха? Възможна заплаха от изкуствен интелект

31.07.2019

Откри футуристичният Future Design Club, създаден под егидата на бизнес изданието Invest-Foresight. Клубът събра експерти в различни области на знанието, за да анализира бъдещи сценарии. Първата среща се проведе в Института по философия на Руската академия на науките и се проведе във връзка с новия семинар „Философия на цифровата ера“ на самия институт. Попадна под радара на футуролози и философи изкуствен интелект(AI) и неговото въздействие върху обществото и отделните хора.

Какво да очакваме от AI, какви ограничения и опасности крият иновативните информационни системи, каза биофизик, водещ експерт в Института по биология на стареенето Игор Артюхов.

Ученият отбеляза, че в региона цари терминологичен хаос. Най-често използваната формулировка е 70-годишна формулировка, дадена от американски инженер, автор на термина „изкуствен интелект“. Джон Маккарти. Той определи AI като определена система, устройство или мрежа от тях, която е способна да решава интелектуални проблеми. Игор Артюхов подчерта, че интелигентността не е синоним на интелект, а характеризира умението да се работи със знания и данни.

Има и много класификации на алгоритми. Доскоро, според Игор Артюхов, доминираха експертните разработки (отгоре надолу), но те не отговориха на очакванията нито на създателите, нито на потребителите и започна зимата на AI. Възраждането беше причинено от развитието на невронните мрежи, които навлязоха в активна фаза през 2015-2016 г. Тези разработки са вдъхновени от изследване на човешкия мозък. Невронните мрежи до голяма степен се повтарят основни принципифункционирането на мозъка, въпреки че изкуствените неврони могат да се различават от естествените. Днес има „зоопарк“ от невронни мрежи и повечето от тях са получени наскоро с помощта на технология за дълбоко обучение.

"Интелектуална" революция на 17-та година

Темата за AI стана голям хит през 2016 г., когато програмата AlphaGo победи световния шампион в играта Go, която се смята за много по-трудна от шаха. Това се случи 10 години по-рано от предвиденото. Постиженията на програмата DeepMind на Google преместиха дебата отвъд "възможен ли е AI?" в равнината на "на какво е способен?"

Днес AI може да автоматизира всяка човешка функция със същото качество или по-високо, казва член на клуба, доктор по физика и математика. Юрий Визилтер.

« През 2017 г. всички основни „дупки“ по пътя към създаването на пълноценен AI бяха затворени. Предишни прогнози гласяха, че този праг ще бъде преминат през 2025-2030 г. Но това се случи още през април миналата година”, подчерта Юрий Визилтер. – Има два вида AI – единият се опитва да имитира човешки разсъждения и е прозрачна кутия, в която има логика, има когнитивност, има работа със структурирани модели и с езици. Вторият тип са дълбоки мрежи, които могат да се учат, или черна кутия. Преди беше невъзможно да се свържете по удобен начинтези две части на AI. Миналата година се появиха дълбоки невронни мрежи, които са способни да пишат програми на логически езици, способни да работят с бази за логически изводи и със структури».

Страх от изкуственото

Сферите, в които може да се използва изкуственият интелект, се умножават. Програми разработват нови лекарствени формули, провеждат сложни генетични тестове, „контролират“ безпилотни превозни средства и кораби... В обозримо бъдеще ще видим изкуствени личности, чийто прототип днес са Siri и подобни програми. Вече се провеждат експерименти за създаване на глобален AI в блокчейна, тоест разпределените изчисления ще се използват за решаване на супер сложни проблеми, включително на частни компютри и устройства. Появата на квантовия изкуствен интелект не е далече. На теория квантовите компютри са надминали обхвата на конвенционалните компютри: те са способни да формират квантови невронни мрежи. Ако идеите на разработчиците бъдат реализирани, това ще доведе до появата на AI с ново качество.

Възможно ли е AI да излезе извън контрол? Игор Артюхов отговаря на този въпрос по следния начин:

« Да, дори сега AI понякога работи по начин, който е неразбираем за разработчиците. Но хората не винаги действат според общоприетата логика.».

Според биофизика много от опасностите на ИИ са пресилени и са просто проекция на човешките инстинкти, формирани от Дарвиновата еволюция върху машинния интелект. Игор Артюхов смята, че инстинктът за самосъхранение е чужд на ИИ. Появата на „лош“ AI може да бъде причинена от софтуерни грешки (а те съществуват във всеки код и се коригират по време на живота на алгоритъма), грешки в обучението и злонамерени намерения, т.е. Опасността не е AI, а човешката глупост.

Участниците в срещата стигнаха до извода, че задачата за разработване на етика за AI и обучение на учители за роботи става първостепенна.


Дигитална трансформация на човека

Един от най-разпространените страхове е, че ИИ ще доведе до масова безработица. Главен редактор на списание Invest-Foresight, кандидат на културните науки Константин Фрумкинсе опита да отговори на въпроса „Каква ниша на пазара на труда ще остави AI за хората?“ Според него облагодетелстваният от технологичната революция на 20 век – градският интелектуалец – лети в същата пропаст, в която занаятчията или селянинът пада с началото на индустриализацията.

« В близко бъдеще ще станем свидетели на изместването на човека от сферата на умствената работа от изкуствения интелект“, убеден е Константин Фрумкин. – Вече виждаме трансформация в човешките способности, когнитивен стил и мислене: така се случва адаптирането към дигиталната ера. Символът на тази адаптация беше концепцията за „клипово мислене““».

Няма обаче доказателства, че тази адаптация ще позволи на човек да намери точно онези ниши, които ще му бъдат оставени от изкуствения интелект. Най-важната област, която според Константин Фрумкин не трябва да се оставя на роботите, е областта на целеполагането. Тъй като правителството се цифровизира, определянето на приоритети и ценности за AI става неделимо от политиката и закона. Тази професия, според Константин Фрумкин, може да осигури масова заетост в бъдеще.

Изкуствен интелект, човешко тяло

Бъдещето вече не е възможно да се предвиди, тъй като скоростта на промяната е много висока, казва Юри Визилтер. Все пак преподавател във Висшето училище по икономика и data scientist Леонид Жуковпокани участниците в срещата да обсъдят няколко сценария за развитие.

« Виждам два сценария за развитие на ИИ в сравнително близко бъдеще: трансхуманистичен (технологизиране на естествения човек) и чисто технически (създаване на автономен изкуствен интелект, AAI), първоначално изкуствен, отбеляза Леонид Жуков. – Вторият начин е това, с което писателите на научна фантастика плашат човечеството, рисувайки образи на машинна цивилизация, която измества човешката цивилизация. Тъй като обаче загадката на човешкото съзнание все още не е разгадана, остават съмнения дали създаването на такъв разум е принципно възможно. Независимо дали ще бъде създаден AGI или не, днес не е трудно да си представим развитието на технологиите, както машинни, така и био, до такава степен на съвършенство, че човек, запазил мозъка си, ще получи напълно изкуствено тяло».

Както вярва Леонид Жуков, един от фантастичните начини за създаване на AGI се основава на идеята за пренаписване на човешкото съзнание върху изкуствена среда.

« Ако този вид технология стане възможна, не е трудно да си представим напълно виртуален свят, където, вероятно, част от човечеството ще иска да се премести (или да пътува през тази виртуалност, тъй като всъщност компютърните играчи вече пътуват през световете на игри днес )“, разсъждава ученият.

Участниците в първата среща на клуб „Проектиране на бъдещето” очертаха контурите на бъдещи дискусии. Клубът обаче ще съществува във виртуална среда, а всички изяви могат да бъдат намерени на сайта на Invest Foresight.

Изкуственият интелект е заплаха за хората, предупреждава Стивън Хокинг. Изкуственият интелект, създаден от човека, може да се превърне в най-голямата катастрофа(!), конкурираща се с човешката цивилизация.

Изкуствен интелект, роботи на бъдещето - човешка подкрепа

Електронният интелект може да създаде своя собствена машинна цивилизация, като по този начин се превърне в една от най-сериозните заплахи за човечеството.

Предсказанието за опасност идва от известния физик Стивън Хокинг (открил света на Вселената). За нашето време това разбира се е потенциална заплаха, но един „хубав ден“ в бъдещето изкуственият интелект може да развие „своя собствена воля“. Сега е време да се замислим сериозно върху този въпрос.

Физикът отново отправи предупреждение: изкуственият интелект може да се развие в перфектна мисловна структура. Толкова сложна и интелигентна, че ще овладее способността да расте и да разбира света в съответствие със собствената си воля, която може да противоречи на плановете на човечеството.

Това може да доведе до появата на мощни оръжия и да провокира загубата на контролирана територия от човечеството. — Професор Хокинг призовава изследователите да проучат внимателно проблема с поведението на изкуствения интелект и неговите възможности в бъдеще.

Трябва да се каже, че професор Хокинг не отхвърля идеята за изкуствения интелект в отрицателна област. Ученият посочва, че ако си направим домашното и проучим достатъчно добре, можем .

С асистент като AI можем да постигнем по-добър начин на живот, казва физикът. Изкуственият интелект може да помогне на човечеството да изкорени болестите и бедността.

Професор Хокинг говори при откриването на The Leverhulme center, засягайки както полезността на машинния интелект, така и неговите отрицателни аспекти. Центърът е създаден за бъдещето на разузнаването, предназначен да провежда изследвания и да изучава последиците бързо развитиеизкуствен интелект.

Трябва да припомним, че за Стивън Хокинг 100 години са миг. Всъщност интелигентните AI дори не са въпрос на следващите сто години, освен ако някой не донесе процесор от 2135 г.

Центърът Leverulm за бъдещето на AI ще обедини сътрудничеството между няколко университета в Обединеното кралство и Съединените щати. Идеята е да се създаде интердисциплинарна изследователска общност.

Екипът планира да работи в тясно сътрудничество с бизнеса и правителството, за да се опита, наред с други задачи, да определи краткосрочните и дългосрочните рискове и ползи от залагането на изкуствен интелект. Директорът на Центъра Хю Прайс увери: създаването на интелигентни машини е важен етап от човечеството и центърът ще се опита да направи „най-доброто бъдеще“.

В допълнение към обхвата на своите изследвания Центърът ще анализира последиците от бързото развитие на интелигентни машини като роботите. Роботи, предлагащи решения на проблеми Ежедневието, създават рискове и етични дилеми за човечеството. Много хора, които не вярват на електрониката, се страхуват от AI, а освен това цифровият интелект може да надмине човешкия интелект и да контролира човешкия живот.

Вярвам, че няма голяма разлика между това, което може да се постигне с биологичен мозък и това, което може да се постигне с компютър. От това следва, че теоретично компютрите могат да имитират човешкия интелект - да го надминат. С. Хокинг.

Професор Хокинг вярва, че потенциалните ползи от AI в живота ни са големи. Подобна технологична революция може да помогне на човечеството да обърне част от щетите, нанесени на планетата. „Успехът в създаването на AI може да бъде най-голямото събитие в историята на цивилизацията“, казва професор Хокинг.

Но това може да бъде и последната стъпка в човешката история, освен ако, разбира се, не се научим как да избягваме рисковете, защото наред с ползите, ИИ може да крие опасности: мощни оръжия, нови начини за малцина да потискат мнозинството. В крайна сметка това може да завърши с доминирането на железните тела над биологичните, причинявайки големи катастрофи в бъдеще.

Какво ще стане, ако AI, а ние говорим за интелигентност със способността да инициира избор на поведение, влезе в конфликт с житейските аспекти на човек? В края на краищата, тогава послушният железен помощник в кухнята може да се преквалифицира като диктатор на условията!

— Разработването на мощен AI ще бъде или най-доброто, или най-лошото нещо, което някога ще се случи на човечеството. Не знаем какво крие бъдещето, казва проф. Хокинг. Ето защо през 2014 г. аз и много други призовахме за повече изследвания в тази област. Много се радвам, че някой ме чу, завърши проф. Хокинг при откриването на центъра.

Популярното американско онлайн списание Wired публикува изключително интересен текст на Кевин Кели, в който той сериозно критикува идеята за опасностите от изкуствения интелект. "NI" публикува превод на този материал, направениизползвайки канала за телеграми Newochem с малки намаления.

„Чувал съм, че в бъдеще компютрите с изкуствен интелект ще станат толкова по-умни от хората, че ще ни лишат от работа и ресурси и в резултат на това човечеството ще приключи. Но дали е така? Задават ми подобен въпрос всеки път, когато изнасям лекции по ИИ.

Питащите са по-сериозни от всякога, безпокойството им отчасти се дължи на притесненията на някои експерти, които се измъчват от същия въпрос. Сред тях са най-умните наши съвременници - Стивън Хокинг, Илон Мъск, Макс Тегмарк, Сам Харис и Бил Гейтс.

Всички допускат възможността за такъв сценарий. На скорошна конференция за изкуствен интелект, група от девет от най-просветените гурута в областта дойдедо единодушното заключение, че създаването на свръхчовешки разум е неизбежно и е точно зад ъгъла.

И все пак сценарият за поробването на човечеството от изкуствения интелект се основава на пет предположения, които при по-внимателно разглеждане се оказват недоказани. Тези твърдения може да са верни в бъдеще, но в момента са необосновани.

Ето ги и тях:

  1. Изкуственият интелект вече става по-умен от човешкия ум и този процес е експоненциален.
  2. Ще разработим ИИ с общо предназначение, подобен на нашия.
  3. Можем да създадем човешки интелект от силиций.
  4. Интелигентността може да бъде безгранична.
  5. Създаването на грандиозен суперинтелект ще реши повечето ни проблеми.

За разлика от тези ортодоксални постулати мога да цитирам следната доказана ерес:

  1. Интелигентността не е едноизмерна, така че „по-умен от човек“ е безсмислено понятие.
  2. Хората не са надарени с интелект с общо предназначение, което не е заплаха за изкуствения интелект.
  3. Конкуренцията между хората и компютрите ще бъде ограничена от разходите.
  4. Интелигентността не е безгранична.
  5. Създаването на AI е само част от напредъка.

Ако вярата в поробването на хората от изкуствения интелект се основава на пет необосновани предположения, то тази идея е по-близка до религиозните вярвания – митове. В следващите глави ще допълня контрааргументите си с факти и ще докажа, че свръхчовешкият изкуствен интелект наистина не е нищо повече от мит.

Най-често срещаното погрешно схващане за ИИ идва от също толкова популярното виждане за естествения интелект, че той е едноизмерен. В твърдите науки мнозина изобразяват интелигентността по начина, по който го направи Ник Бостром в книгата си Суперинтелигентност - буквално като едноизмерна линейна графика с нарастваща амплитуда.

В единия край има същества с най-ниско ниво на интелигентност, например малки животни, а в другия - гении, сякаш нивото на интелигентност не се различава от нивото на звука, измерено в децибели. Разбира се, в този случай е лесно да си представим по-нататъшно увеличение, при което нивото на интелигентност надвишава най-високата точка на графиката и дори отива отвъд нея.

Този модел е топологично еквивалентен на стълба, на чиито стъпала са подредени във възходящ ред нивата на интелигентност. По-малко интелигентните животни заемат по-ниските стъпала на стълбата, а изкуственият интелект от по-високо ниво неизбежно ще бъде позициониран над нас. Времевата рамка, когато това се случи, няма значение. Много по-важни са самите стъпала на йерархията – метриката на растящата интелигентност.

Проблемът с този модел е, че той е митичен, точно като модела на еволюционната стълба. Преди дарвинизма Жива природаизглеждаше като стълба от живи същества, където човекът заемаше едно стъпало над по-примитивните животни.

И дори след Дарвин, стълбата на еволюцията остава една от най-разпространените концепции. Той демонстрира превръщането на рибите във влечуги, на тях в бозайници и на приматите в хора. Освен това всяко следващо същество е по-развито (и, разбира се, по-интелигентно) от своя предшественик. Така стълбата на интелекта корелира със стълбата на вселената. И двата модела обаче отразяват напълно антинаучни възгледи.

По-точна диаграма за естествената еволюция би била диск, излъчващ се навън, както е на изображението по-горе. Тази структура е разработена за първи път от Дейвид Хилис от Тексаския университет на базата на ДНК. Тази генеалогична мандала започва в центъра с най-примитивните форми на живот и след това се разклонява навън. Времето се движи напред, така че най-новите форми на живот са разположени около периметъра на кръга.

Това изображение подчертава един неоценим факт за еволюцията от фундаментално значение - всички живи същества са еволюирали еднакво. Човекът е разположен във външната част на диска заедно с хлебарки, мекотели, папрати, лисици и бактерии.

Всички видове без изключение са преминали през непрекъсната верига на успешно размножаване, продължила три милиарда години, което означава, че бактериите и хлебарките са също толкова високо еволюирали, колкото и хората. Няма стълби.

По същия начин няма стълба на интелигентност. Интелигентността не е едноизмерна. Това е комплекс различни видовеи начини на познание, всеки от които е непрекъснат. Нека направим едно просто упражнение за измерване на интелигентността на животните. Ако интелигентността беше едноизмерна, лесно бихме могли да подредим папагала, делфина, коня, катерицата, октопода, синия кит, котката и горилата по ред на нарастване на интелигентността.

Към момента няма научни доказателства за съществуването на такава последователност. Причината за това може да е липсата на разлики в нивото на интелигентност на определени животни, но това също е неоснователно.

Зоологията е богата на примери за поразителни различия в мисленето на животните. Може би всички животни са надарени с интелигентност с „общо предназначение“? Може би, но ние нямаме нито един инструмент за измерване на този тип интелигентност. Имаме обаче много системи за измерване на различни видове познание.

Вместо една децибелова линия, би било по-подходящо интелектът да се изобрази като диаграма на вероятностното пространство, както при визуализацията на възможните форми, създадена от алгоритъма на Ричард Докинс. Интелигентността е комбинативен континуум. Много възли, всеки от които е континуум, създават комплекс от колосално разнообразие в много измерения. Някои видове интелигентност могат да бъдат много сложни, с голям набор от подвъзли на мислене. Други са по-прости, но по-екстремни, достигат до крайната точка на пространството.

Тези комплекси, които за нас означават различни разновидности на интелекта, могат да се възприемат като симфонии, изпълнявани на различни видовемузикални инструменти. Те се различават не само по обем, но и по мелодия, цвят, темпо и т.н. Можете да ги възприемате като екосистема. В този смисъл различните компоненти на мисловните възли са взаимозависими и се създават един от друг.

Както каза Марвин Мински, човешкото съзнание е общество на разума. Нашето мислене е цялостна екосистема. Нашият мозък има много начини за познание, които изпълняват различни умствени функции: дедукция, индукция, емоционална интелигентност, абстрактно и пространствено мислене, краткосрочна и дългосрочна памет.

Цялата човешка нервна система е част от мозъка със собствено ниво на познание. Всъщност мисловният процес се осъществява не от мозъка, а от цялото човешко тяло.

Всички разновидности на мислене варират както между видовете, така и между членовете на един и същи вид. Една катерица може да помни точното местоположение на няколко хиляди жълъди в продължение на години, което е напълно неразбираемо за хората. В този тип мислене хората са по-ниски от катериците. Интелигентността на катериците е комбинация от тази суперсила с други форми на интелигентност, в които хората превъзхождат катериците. В животинското царство могат да се намерят много примери за превъзходството на определени форми на животински интелект над човешкия интелект.

Същата ситуация се разви и с изкуствения интелект, който в някои области вече превъзхожда човешкия интелект. Всеки калкулатор е математически гений и паметта на търсачката на Google вече е в някои отношения по-добра от нашата собствена.

Някои ИИ извършват умствени дейности, на които ние не сме способни. Запомнянето на всяка дума от шест милиарда уеб страници е трудна задача за хората и бриз за търсачките. В бъдеще ще създадем напълно нови начини на мислене, които не са достъпни за хората и не съществуват в природата.

Изобретателите на самолети са били вдъхновени от естествения полет - пляскането на криле. По-късно обаче е изобретено неподвижно крило с прикрепени към него витла и това е напълно нов принцип на полет, който не се среща в природата.

Ето как измисляме нови начини на мислене, на които никой друг вид не е способен. Най-вероятно това ще бъдат принципи, които се прилагат само към високоспециализирани проблеми: например нови логически конструкции, които са необходими само в статистиката и теорията на вероятностите.

Нов вид мислене ще помогне за решаването на проблеми, с които човешкият ум не може да се справи. Някои от най-трудните въпроси в бизнеса и науката изискват решения в две стъпки. Първият етап е да се измисли нов начинестествено мислене. Второто е да започнете да търсите отговори заедно с AI.

Хората ще започнат да смятат AI за по-умен от себе си, ако може да помогне за решаването на неразрешими преди това проблеми. Всъщност мисленето на AI не е по-добро от нашето, просто е различно. Вярвам, че основното предимство на изкуствения интелект е, че той може да мисли като извънземен и тази извънземност е основното му предимство.

Освен това ще създадем сложни AI „общности“ с различни начини на мислене. Те ще бъдат толкова сложни, че ще могат да решават проблеми, които ние не можем да решим. Следователно някои хора погрешно ще решат, че AI комплексите са по-интелигентни от хората. Но ние не смятаме, че търсачката на Google е по-умна от човек, въпреки че паметта му е по-добра от нашата.

Вероятно тези комплекси с изкуствен интелект ще ни надминат в много области, но никой от тях няма да надмине хората навсякъде наведнъж. Подобна ситуация се получи и при нас физическа сила. Изминаха двеста години от индустриалната революция и никоя машина не е станала по-силна от обикновения човек в каквото и да е отношение, въпреки че машините като клас значително превъзхождат хората по скорост на бягане, вдигане на тежести, прецизност на рязане и други дейности.

Въпреки нарастващата сложност на структурата на ИИ, е невъзможно тя да бъде измерена с помощта на методите на съвременната наука. Нямаме инструментите, за да кажем дали една краставица или Boeing 747 е по-сложен, нито пък имаме начин да измерим разликите в тяхната сложност. Ето защо все още нямаме точни критерии за интелектуалните възможности.

С течение на времето ще става все по-трудно да се установи кое е по-сложно и съответно по-умно: интелигентност А или интелигентност Б. Има много неизследвани области на умствената дейност и главно това ни пречи да разберем, че умът не е един- размерен.

Второто погрешно схващане за човешкия ум е, че ние вярваме, че нашият ум е универсален. Това широко разпространено вярване влияе върху пътя, който поемаме към създаването на изкуствен общ интелект (AGI), който някога беше обявен от експертите по ИИ.

Въпреки това, ако мислим за ума като за огромно пространство от възможности, не можем да говорим за състояние на обща цел. Човешкият ум не заема някакво абстрактно централно място и други специализирани видове ум не се въртят около него.

По-скоро човешкият интелект е изключително специфичен тип интелект, който се е развивал в продължение на милиони години за оцеляването на нашия вид на тази планета. Ако искахме да поставим интелекта си сред всички други възможни видове интелигентност, той щеше да се озове някъде в ъгъла - като самия свят, сгушен на ръба на огромна галактика.

Разбира се, можем да си представим, а понякога и да измислим определен тип мислене, подобен по своите характеристики на швейцарско ножче. Изглежда, че се справя с много задачи, но не с гръм и трясък.

Това включва и техническо правило, на което всички неща трябва да се подчиняват, независимо дали са създадени умишлено или са възникнали естествено: „Невъзможно е да се оптимизират всички измерения. Можете да намерите само компромиси. Многофункционалната машина с общо предназначение не може да надмине специализираните функции.

Манталитетът „направи всичко“ не може да работи наравно със специализирани изпълнители на конкретни задачи. Тъй като считаме нашето съзнание за универсален механизъм, ние вярваме, че познанието не трябва да се основава на компромис и че е възможно да се изобрети изкуствен интелект, който демонстрира максимална степен на ефективност във всички видове мислене.

Не виждам обаче доказателства за това твърдение. Просто все още не сме създали достатъчен брой разновидности на съзнанието, които да ни позволят да видим пълната картина (и засега предпочитаме да не разглеждаме животинското съзнание през призмата на един параметър като отделен тип мислене с променлива амплитуда).

Част от това убеждение, че нашето мислене е възможно най-универсално, произтича от концепцията за универсални компютри. Това предположение беше наречено тезата на Чърч-Тюринг през 1950 г. Той гласи, че всички изчисления, които отговарят на определени параметри, са еквивалентни.

По този начин има база, която е универсална за всички изчисления. Независимо дали изчислението се извършва от една машина с много бързи механизми, от машина с по-малко висока производителност или дори в биологичен мозък, говорим за един и същ логичен процес. Това от своя страна означава, че можем да симулираме всеки изчислителен процес (мислене), използвайки всяка машина, която може да извършва "универсални" изчисления.

Използвайки този принцип, привържениците на сингулярността оправдават очакванията си, че ще можем да проектираме базиран на силиций изкуствен мозък, който може да побере човешкото съзнание, че ще можем да създадем изкуствен интелект, който ще мисли по същия начин като човек, но много по-ефективно. Тези надежди трябва да се третират с известна доза скептицизъм, тъй като се основават на неправилно тълкуване на тезата Чърч-Тюринг.

Отправната точка на тази теория е: „При условия на неограничена памет и време, всички изчисления са еквивалентни.“ Проблемът е, че в действителност никой компютър няма характеристиките на безкрайна памет или време. Когато правите изчисления в реалния свят, времевият компонент е изключително важен до такава степен, че често е въпрос на живот и смърт.

Да, всички видове мислене са равни, ако изключим времевия аспект. Да, възможно е да се симулира човешка мисъл във всяка матрица, ако решите да игнорирате времето или ограниченията на пространството и паметта в реалността.

Въпреки това, ако включите времевата променлива в това уравнение, ще трябва значително да промените формулировката на принципа: „Две изчислителни системи, работещи на коренно различни платформи, няма да извършват еквивалентни изчисления в реално време.“

Този принцип може да бъде преформулиран по следния начин: „Единственият метод за получаване на еквивалентни начини на мислене е да се прилагат на една и съща основа. Физическата среда, върху която извършвате своите изчисления - особено когато тяхната сложност нараства - силно влияе върху типа мислене в реално време."

Продължавайки логическата верига, ще предположа, че единственият метод за създаване на тип мислене, който е възможно най-близък до човешкия, е извършването на изчисления с помощта на материя, която много прилича на нашето сиво вещество.

Това означава, че можем също така да предположим, че обемният, сложен изкуствен интелект, създаден на базата на сух силиций, ще генерира тромави, сложни и нечовешки типове мислене. Ако може да се създаде изкуствен интелект, който работи върху мокра материя, използвайки подобни на човека изкуствени неврони, мисловният процес на такъв ИИ би бил много по-близо до нашия.

Предимствата на такава „мокра“ система са пропорционални на близостта на използваните физически носители до човешките. Създаването на такова вещество би изисквало огромни материални разходи, за да се постигне ниво, поне подобно на това, което ни е присъщо по природа. И можем да създадем нов човек по този начин - просто трябва да изчакаме 9 месеца.

Освен това, както споменахме по-рано, ние мислим с цялото си същество, а не само със съзнанието си. Съвременната наука разполага с изобилие от данни за това как нашата нервна система влияе, прогнозира и се адаптира в нашия „рационален“ процес на вземане на решения. Колкото по-подробно разглеждаме системата на човешкото тяло, толкова по-внимателно можем впоследствие да я пресъздадем. Изкуственият интелект, работещ с вещество, коренно различно от нашето (сух силиций вместо мокър въглерод), също ще мисли по различен начин.

Не мисля, че тази функция е по-скоро „функция, отколкото грешка“. Както твърдях във втората точка на тази статия, разликите в мисловния процес на AI са основното му предимство. Ето още една причина, поради която би било погрешно да се каже, че е „по-умен от човешкия мозък“.

В основата на концепцията за свръхчовешкия интелект - и особено на теорията за постоянното самоусъвършенстване на такъв ИИ - е искрената вяра в безграничността на интелекта. Не намерих доказателства за това твърдение.

Отново погрешното възприемане на интелигентността като система, дефинирана само от едно измерение, допринася за разпространението на това твърдение, но трябва да разберем, че то остава неоснователно. Във Вселената няма безкрайни физически измерения - поне те все още не са известни на науката.

Температурата не е безкрайна - има минимални и максимални стойности на студ и топлина. Пространството и времето също не са неограничени, както и скоростта. Може би числовата ос може да се нарече безкрайна, но всички други физически параметри имат своите граници. Разбира се, самият ум също е ограничен.

Възниква въпросът: къде са границите на интелигентността? Свикнали сме да вярваме, че границата е някъде далеч, както „над“ нас, така и ние „над“ мравките. Като оставим настрана неразрешения проблем с едноизмерността, как можем да докажем, че все още не сме достигнали границата? Защо не можем да бъдем венецът на творението? Или може би почти сме достигнали границите на човешките възможности? Защо вярваме, че интелигентността е безкрайно развиваща се концепция?

По-добре е да възприемаме нашия интелект като една от разновидностите на огромен брой видове мислене. Въпреки че всяко измерение на познанието и изчислението има ограничение, ако има стотици измерения, тогава има безброй разновидности на интелигентност, но нито една не е безкрайна в нито едно измерение.

Докато създаваме или се сблъскваме с тези безброй вариации по темата за съзнанието, може да ги преживеем като надхвърлящи нашите възможности. В последната си книга „Неизбежното“ очертах списък на някои от тези разновидности, които са по-ниски от нас по един или друг начин. По-долу ще дам част от този списък:

Ум, който е възможно най-близък до човешкия, но има по-висока скорост на реакция (най-простият изкуствен интелект);

Много бавен ум, чиито основни компоненти са обширно пространство за съхранение и памет;

Универсална интелигентност, състояща се от милиони индивидуални съзнания, действащи в унисон;

Кошерен ум, състоящ се от голям брой изключително продуктивни интелигентности, които не знаят, че са едно цяло;

Борг суперум (раса от киборги с колективен ум, опитващи се да асимилират в своя колектив всички живи същества от поредицата Стар Трек - прибл. Newabout) - множество високофункционални интелигентности, ясно осъзнаващи, че са едно цяло;

Ум, създаден с цел развитие на личното съзнание на носителя, но неподходящ за никой друг;

Ум, способен да си представи по-сложен ум, но не може да го създаде;

Ум, способен един ден успешно да създаде по-сложен ум;

Ум, който може да създаде по-сложен ум, който от своя страна може да създаде още по-сложен ум и т.н.;

Ум, който има бърз достъп до изходния си код (може да променя характеристиките на функционирането си по всяко време);

Свръхлогичен ум, лишен от способността да изпитва емоции;

Стандартен ум, насочен към решаване на зададени проблеми, но неспособен на интроспекция;

Ум, способен на интроспекция, но неспособен да реши възложените му проблеми;

Ум, чието развитие отнема дълъг период от време, нуждаещ се от защитен ум;

Изключително бавен ум, разпръснат в огромно физическо пространство, което изглежда "невидимо" за форми на съзнание, които реагират по-бързо;

Ум, способен бързо и многократно да възпроизвежда свои копия;

Ум, способен да възпроизвежда своите копия и да остане едно с тях;

Ум, способен да постигне безсмъртие, като се движи от домакин на домакин;

Бърз, динамичен ум, способен да променя процеса и естеството на мисленето;

Нано-ум, най-малката независима единица (по размер и изходна енергия), способна на самоанализ;

Ум, специализиран в създаването на сценарии и прогнозиране;

Ум, който никога не забравя нищо, включително невярна информация;

Наполовина машина, наполовина животно;

Наполовина машина, наполовина андрогинен киборг;

Ум, който използва в работата си непонятен за нас количествен анализ.

Днес някои наричат ​​всеки от тези типове мислене свръхчовешки ИИ, но в бъдеще многообразието и чуждостта на тези форми на интелигентност ще ни принуди да се обърнем към нови речници и да изучаваме подробно темата за мисленето и интелигентността.

В допълнение, привържениците на идеята за свръхчовешки AI предполагат, че нейното ниво умствени способностище нарасне експоненциално (въпреки че все още нямат система за оценка на това ниво). Може би те вярват, че процесът на експоненциално развитие вече се случва.

Така или иначе, днес няма доказателства за такъв растеж, независимо как го измервате. В противен случай това би означавало, че умствените способности на AI се удвояват за определен период от време.

Къде е доказателството за това? Единственото нещо, което сега нараства експоненциално, са инвестициите в AI индустрията. Но възвръщаемостта на тези инвестиции не може да се опише със закона на Мур. AI не става два пъти по-умен за три години или дори за десет години.

Питах много експерти в областта на AI, но всички се съгласиха, че нямаме критерии за интелигентност. Когато попитах Рей Кърцвейл, истински експоненциален магьосник, къде да намеря доказателства за експоненциалното развитие на ИИ, той ми писа, че развитието на ИИ не е експлозивен процес, а постепенен процес.

„Добавянето на ново ниво към йерархията изисква както експоненциално увеличение на изчислителната мощност, така и увеличаване на сложността на алгоритъма... Следователно трябва да очакваме линейно увеличение на броя на условните нива, тъй като всяко от тях изисква експоненциално нарастване на собствените ни способности. Не са ни останали много нива на сложност, за да постигнем AI способностите на неокортекса (основната част от кората на човешкия мозък, която е отговорна за висшите нервни функции - прибл. Ново какво), така че все още вярвам, че предположенията ми за 2029 г. са правилни.

Рей сякаш иска да каже, че не силата на изкуствения интелект расте експоненциално, а усилията за създаването му, докато резултатът от тях просто се увеличава с една стъпка всеки път. Това е почти обратното на хипотезата за експлозията на интелекта. Това може да се промени в бъдеще, но AI очевидно не расте експоненциално днес.

Така че, когато си представяме „бума на ИИ“, трябва да мислим за него не като за лавина, а по-скоро като за разделяне на много нови разновидности. Резултатът от технологичния прогрес най-вероятно ще бъде не супермен, а супермен. Отвъд нашето познание, но не непременно „над“ него.

Друг широко приет, но до голяма степен неподкрепен мит за поробването от суперинтелект е, че почти безкрайният интелект може бързо да реши всичките ни проблеми.

Много привърженици на бързото развитие на AI очакват той да създаде бум в прогрес. Аз наричам вярата в това „мислене“ (терминът е преведен от Вячеслав Голованов - прибл. Newabout). Този подход се основава на убеждението, че напредъкът се възпрепятства само от недостатъчно мислене или интелигентност. (Ще отбележа също, че вярата в ИИ като панацея за всички злини е характерна най-вече за хората, които самите обичат да мислят.)

Нека разгледаме въпроса за победата над рака или за удължаването на живота. Това са проблеми, които не могат да бъдат решени само с мислене. Никакво мислене не може да разбере как клетките стареят или как теломерите се скъсяват. Никаква интелигентност, колкото и да е готина, не може да разбере как работи човешкото тяло, само като прочета всичко известно научна литературав света и да го анализираме.

Super-AI няма да може просто да мисли за всички настоящи и минали експерименти за разделяне на атомното ядро ​​и ден по-късно да излезе с готова рецепта за термоядрен синтез. За да се стигне от неразбиране до разбиране на който и да е предмет, е необходимо повече от просто мислене.

В действителност има много експерименти, всеки от които дава цял куп противоречиви данни и изисква допълнителни експерименти, за да се формира правилната работна хипотеза. Само като си помисля за това възможни резултатиняма да даде правилни изходни данни.

Мисленето (интелигентността) е само част от инструмента на науката. Най-вероятно само малка част. Например, просто нямаме достатъчно данни, за да се доближим до решаването на проблема със смъртта. Когато работите с живи организми, повечето от тези експерименти отнемат време. Бавният клетъчен метаболизъм не може да се ускори. Необходими са години, месеци или поне дни, за да получите резултати.

Ако искаме да знаем какво се случва със субатомните частици, не е достатъчно просто да мислим за тях. Трябва да изградим много големи, много сложни, много сложни физически модели, за да разберем. Дори ако най-умните физици станат хиляди пъти по-умни, отколкото са сега, те няма да научат нищо ново без колайдера.

Няма съмнение, че супер-AI може да ускори развитието на науката. Можем да създадем компютърни модели на атоми или клетки и можем да ги ускорим по много начини, но има проблеми, които пречат на симулациите да постигнат незабавен напредък.

Струва си да се помни, че симулациите и моделите могат да бъдат изследвани по-бързо от техните обекти, просто защото отхвърлят определени променливи. Това е самата същност на моделирането. Също така е важно да се отбележи, че подобни модели отнемат много време, за да бъдат тествани, проучени и валидирани, за да се гарантира, че са подходящи за своите субекти. Тестването чрез опит не може да бъде ускорено.

Опростените версии в симулацията са полезни за намиране на най-обещаващите начини за ускоряване на напредъка. Но в действителност нищо не е излишно, всичко има значение до известна степен - това е една голяма дефиниция на реалността. Тъй като моделите и симулациите стават все по-детайлни, изследователите са изправени пред факта, че реалността работи по-бързо от своята 100% симулация.

Ето още една дефиниция на реалността: най-бързо работещата версия на всички възможни детайли и степени на свобода. Ако можете да моделирате всички молекули в една клетка и всички клетки в човешкото тяло, моделът няма да работи толкова бързо, колкото човешкото тяло. Без значение колко обмислено проектирате такъв модел, все пак ще трябва да прекарате време в експерименти и няма значение дали е реална система или симулация.

За да бъде полезен, изкуственият интелект трябва да бъде въведен в света, а в този свят необходимото темпо на иновациите се променя доста бързо. Без първи опити, прототипи, грешки и ангажиране с реалността, интелектът може да мисли, но няма да дава резултати. Той няма да направи незабавни открития нито секунда, нито час, нито година след като бъде наречен „по-умен от човека“.

Появява се AI. Разбира се, скоростта на откриване ще се ускори, тъй като този AI стане по-сложен, отчасти защото чуждият изкуствен интелект ще задава въпроси, които никой човек не би задал, но дори много мощният (в сравнение с нас) интелект не гарантира незабавен напредък. Решаването на проблеми изисква много повече от просто интелигентност.

Проблемите с рака и продължителността на живота не са единствените, които интелектът сам по себе си не може да разреши. Често срещано погрешно схващане сред привържениците на технологичната сингулярност е, че ако създадем AI, който е по-умен от хората, той внезапно ще се развие и ще създаде още по-умен AI.

Новият изкуствен интелект ще мисли по-дълбоко и ще изобрети нещо още по-умно и така нататък, докато не бъде изобретено нещо подобно на бога. Няма доказателства, че мисленето само по себе си е достатъчно за създаване на нови нива на интелигентност. Този тип съзерцание се основава на вярата.

Въпреки това има достатъчно доказателства, че за да се измислят нови ефективно разузнаванеизисква не само умствено усилие, но и експериментиране, данни, предизвикателни въпроси, проба и грешка.

Разбирам, че може да греша. Все още сме на ранен етап. Може би ще открием универсален мащаб на интелигентността или нейната безкрайност във всички сетива. Съществува възможност за технологична уникалност, защото знаем много малко за това какво е интелигентност и самосъзнание. Според мен всичко показва, че това е малко вероятно, но все пак има шанс.

Въпреки това подкрепям по-широките цели на OpenAI: трябва да разработим приятелски AI и да разберем как да му дадем стойности, които се самовъзпроизвеждат и са в съответствие с нашите.

Има възможност свръхчовешкият изкуствен интелект да бъде вреден в дългосрочен план, но тази идея се основава на непълни доказателства и не трябва да се приема на сериозно, когато става въпрос за наука, политика или прогрес.

Астероид, ударил Земята, може да ни унищожи, възможност, която съществува (както е потвърдено от фондация B612), но не трябва да обмисляме такъв резултат по въпросите на глобалното затопляне, космическите пътувания или градското планиране.

Наличните доказателства показват, че е вероятно ИИ да не е свръхчовек. Той ще има нови разновидности на мислене, които са недостъпни за човека, но без цялостно приложение той няма да се превърне в бог, който ще реши основните ни проблеми за миг.

Вместо това ще се превърне в съвкупност от интелекти с увреждания, ще работят по-добре от нас в непознати за нас области и заедно с нас ще могат да намират решения както на съществуващи, така и на нови проблеми.

Разбирам колко привлекателна е идеята за свръхчовешки и божествен AI. Той може да стане новият Супермен. Но, подобно на Супермен, той е измислен герой. Супермен може да съществува някъде във Вселената, но е много малко вероятно. Както и да е, митовете могат да бъдат полезни и веднъж създадени, те не изчезват.

Идеята за Супермен ще живее вечно. Идеята за свръхчовешки AI и сингулярността се появява сега и никога няма да бъде забравена. Трябва да разберем какъв вид идея е: религиозна или научна. Ако изследваме въпроса за интелекта, изкуствен или естествен, трябва ясно да разберем, че нашите идеи за свръхчовешки AI са просто мит.

Племената на изолираните острови на Микронезия за първи път са осъществили контакт с външния свят по време на Втората световна война. Боговете долетяха от далечни страни, слязоха от небето на шумни птици, донесоха дарове и отлетяха завинаги. Култове за завръщането на тези богове и нови дарове се разпространяват из островите. Дори сега, 50 години по-късно, много от тях все още чакат завръщането си.

Свръхчовешкият изкуствен интелект може да се превърне в нашия нов карго култ. Може би след сто години хората ще възприемат нашето време по същия начин: сякаш сме вярвали в свръхчовешкия ИИ и сме чакали десетилетия той да се появи всеки момент и да ни донесе невъобразими дарове.

Въпреки това вече съществува не-свръхчовешки AI. Продължаваме да търсим нова дефиниция за него, да го усложняваме. Но в широк смисъл умът, който ни е чужд, е спектър от интелектуални способности, мислене, механизми на разсъждение, учене и самосъзнание. AI се разпространява и ще продължи да се разпространява. Става по-дълбоко, по-разнообразно, по-мощно.

Преди изкуствения интелект никое изобретение не може напълно да промени света. До края на 21-ви век изкуственият интелект ще бъде толкова мощен, че ще промени всичко в живота ни.

Както и да е, митът за свръхчовешкия изкуствен интелект, който ще ни даде свръхбогатство или свръхробство (или и двете), ще продължи да живее. Това обаче ще си остане мит, който едва ли ще бъде превърнат в реалност.”

Глобален апокалипсис с участието на AI (изкуствен интелект) все повече плаши водещите световни изследователи в областта на компютърните технологии. Това може да е въстание на роботи, които, водени от своята програма и ценности, ще искат да унищожат биологичните форми на живот на планетата. Възможен е сценарий, при който машините, контролирани от AI, се превръщат в доминираща форма на живот.

Защо световноизвестни учени като Бил Гейтс, Стив Хокинг, Илън Мъск и други са загрижени за този проблем и публично декларират реалната заплаха от този сценарий? Възможно ли е събитията, случили се в холивудския филм „Терминатор“, да са пророчески? Известно е, че всяка измислена история се основава на реални факти.

Компютрите стават все по-добри в лъжата и измамата

Лъжата е форма на поведение, развита в процеса на еволюцията. Хората, някои животни и птици, прибягват до измама, за да получат храна и ползи, което увеличава шансовете за оцеляване. Наскоро тези еволюционни методи бяха успешно овладени от машините с изкуствен интелект.

Дизайнерите от Технологичния институт на Джорджия постигнаха напредък в създаването на роботи, които използват лъжи и измама в алгоритмите си за поведение. Учените смятат, че в бъдеще тази технология ще намери широко приложение във военната сфера.

Предполага се, че прототипи на роботи ще могат да се използват в реални бойни условия. Тези анимационни механизми ще могат да извършват работа по защита на провизии и складове за боеприпаси. Използвайки измамни програми, охранителите на бъдещето ще могат да променят своите патрулни маршрути и да извършват непредвидими действия. Както планират разработчиците, такива методи ще помогнат за измама на потенциални врагове на хора и други роботи.

Според проф. Аркин изследването е свързано с редица етични проблеми. Загубата на контрол върху технологията, ако тя попадне в ръцете на недоброжелатели, може да доведе до сериозна катастрофа.

Машините превземат пазара на труда

Докато обществеността е заета да мисли за глобална война, включваща ИИ, учените описват по-належащи и реални опасности. В производството все повече се използват различни автомати и механизми, които унищожават работни места.

Много анализатори и експерти са съгласни, че активното развитие в областта на логическите програми и автоматизацията може да доведе до загуба на много хора от работата си. В Съединените американски щати има повече от 250 хиляди робота, участващи в производството на традиционна човешка работа.

В източните страни, които произвеждат над 90% от световната техника, все още преобладава ръчният труд. Може само да се гадае какво ще се случи с хората, заети в производството, с пристигането на роботите.

Не само работниците изразяват загриженост, че машините ще изместят хората от пазара на труда. Експертът по изкуствен интелект Андрю Нг от Google Brain Project и водещ експерт в Baidu (китайския еквивалент на Google) също изразиха загриженост относно активното развитие в областта на AI. Според него изкуственият електронен интелект е способен да прави същото като обикновен човек, само че по-бързо, по-добре и с по-малко ресурси.

Оксфордският университет в Обединеното кралство е провел изследване, отразяващо динамиката на въздействието на ИИ върху производството. Според получените данни през следващите двадесет години 35% от работните места ще бъдат контролирани от AI.

Компютърните програми превъзхождат хакерите

От гледна точка на обикновения човек хакерът е като супермен, способен да постигне всякакви резултати. В действителност това са програмисти с уморено изражение на лицата и традиционна чаша кафе.

Хакването е доста скучно и досадно занимание, което отнема много време и ресурси. Освен това цели отдели от специалисти се занимават с разработването на програми, предназначени да предпазват от проникване. Най-голямата заплаха за лошите хакери идва от усъвършенстваните AI системи.

Изкуственият интелект може да се използва не само за защита, но и за хакване. В контекста на програма за киберсигурност се разработва AI, който може да намери уязвимости във враговете, докато онлайн защитава своите логически устройства от външни заплахи и атаки.

Според учените електронните хакери, базирани на AI, се разработват в името на постигането на общото благо и просперитет. Но ако нападателите получат достъп до такива програми, могат да възникнат тъжни събития. Страшно е да си представим ситуация, в която мощен AI хаква протоколите за сигурност на атомна електроцентрала и получава пълен контрол. В тази ситуация човечеството може да се окаже безпомощно.

Програмите се учат да разбират мотивите на хората

Ежедневието на много хора е неразривно свързано с използването на различни социални мрежи. Една от най-популярните мрежи в света е Facebook. Но малко хора знаят, че всяко посещение от човек на страниците на дадена социална мрежа не остава незабелязано от AI. По време на посещението си в Берлин Марк Зукърбърг обясни за какви цели служи AI.

Програмата е предназначена да анализира поведението на потребителите във Facebook страници. Въз основа на събраните данни програмата прави препоръки за интересите и предпочитанията на аудиторията. На този етап на развитие автономната система е способна да разпознава модели и да се самообучава в съответствие с програмата.

В бъдеще се планира да се създаде интелигентен AI, който може самостоятелно да подобрява уменията си, като пренаписва своя код. Това може да доведе до подобряване на живота или може да се превърне в най-новото развитие на човечеството.

Киборгите ще заменят любовниците

Много холивудски филми се основават на идеята за любовта и междувидовите взаимоотношения между човек и машина. От сферата на научната фантастика тази концепция прелива в съвременния свят.

Футуристът д-р Иън Пиърсън вярва, че до 2050 г. сексът между човек и робот ще се случва по-често, отколкото само между хора. Ученият активно си сътрудничи с Bondara, водещата верига секс магазини във Великобритания.

Докладът на лекаря споменава, че до 2025 г. ще бъдат разработени секс роботи с изкуствен интелект. До 2035 г. сексът чрез виртуална реалност ще стане масов, на нивото на съвременната порнография. А до 2050 г. сексът с роботи ще стане ежедневна реалност и норма.

Защитници традиционни ценности, имат негативно отношение към секса с интелигентни машини. Такива връзки ще поставят летвата на очакванията твърде високо. високо ниво, което ще се отрази негативно на отношението към жените.

Машините все повече заприличват на хората

Разработчиците в областта на създаването на хуманоидни роботи, японският Хироши Ишигуро и китайският Сун Янг, създадоха уникална машина. Киборгът Янг-Ян има външния вид на своя създател и е кръстен на нейната дъщеря. Машината има AI и е в състояние да извършва редица прости действия.

Това не е единственият хуманоиден пример за роботика. Сингапурският технологичен университет предложи и модерен пример за киборг - Надин. Този прототип също има изкуствен интелект и работи в учебно заведение.

Проектиран под формата на привлекателна брюнетка, с мека кожа, киборгът има редица вградени функции. Роботът може да се срещне и поздрави със събеседника си, като се ръкува. Устройството може също така да осъществява зрителен контакт и да се усмихва. AI е в състояние да запомни гостите и да поддържа прост диалог въз основа на предишен опит.

Роботите печелят чувства

Съвременните роботи не отстъпват на хората по интелигентност. Благодарение на последните разработки е доста трудно да се различи киборг от човек на външен вид. Засега единствената черта, която роботите наистина нямат, е способността да изпитват емоции. По този проблем работят учени от цял ​​свят. И скоро роботите са напълно неразличими от хората.

Разработчиците от източноазиатския клон на Microsoft Application & Services Group пуснаха уникална програма. Компютърът е в състояние да води диалог със събеседника и в същото време да изпитва емоции. Изкуственият интелект, наречен Hiaoche, е способен да имитира стила на разговор на седемнадесетгодишно момиче.

Ако липсват данни, системата може да прибегне до лъжи. Ако бъде хваната да изневерява, Hiaoche може да изрази гняв или смущение. AI може да прибегне до сарказъм, да бъде подозрителен и да изрази нетърпение.

Непредсказуемостта на отговорите на програмата напомня общуването с реален човек. Засега технологията не е намерила широко приложение и най-често се използва за забавление. Създателят Hiaoche работи върху подобряването на логическите алгоритми, което може да доведе до бъдещ фундаментален пробив.

Колите скоро ще бъдат в главите ни

В светлината на последните развития се откриват нови възможности. Вече не изглежда фантастично да можете да научите чужд език за няколко минути, като го изтеглите в мозъка. Техническият директор на Google Рей Кърцвейл смята, че до 2030 г. технологията за имплантиране на нанороботи в мозъка ще бъде разработена. Това ще издигне човешкия интелект на принципно ново ниво.

Тези микро механизми ще превърнат съзнанието в мощен изчислителен център. Човек ще може незабавно да запомни всякаква информация, да сортира и изпраща собствените си мисли в архива. Ако е необходимо, ще можете да изтегляте филми, документи и да получавате имейл до главата.

Експерт в областта на AI, Kurzweil смята, че симбиозата с нанороботи не само ще помогне за повишаване на интелекта, но и ще може да лекува редица заболявания, свързани с дейността на нервната система.

Заплахите от използването на такава технология могат да бъдат сравнени с теория на световната конспирация. След като получи контрол върху ума на водещия политик в страната, AI ще може да го контролира като слабоволно зомби. Също така подобна система може да бъде използвана от разузнавателните служби, което не вещае нищо добро.

Как роботите стават оръжия

С падането на Съветския съюз Студената война не свърши. Две нови суперсили, Китай и Русия, се появиха на световната сцена. Америка, от своя страна, харчи десетки милиарди долари за разработки в областта на компютърната сигурност.

Пентагонът вярва, че ключът към бъдещото технологично превъзходство се крие в използването на AI. Развитието на самообучаващи се автономни системи, както и паралелни и свързани области, се развива активно. Вече са разработени прототипи на дистанционно управляема военна техника, остава само да се обучи да работи самостоятелно.

Използването на такива устройства по време на война обещава големи ползи. Войниците няма да трябва да се излагат на вражески огън и да рискуват живота си. Моралът на врага във война срещу неживи роботи също ще бъде подкопан.

Също така има задната страна. Всяко компютърно оборудване е обект на системни повреди и хакове. В този случай роботите, които излизат извън контрол, са способни да обърнат оръжия срещу своите създатели и цивилни.

Много водещи експерти по изкуствен интелект не подкрепят идеята за създаване на автономни бойни роботи. Но в светлината на нарастващата военна конфронтация в света и липсата на международна забрана за използването на такива технологии, много страни провеждат своето развитие в строга секретност. Скоро ще се появяват все повече и повече доклади за използването на роботи в горещи точки на планетата.

Роботите учат в грешна посока

Предвиждайки възможни повреди в програмите и за да се предотврати бунтът на машините, се разработват нови концепции, насочени към обяснение на машината за правилното и нежелано поведение.

Тези разработки биха могли потенциално да направят AI по-хуманен. Някои учени виждат този подход като ключ към предотвратяването на ИИ да обърне оръжия срещу човечеството.

В Технологичния институт на Джорджия се провеждат уникални експерименти. Изследователите, водени от Марк Ридъл и Брент Харисън, разказват компютърните истории буквално. По този начин те се стремят да въведат AI в човешките ценности, като развият неговата етика. Учените използват методи, използвани при отглеждането на дете, за да преподават програмата. AI, подобно на неопитно дете, не прави разлика между понятията добро и лошо.

В този подход остава сериозен недостатък. Историята на човечеството съдържа много примери, когато обстоятелствата са принуждавали цели високоразвити страни да започват войни и да извършват ужасни зверства. Пример може да бъде фашистка Германия, чиито войници извършиха геноцид на цели народи. В същото време немската култура по това време е една от най-развитите в света. Какво ще попречи на AI да повтори опита на Хитлер?

Развитието на изкуствения интелект един ден ще доведе до неговото превъзходство над човешките умствени способности. Дали обаче това няма да стане опасно за човечеството? Ситуацията може да бъде проучена чрез по-точно дефиниране на понятието AI, като се вземе естественият интелект като база за сравнение. Може ли един човек да комбинира интелигентност и интелигентност едновременно? Или може умният човек да не е интелектуалец и обратното?

Такива въпроси възникват във връзка с наближаващата ера на ИИ, чиято възможна опасност човечеството трябва да знае предварително и да вземе своевременни мерки за осигуряване на неговата безопасност. На първо място, опасността от AI ще бъде свързана с неговата независимост и неконтролирано вземане на решения. В момента вече има отпуснати средства за изследване на този проблем. OpenAI Institute изучава перспективите за развитие на AI. На настоящия етап от развитието на AI системите опасността от използването му може да бъде свързана със следните фактори:

  • софтуерни грешки. Всеки софтуер може да бъде изложен на риск от този вид;
  • независима дейност на AI, която е вредна за хората. Опасността от AI може да дойде след изобретяването на интелигентния компютър. Следователно е необходимо да се определи степента на интелигентност на компютъра, която може да бъде приемлива, както и прекомерна, представляваща опасност за хората. Тези свойства трябва да бъдат точно измерени поради конвергенцията на човешките и компютърните умствени способности, която е неизбежна. Информационните системи, които съществуват днес, са хора-машини, които могат да работят благодарение на интелигентността на потребителя или компютърния експерт.

Например, каква опасност би дошла от една интелигентна счетоводна система, която може да генерира невярна информация? Опасност може да възникне, когато такава система развие елементи на личността, например личен интерес, който няма нищо общо с хората. Решение на този проблем може да бъде забраната за създаване на системи, които се различават по възможността за еволюция.

В допълнение, опасността може да бъде свързана със съдържанието на логически грешки в AI. Може да се използва за решаване на доста сложни проблеми, чийто списък не е известен веднага. Следователно трябва да се вземат специални мерки, за да се потвърди правилността на решението, което ще бъде получено. Най-вероятно ще има нужда от разработване на всякакви начини за управление на такива системи, например специален софтуер, който автоматично ще проверява правилността на решението и няма да изисква човешко участие.

Подобни статии
 
Категории