Изкуствен интелект. Втора част: изчезване или безсмъртие?

Съдържание:

Изкуствен интелект. Втора част: изчезване или безсмъртие?
Изкуствен интелект. Втора част: изчезване или безсмъртие?

Видео: Изкуствен интелект. Втора част: изчезване или безсмъртие?

Видео: Изкуствен интелект. Втора част: изчезване или безсмъртие?
Видео: Трансхуманизъм и помагащи технологии | Maurice Grinberg | TEDxNBU 2024, Ноември
Anonim
Изкуствен интелект. Втора част: изчезване или безсмъртие?
Изкуствен интелект. Втора част: изчезване или безсмъртие?

Пред вас е втората част на статия от поредицата „Изчакайте, как всичко това може да бъде реално, защо все още не се говори на всеки ъгъл“. В предишната поредица стана известно, че експлозия от интелигентност постепенно се прокрадва до хората на планетата Земя, тя се опитва да се развие от тясно фокусирана към универсална интелигентност и накрая, изкуствена свръхразумност.

"Може би сме изправени пред изключително труден проблем и не е известно колко време е отделено за неговото решаване, но бъдещето на човечеството може да зависи от неговото решаване." - Ник Бостром.

Първата част на статията започна достатъчно невинно. Обсъждахме тясно фокусиран изкуствен интелект (AI, който е специализиран в решаването на един специфичен проблем като определяне на маршрути или игра на шах), има много в нашия свят. След това те анализираха защо е толкова трудно да се развие изкуствен интелект с обща насоченост (AGI или AI, който от гледна точка на интелектуалните възможности може да се сравни с човека при решаването на всеки проблем), е толкова труден. Ние стигнахме до заключението, че експоненциалният темп на технологичния напредък подсказва, че AGI може да е зад ъгъла доста скоро. В крайна сметка решихме, че веднага щом машините достигнат човешкия интелект, веднага може да се случи следното:

Образ
Образ
Образ
Образ
Образ
Образ
Образ
Образ

Както обикновено, гледаме към екрана, без да вярваме, че изкуственият свръхинтелигент (ISI, който е много по -умен от всеки човек) може да се появи през живота ни, и избираме емоции, които най -добре да отразяват мнението ни по този въпрос.

Преди да се потопим в спецификата на ISI, нека си припомним какво означава една машина да бъде суперинтелигентна.

Основната разлика се крие между бързата свръхинтелигенция и качествената суперразумна информация. Често първото нещо, което идва на ум, когато мислите за свръхинтелигентен компютър, е, че той може да мисли много по -бързо от човек - милиони пъти по -бързо и след пет минути ще разбере какво ще му отнеме десет години. ("Знам кунг -фу!")

Звучи впечатляващо и ISI наистина трябва да мисли по -бързо от всеки от хората - но основната отличителна черта ще бъде качеството на неговата интелигентност, което е напълно различно. Хората са много по-умни от маймуните, не защото мислят по-бързо, а защото мозъкът им съдържа редица гениални когнитивни модули, които осъществяват сложни езикови представи, дългосрочно планиране, абстрактно мислене, на което маймуните не са способни. Ако ускорите мозъка на маймуна хиляда пъти, той няма да стане по -умен от нас - дори след десет години той няма да може да събере конструктор според инструкциите, което би отнело на човек най -много няколко часа. Има неща, които маймуната никога няма да научи, независимо колко часове прекарва или колко бързо работи мозъкът й.

Освен това маймуната не знае колко човешки, защото мозъкът й просто не е в състояние да осъзнае съществуването на други светове - маймуната може да знае какво е човек и какво е небостъргач, но никога няма да разбере, че небостъргач е построен от хора. В нейния свят всичко принадлежи на природата и макакът не само не може да построи небостъргач, но и разбира, че всеки може да го построи изобщо. И това е резултат от малка разлика в качеството на интелигентността.

В общата схема на интелигентност, за която говорим, или просто според стандартите на биологичните същества, разликата в качеството на интелигентност между хората и маймуните е малка. В предишната статия поставихме биологични познавателни способности на стълба:

Образ
Образ

За да разберете колко сериозна ще бъде една суперинтелигентна машина, поставете я с две степени по -високо от човека на тази стълба. Тази машина може да е просто малко суперинтелигентна, но нейното превъзходство над познавателните ни способности ще бъде същото като нашите - над маймуните. И както шимпанзето никога няма да разбере, че небостъргач може да бъде построен, така и ние може би никога няма да разберем какво ще разбере една машина на няколко стъпки по -високо, дори ако машината се опита да ни го обясни. Но това са само няколко стъпки. По -умната машина ще види мравки в нас - тя ще ни научи на най -простите неща от позицията си от години и тези опити ще бъдат напълно безнадеждни.

Видът на свръхразумността, за който ще говорим днес, е далеч отвъд тази стълба. Това е експлозия от интелигентност - когато колата стане по -умна, толкова по -бързо тя може да увеличи собствената си интелигентност, като постепенно увеличава инерцията. Може да отнеме години, докато машина като тази надмине шимпанзетата по интелигентност, но може би няколко часа, за да ни надмине с няколко стъпки. От този момент нататък колата вече може да прескача четири стъпки всяка секунда. Ето защо трябва да разберем, че много скоро след появата на първата новина, че машината е достигнала нивото на човешкия интелект, може да се изправим пред реалността на съжителството на Земята с нещо, което ще бъде много по -високо от нас по тази стълба (или може би, и милиони пъти по -висока):

Образ
Образ

И тъй като установихме, че е напълно безполезно да се опитваме да разберем силата на машина, която е само на две стъпки над нас, нека определим веднъж завинаги, че няма начин да разберем какво ще направи ISI и какви са последиците от това ще бъде за нас. Всеки, който твърди обратното, просто не разбира какво означава свръхинтелигентността.

Еволюцията бавно и постепенно еволюира биологичния мозък в продължение на стотици милиони години и ако хората създадат суперинтелигентна машина, в известен смисъл ние ще надхвърлим еволюцията. Или ще бъде част от еволюцията - може би еволюцията работи по такъв начин, че интелигентността се развива постепенно, докато достигне повратна точка, която предвещава ново бъдеще за всички живи същества:

Образ
Образ

По причини, които ще обсъдим по -късно, огромна част от научната общност смята, че въпросът не е дали ще стигнем до този повратен момент, а кога.

Къде ще стигнем след това?

Мисля, че никой на този свят, нито аз, нито вие, няма да може да каже какво ще се случи, когато стигнем до преломната точка. Оксфордският философ и водещ теоретик на изкуствения интелект Ник Бостром вярва, че можем да сведем всички възможни резултати в две широки категории.

Първо, разглеждайки историята, знаем следното за живота: видовете се появяват, съществуват за определено време и след това неизбежно падат от балансиращата греда и изчезват.

Образ
Образ

„Всички видове измират“е било също толкова надеждно правило в историята, колкото „всички хора умират някой ден“. 99,9% от видовете са паднали от дневник на живота и е съвсем ясно, че ако даден вид виси на този дневник твърде дълго, порив на естествен вятър или внезапен астероид ще обърнат дневника. Бостром нарича изчезването състояние на атрактор - място, където всички видове се балансират, за да не паднат, където все още не се е върнал нито един вид.

И въпреки че повечето учени признават, че ISI ще има способността да обрича хората на изчезване, мнозина също вярват, че използването на възможностите на ISI ще позволи на индивидите (и на вида като цяло) да постигнат второто състояние на атрактора - видовото безсмъртие. Бостром вярва, че безсмъртието на даден вид е също толкова атрактор, колкото и изчезването на вида, тоест, ако стигнем до това, ще бъдем обречени на вечно съществуване. По този начин, дори ако всички видове досега са паднали от тази пръчка в водовъртежа на изчезването, Бостром вярва, че дървеният труп има две страни и просто на Земята не се е появила такава интелигентност, която би разбрала как да падне от другата страна.

Образ
Образ

Ако Бостром и други са прави и ако съдим по цялата налична информация, може и да са така, трябва да приемем два много шокиращи факта:

Появата на ISI за първи път в историята ще отвори пътя за един вид да постигне безсмъртие и да изпадне от фаталния цикъл на изчезване.

Появата на ISI ще има толкова невъобразимо огромно въздействие, че най -вероятно ще изтласка човечеството от този дневник в една или друга посока.

Възможно е, когато еволюцията достигне такава повратна точка, тя винаги да сложи край на връзката на хората с потока на живота и да създаде нов свят, с или без хора.

Това води до интересен въпрос, който само един гад не би си задал: кога ще стигнем до тази повратна точка и къде ще ни отведе? Никой по света не знае отговора на този двоен въпрос, но много умни хора се опитват да го разберат от десетилетия. За останалата част от статията ще разберем откъде са дошли.

* * *

Нека започнем с първата част на този въпрос: кога трябва да достигнем преломната точка? С други думи: колко време остава, докато първата машина достигне свръхинтелигентност?

Мненията варират в зависимост от случая. Мнозина, включително професор Върнър Винг, учен Бен Херцел, съосновател на Sun Microsystems Бил Джой, футурист Рей Курцвайл, се съгласиха с експерта по машинно обучение Джеръми Хауърд, когато той представи следната графика в TED Talk:

Образ
Образ

Тези хора споделят мнението, че ISI предстои скоро - този експоненциален растеж, който днес ни се струва бавен, буквално ще избухне през следващите няколко десетилетия.

Други, като съоснователят на Microsoft Пол Алън, психологът Гари Маркъс, компютърният експерт Ърнест Дейвис и технологичният предприемач Мич Капор, смятат, че мислители като Курцвейл сериозно подценяват мащаба на проблема и смятат, че не сме толкова близо до повратна точка.

Лагерът на Курцвайл твърди, че единственото подценяване, което се случва, е пренебрегването на експоненциалния растеж и съмняващите се могат да бъдат сравнени с тези, които са гледали бавно процъфтяващия интернет през 1985 г. и твърдят, че това няма да окаже влияние върху света в близко бъдеще.

Съмняващите се могат да се противопоставят, че напредъкът е по -труден за предприемане на всяка следваща стъпка, що се отнася до експоненциалното развитие на интелигентността, което неутрализира типичния експоненциален характер на технологичния прогрес. И т.н.

Третият лагер, в който е Ник Бостром, не е съгласен нито с първия, нито с втория, като твърди, че а) всичко това може абсолютно да се случи в близко бъдеще; и б) няма гаранция, че това изобщо ще се случи или че ще отнеме повече време.

Други, като философа Хюбърт Драйфус, вярват, че и трите групи наивно вярват, че изобщо ще има повратна точка и че най -вероятно никога няма да стигнем до ISI.

Какво се случва, когато обединим всички тези мнения?

През 2013 г. Bostrom проведе проучване, в което интервюира стотици експерти по изкуствен интелект на поредица от конференции на следната тема: „Какви ще бъдат вашите прогнози за постигане на AGI на човешко ниво?“и ни помоли да посочим оптимистична година (в която ще имаме AGI с 10 % шанс), реалистично предположение (година, в която ще имаме AGI с 50 % вероятност) и уверено предположение (най -ранната година, в която AGI ще се появи след вероятност от 90 процента). Ето резултатите:

* Средна оптимистична година (10%): 2022

* Средна реалистична година (50%): 2040

* Средна песимистична година (90%): 2075

Средно анкетираните смятат, че след 25 години ще имаме AGI, а не не. 90 % шанс AGI да настъпи до 2075 г. означава, че ако все още сте съвсем млади, това най -вероятно ще се случи през целия ви живот.

Отделно проучване, проведено наскоро от Джеймс Барат (автор на известната и много добра книга „Нашето последно изобретение“, откъси от Представих на вниманието на читателите Hi-News.ru) и Бен Херцел на конференцията AGI, годишната конференция AGI, просто показаха мненията на хората за годината, в която стигаме до AGI: 2030, 2050, 2100, по-късно или никога. Ето резултатите:

* 2030: 42% от анкетираните

* 2050: 25%

* 2100: 20%

След 2100: 10%

Никога: 2%

Подобно на резултатите на Bostrom. В анкетата на Барат повече от две трети от анкетираните смятат, че AGI ще бъде тук до 2050 г., а по-малко от половината смятат, че AGI ще се появи през следващите 15 години. Прави впечатление също, че само 2% от анкетираните по принцип не виждат AGI в нашето бъдеще.

Но AGI не е повратна точка като ISI. Кога според експертите ще имаме ISI?

Bostrom попита експертите кога ще достигнем ASI: а) две години след достигането на AGI (тоест почти мигновено поради експлозия на разузнаване); б) след 30 години. Резултати?

Средното мнение е, че бързият преход от AGI към ISI ще се случи с 10% вероятност, но след 30 години или по -малко ще се случи с 75% вероятност.

От тези данни не знаем на коя дата респондентите биха нарекли 50 процента шанс за ASI, но въз основа на двата отговора по -горе, нека приемем, че това е 20 години. Тоест водещите световни експерти по изкуствен интелект смятат, че повратната точка ще дойде през 2060 г. (AGI ще се появи през 2040 г. + ще са необходими 20 години за прехода от AGI към ISI).

Образ
Образ

Разбира се, всички горепосочени статистически данни са спекулативни и просто представляват мнението на експерти в областта на изкуствения интелект, но също така показват, че повечето заинтересовани хора са съгласни, че до 2060 г. AI вероятно ще пристигне. Само за 45 години.

Нека преминем към втория въпрос. Когато стигнем до преломната точка, коя страна на фаталния избор ще ни определи?

Свръхразумът ще има най -мощната сила и критичният въпрос за нас ще бъде следният:

Кой или какво ще контролира тази сила и каква ще бъде тяхната мотивация?

Отговорът на този въпрос ще зависи от това дали ISI ще получи невероятно мощно развитие, неизмеримо ужасяващо развитие или нещо средно.

Разбира се, експертната общност се опитва да отговори и на тези въпроси. Анкетата на Bostrom анализира вероятността от възможни последици от въздействието на AGI върху човечеството и се оказа, че с 52 % шанс всичко ще върви много добре и с 31 % шанс всичко ще върви или зле, или изключително зле. Приложеното в края на предишната част на тази тема анкета, проведено сред вас, уважаеми читатели на Hi-News, показа приблизително същите резултати. За относително неутрален резултат вероятността е била само 17%. С други думи, всички вярваме, че AGI ще бъде голяма работа. Заслужава да се отбележи, че това проучване се отнася до появата на AGI - в случая с ISI, процентът на неутралност ще бъде по -нисък.

Преди да се задълбочим в размишленията върху добрите и лошите страни на въпроса, нека комбинираме двете страни на въпроса - "кога ще се случи това?" и "това добро или лошо е?" в таблица, която обхваща мненията на повечето експерти.

Образ
Образ

Ще поговорим за основния лагер след минута, но първо вземете решение за позицията си. Шансовете са, че сте на същото място като мен, преди да започна да работя по тази тема. Има няколко причини, поради които хората изобщо не мислят по тази тема:

* Както бе споменато в първата част, филмите сериозно объркаха хора и факти, представяйки нереалистични сценарии с изкуствен интелект, което доведе до факта, че изобщо не трябва да приемаме ИИ сериозно. Джеймс Барат оприличи тази ситуация на издадена от Центровете за контрол на заболяванията (CDC) със сериозно предупреждение за вампирите в нашето бъдеще.

* Поради така наречените когнитивни пристрастия, за нас е много трудно да повярваме, че нещо е реално, докато нямаме доказателства. Може с увереност да си представим компютърните учени от 1988 г., които редовно обсъждат далечните последици от интернет и какво би могъл да стане той, но хората едва ли вярват, че това ще промени живота им, докато това наистина се случи. Просто компютрите не знаеха как да направят това през 1988 г. и хората просто гледаха компютрите си и си мислеха: „Наистина ли? Това ли ще промени света? Въображението им беше ограничено от това, което бяха научили от личен опит, знаеха какво представлява компютърът и беше трудно да си представим на какво ще бъде способен компютърът в бъдеще. Същото се случва и сега с AI. Чухме, че това ще стане сериозно нещо, но тъй като все още не сме се сблъсквали с него лице в лице и като цяло наблюдаваме доста слаби прояви на ИИ в нашия съвременен свят, за нас е доста трудно да повярваме, че той ще се промени радикално променят живота ни. Против тези предразсъдъци се противопоставят много експерти от всички лагери, както и заинтересовани хора, които се опитват да привлекат вниманието ни чрез шума на ежедневния колективен егоцентризъм.

* Дори и да вярваме във всичко това - колко пъти днес сте мислили за факта, че ще прекарате остатъка от вечността в нищото? Малко, съгласен. Дори този факт да е много по -важен от всичко, което правите ден след ден. Това е така, защото мозъкът ни обикновено е съсредоточен върху малки, ежедневни неща, без значение колко заблуждаваща се е дългосрочната ситуация, в която се намираме. Просто ние сме създадени.

Една от целите на тази статия е да ви измъкне от лагера, наречен „Обичам да мисля за други неща“и да ви постави в експертния лагер, дори ако просто стоите на кръстопътя между двете пунктирани линии на площада по -горе, напълно нерешен.

В хода на изследването става очевидно, че мненията на повечето хора бързо се насочват към „основния лагер“и три четвърти от експертите попадат в два подлагера в основния лагер.

Образ
Образ

Ще посетим и двата лагера изцяло. Нека започнем със забавлението.

Защо бъдещето може да бъде най -голямата ни мечта?

Докато изследваме света на изкуствения интелект, откриваме изненадващо много хора в нашата зона на комфорт. Хората в горния десен квадрат бръмчат от вълнение. Те вярват, че ще паднем от добрата страна на трупата, а също така вярват, че неизбежно ще стигнем до това. За тях бъдещето е само най -доброто, за което може само да се мечтае.

Това, което отличава тези хора от другите мислители, не е, че те искат да бъдат на щастливата страна - а че са сигурни, че тя е тази, която ни очаква.

Тази увереност излиза от противоречия. Критиците смятат, че това идва от ослепително вълнение, което засенчва потенциалните негативни страни. Привържениците обаче казват, че мрачните прогнози винаги са наивни; технологиите продължават и винаги ще ни помагат повече, отколкото да ни навредят.

Вие сте свободни да изберете някое от тези мнения, но оставете настрана скептицизма и разгледайте добре щастливата страна на лъча на баланса, опитвайки се да приемете факта, че всичко, за което четете, може би вече се е случило. Ако покажете на ловците -събирачи нашия свят на комфорт, технологии и безкрайно изобилие, това щеше да им се стори магическа измислица - и ние се държим доста скромно, неспособни да признаем, че същата неразбираема трансформация ни очаква в бъдеще.

Ник Бостром описва три пътя, които една суперинтелигентна AI система може да извърви:

* Оракул, който може да отговори на всеки точен въпрос, включително на трудни въпроси, на които хората не могат да отговорят - например „как да направим автомобилния двигател по -ефективен?“Google е примитивен тип „оракул“.

* Джин, който ще изпълни всяка команда на високо ниво - използвайки молекулен асемблер, за да създаде нова, по -ефективна версия на автомобилен двигател - и ще чака следващата команда.

* Суверен, който ще има широк достъп и способност да функционира свободно в света, да взема собствени решения и да подобрява процеса. Той ще измисли по -евтин, по -бърз и по -безопасен начин за личен транспорт от автомобил.

Тези въпроси и задачи, които ни се струват трудни, ще изглеждат на свръхинтелигентната система, сякаш някой поиска да подобри ситуацията „моливът ми падна от масата“, в който просто бихте го вдигнали и върнете обратно.

Елиезер Юдковски, американски специалист по изкуствен интелект, каза добре:

„Няма трудни проблеми, само проблеми, които са трудни за определено ниво на интелигентност. Отидете една стъпка по -високо (по отношение на интелигентността) и някои проблеми изведнъж ще се преместят от категорията „невъзможно“в лагера на „очевидното“. Една стъпка по -високо - и всички те ще станат очевидни."

Има много нетърпеливи учени, изобретатели и предприемачи, които са избрали зона на уверен комфорт от нашата маса, но имаме нужда само от един водач, за да вървим към най -доброто в този най -добър свят.

Рей Курцвайл е двусмислен. Някои боготворят идеите му, други го презират. Някои остават по средата - Дъглас Хофщадър, обсъждайки идеите на книгите на Курцвайл, красноречиво отбелязва, че „сякаш сте взели много добра храна и малко кучешки каки и след това смесете всичко по такъв начин, че е невъзможно да се разбере кое е добро и кое е лошо."

Независимо дали харесвате идеите му или не, не е възможно да ги подминете без сянка на интерес. Той започва да измисля неща като тийнейджър и през следващите години изобретява няколко важни неща, включително първия плосък скенер, първия скенер за преобразуване на текст в реч, добре познатия синтезатор на музика Kurzweil (първото истинско електрическо пиано) и първият търговски успешен разпознавател на реч. Той е и автор на пет сензационни книги. Курцвайл е ценен заради смелите си прогнози и резултатите му са доста добри - в края на 80 -те години, когато Интернет беше още в начален стадий, той прогнозира, че през 2000 -те години мрежата ще се превърне в световен феномен. The Wall Street Journal нарече Kurzweil „неспокоен гений“, Forbes „глобално мислеща машина“, Inc. Списание - „Законният наследник на Едисон“, Бил Гейтс - „най -доброто от тези, които предсказват бъдещето на изкуствения интелект“. През 2012 г. съоснователят на Google Лари Пейдж покани Курцвайл на поста главен технически директор. През 2011 г. той е съосновател на Singularity University, който е домакин на НАСА и е частично спонсориран от Google.

Биографията му има значение. Когато Курцвайл говори за своята визия за бъдещето, това звучи като лудо лудо, но наистина лудото в това е, че той далеч не е луд - той е невероятно умен, образован и разумен човек. Може да мислите, че греши в прогнозите си, но не е глупак. Прогнозите на Курцвайл се споделят от много експерти от зоната на комфорт, Питър Диамандис и Бен Херцел. Това той мисли, че ще се случи.

Хронология

Курцвайл вярва, че компютрите ще достигнат нивото на общ изкуствен интелект (AGI) до 2029 г., а до 2045 г. ще имаме не само изкуствен свръхинтелигент, но и напълно нов свят - времето на т. Нар. Сингулярност. Неговата хронология на изкуствения интелект все още се смята за безобразно преувеличена, но през последните 15 години бързото развитие на силно фокусирани системи за изкуствен интелект (AI) принуди много експерти да застанат на страната на Kurzweil. Неговите прогнози са все още по -амбициозни от тези в проучването на Bostrom (AGI до 2040 г., ISI до 2060 г.), но не много.

Според Kurzweil, Singularity на 2045 г. се ръководи от три едновременни революции в биотехнологиите, нанотехнологиите и, по -важното, AI. Но преди да продължим - а нанотехнологиите отблизо следват изкуствения интелект - нека отделим малко време на нанотехнологиите.

Образ
Образ

Няколко думи за нанотехнологиите

Обикновено наричаме нанотехнологични технологии, които се занимават с манипулиране на материята в диапазона от 1-100 нанометра. Нанометър е една милиардна част от метър или милионна част от милиметъра; в диапазона от 1-100 нанометра могат да бъдат настанени вируси (100 nm в диаметър), ДНК (10 nm в ширина), молекули на хемоглобина (5 nm), глюкоза (1 nm) и други. Ако някога нанотехнологиите станат обект на нас, следващата стъпка ще бъде манипулирането на отделни атоми, които са по -малко от един порядък (~, 1 nm).

За да разберем къде хората се сблъскват с проблеми, опитвайки се да манипулират материята в такъв мащаб, нека да преминем към по -голям мащаб. Международната космическа станция е на 481 километра над Земята. Ако хората бяха гиганти и биха ударили МКС с глави, те биха били 250 000 пъти по -големи от сегашните. Ако увеличите нещо от 1 до 100 нанометра 250 000 пъти, получавате 2,5 сантиметра. Нанотехнологиите са еквивалент на човек, който обикаля около МКС, опитвайки се да манипулира неща с размер на пясъчно зърно или очна ябълка. За да стигне до следващото ниво - контрола на отделни атоми - гигантът ще трябва внимателно да позиционира обекти с диаметър 1/40 милиметър. Обикновените хора ще се нуждаят от микроскоп, за да ги видят.

За първи път Ричард Фейнман говори за нанотехнологиите през 1959 г. Тогава той каза: „Принципите на физиката, доколкото мога да кажа, не говорят против възможността да се контролират нещата атом по атом. По принцип един физик може да синтезира всеки химикал, който химик е записал. Как? Чрез поставяне на атоми там, където химикът казва да се получи веществото. Това е цялата простота. Ако знаете как да премествате отделни молекули или атоми, можете да направите почти всичко.

Нанотехнологиите се превърнаха в сериозна научна област през 1986 г., когато инженер Ерик Дрекслер представи нейните основи в своята основна книга „Машини на сътворението“, но самият Дрекслер вярва, че тези, които искат да научат повече за съвременните идеи в нанотехнологиите, трябва да прочетат книгата му от 2013 г. „Пълно изобилие“(Радикално Изобилие).

Няколко думи за "сиво"

Ние се задълбочаваме в нанотехнологиите. По -конкретно, темата за „сивата каша“е една от не особено приятните теми в областта на нанотехнологиите, която не може да бъде пренебрегната. По-старите версии на теорията за нанотехнологиите предлагат метод за нано-сглобяване, включващ създаването на трилиони малки нанороботи, които ще работят заедно, за да създадат нещо. Един от начините за създаване на трилиони нанороботи е да се създаде такъв, който може да се самовъзпроизвежда, тоест от един до два, от два до четири и т.н. Няколко трилиона нанороботи ще се появят за един ден. Това е силата на експоненциалния растеж. Смешно, нали?

Смешно е, но точно докато не доведе до апокалипсиса. Проблемът е, че силата на експоненциалния растеж, което го прави доста удобен начин за бързо създаване на трилион наноботове, прави саморепликацията страшно нещо в дългосрочен план. Ами ако системата се срине и вместо да спре репликацията за няколко трилиона, наноботите продължават да се размножават? Ами ако целият този процес зависи от въглерода? Биомасата на Земята съдържа 10 ^ 45 въглеродни атома. Наноботът трябва да е от порядъка на 10 ^ 6 въглеродни атома, така че 10 ^ 39 нанобота ще погълнат целия живот на Земята само в 130 повторения. Океан от наноботове ("сиво гу") ще залее планетата. Учените смятат, че наноботите могат да се възпроизвеждат за 100 секунди, което означава, че една проста грешка може да убие целия живот на Земята само за 3,5 часа.

Може да бъде още по -лошо - ако терористи и неблагоприятни специалисти достигнат до ръцете на нанотехнологиите. Те биха могли да създадат няколко трилиона наноботове и да ги програмират да се разпространяват тихо по света за няколко седмици. След това, само с едно натискане на бутон, само за 90 минути те ще изядат всичко, без никакъв шанс.

Въпреки че тази история на ужасите се обсъжда широко от години, добрата новина е, че това е просто история на ужасите. Ерик Дрекслер, който измисли термина „сива каша“, наскоро каза следното: „Хората обичат ужасните истории и това е една от зомби ужасите. Тази идея сама по себе си вече изяжда мозъка."

След като стигнем до дъното на нанотехнологиите, можем да го използваме за създаване на технически устройства, облекло, храна, биопродукти - кръвни клетки, борци с вируси и рак, мускулна тъкан и така нататък - каквото и да е. И в свят, който използва нанотехнологии, цената на даден материал вече няма да бъде обвързана с неговия недостиг или сложността на производствения процес, а по -скоро със сложността на неговата атомна структура. В света на нанотехнологиите диамантът може да бъде по -евтин от гумата.

Дори още не сме близо. И не е напълно ясно дали подценяваме или надценяваме сложността на този път. Всичко обаче стига дотам, че нанотехнологиите не са далеч. Курцвайл предполага, че до 2020 -те ще ги имаме. Световните държави знаят, че нанотехнологиите могат да обещаят голямо бъдеще и затова инвестират много милиарди в тях.

Само си представете какви възможности би получил суперинтелигентният компютър, ако стигне до надежден асемблер от наноразмер. Но нанотехнологиите са нашата идея и ние се опитваме да я използваме, трудно ни е. Ами ако те са само шега за системата ISI, а самият ISI предлага технологии, които ще бъдат многократно по -мощни от всичко, което по принцип можем да предположим? Съгласихме се: никой не може да си представи на какво ще бъде способен изкуственият суперразум? Смята се, че мозъкът ни не е в състояние да предвиди дори минимума от това, което ще се случи.

Какво може да направи AI за нас?

Образ
Образ

Въоръжен със свръхинтелигентност и цялата технология, която свръхразумът би могъл да създаде, ISI вероятно ще успее да реши всички проблеми на човечеството. Глобално затопляне? ISI първо ще спре въглеродните емисии, като измисли множество ефективни начини за генериране на енергия, които не са свързани с изкопаеми горива. След това той ще измисли ефективен, иновативен начин за премахване на излишния CO2 от атмосферата. Рак и други заболявания? Не е проблем - здравеопазването и медицината ще се променят по невъобразими начини. Световният глад? ISI ще използва нанотехнологии за създаване на месо, идентично на естественото, от нулата, истинско месо.

Нанотехнологиите ще могат да превърнат купчина боклук във вана с прясно месо или друга храна (не е задължително дори в обичайната си форма - представете си гигантско ябълково кубче) и да разпространявате цялата тази храна по света, използвайки усъвършенствани транспортни системи. Разбира се, това ще бъде чудесно за животни, които вече не трябва да умират за храна. ISI може да прави и много други неща, като запазване на застрашени видове или дори връщане на изчезнали от съхранената ДНК. ISI може да реши най -трудните ни макроикономически проблеми - най -трудните ни икономически дебати, етични и философски въпроси, глобалната търговия - всичко това ще бъде болезнено очевидно за ISI.

Но има нещо много специално, което ISI може да направи за нас. Съблазнително и дразнещо, което би променило всичко: ISI може да ни помогне да се справим със смъртността … Постепенно разбирайки възможностите на AI, може би ще преразгледате всичките си представи за смъртта.

Нямаше причина еволюцията да удължи живота ни по -дълго, отколкото сега. Ако живеем достатъчно дълго, за да раждаме и отглеждаме деца до степен, в която те могат да се справят сами, еволюцията е достатъчна. От еволюционна гледна точка 30+ години са достатъчни за развитие и няма причина мутациите да удължават живота и да намалят стойността на естествения подбор. Уилям Бътлър Йейтс нарече нашия вид „душа, привързана към умиращо животно“. Не е много забавно.

И тъй като всички умираме някой ден, ние живеем с идеята, че смъртта е неизбежна. Ние мислим за стареенето с течение на времето - продължаваме да вървим напред и не можем да спрем този процес. Но мисълта за смъртта е коварна: уловени от нея, забравяме да живеем. Ричард Фейнман написа:

„Има нещо прекрасно в биологията: в тази наука няма нищо, което да говори за необходимостта от смъртта. Ако искаме да създадем вечна машина за движение, осъзнаваме, че сме открили достатъчно закони във физиката, които или показват невъзможността на това, или че законите са грешни. Но в биологията няма нищо, което да показва неизбежността на смъртта. Това ме навежда на мисълта, че това не е толкова неизбежно и е само въпрос на време биолозите да открият причината за този проблем, тази ужасна универсална болест, тя ще бъде излекувана."

Факт е, че стареенето няма нищо общо с времето. Стареенето е, когато физическите материали на тялото се износват. Авточасти също се разграждат - но стареенето е неизбежно? Ако ремонтирате колата си, тъй като частите се износват, това ще продължи вечно. Човешкото тяло не е по -различно - просто по -сложно.

Kurzweil говори за интелигентни, свързани с Wi-Fi наноботове в кръвния поток, които биха могли да изпълняват безброй задачи за човешкото здраве, включително редовно поправяне или подмяна на износени клетки навсякъде в тялото. Подобряването на този процес (или намирането на алтернатива, предложена от по -интелигентен ASI) не само ще поддържа тялото здраво, но и може да обърне стареенето. Разликата между тялото на 60-годишен и 30-годишен е шепа физически проблеми, които биха могли да бъдат коригирани с правилната технология. ISI може да построи кола, в която човек да влезе, когато е на 60 години, и да напусне, когато е на 30 години.

Дори деградирал мозък може да бъде обновен. ISI със сигурност би знаел как да направи това, без да засяга мозъчните данни (личност, спомени и т.н.). 90-годишен мъж, страдащ от пълна деградация на мозъка, може да се подложи на преквалификация, да се поднови и да се върне в началото на живота си. Може да изглежда абсурдно, но тялото е шепа атоми и ISI със сигурност може лесно да ги манипулира, всякакви атомни структури. Не е чак толкова абсурдно.

Курцвайл също вярва, че с течение на времето изкуствените материали ще се интегрират все повече и повече в тялото. Като начало органите биха могли да бъдат заменени със супер усъвършенствани машинни версии, които ще продължат вечно и никога няма да се провалят. След това бихме могли да направим цялостен редизайн на тялото, като заменим червените кръвни клетки с перфектни наноботове, които се движат сами, премахвайки напълно нуждата от сърце. Бихме могли също така да подобрим познавателните си способности, да започнем да мислим милиарди пъти по -бързо и да получим достъп до цялата информация, достъпна за човечеството чрез облака.

Възможностите за осмисляне на нови хоризонти биха били наистина безкрайни. Хората са успели да дадат на секса нова цел, правят го за удоволствие, а не само за размножаване. Курцвайл вярва, че можем да направим същото с храната. Наноботите могат да доставят идеално хранене директно до клетките на тялото, позволявайки на нездравословните вещества да преминават през тялото. Теоретикът по нанотехнологии Робърт Фрейтас вече е разработил заместител на кръвните клетки, който, когато се внедри в човешкото тяло, може да му позволи да не диша за 15 минути - и това е измислено от човек. Представете си кога ISI ще придобие власт.

В края на краищата Курцвейл вярва, че хората ще стигнат до точката, в която ще станат напълно изкуствени; времето, когато разглеждаме биологичните материали и мислим колко примитивни са били те; време, когато ще четем за ранните етапи на човешката история, изумени от това как микробите, злополуките, болестите или просто старостта могат да убият човек против волята му. В крайна сметка хората ще победят собствената си биология и ще станат вечни - това е пътят към щастливата страна на лъча на баланса, за който говорим от самото начало. И хората, които вярват в това, също са сигурни, че такова бъдеще ни очаква много, много скоро.

Вероятно няма да се изненадате, че идеите на Курцвейл са предизвикали силна критика. Неговата особеност през 2045 г. и последващият вечен живот за хората се нарича "възнесение на глупаци" или "интелигентно творение на хора с IQ 140". Други поставиха под въпрос оптимистичната времева рамка, разбирането за човешкото тяло и мозък, напомни за закона на Мур, който все още не е отминал. За всеки експерт, който вярва в идеите на Курцвайл, има трима, които смятат, че греши.

Но най -интересното в това е, че повечето експерти, които не са съгласни с него, като цяло не казват, че това е невъзможно. Вместо да казват „глупости, това никога няма да се случи“, те казват нещо като „всичко това ще се случи, ако стигнем до ISI, но това е проблемът“. Bostrom, един от известните експерти по изкуствен интелект, предупреждаващ за опасностите от AI, също признава:

„Едва ли е останал проблем, който свръхразумът не може да реши или дори да ни помогне да го решим. Болести, бедност, унищожаване на околната среда, страдания от всякакъв вид - цялата тази свръхразумност с помощта на нанотехнологиите може да се реши за миг. Суперразумността също може да ни даде неограничен живот, като спре и обърне процеса на стареене с помощта на наномедицина или възможността да ни качи в облака. Свръхразумността също може да създаде възможности за безкрайно увеличаване на интелектуалните и емоционалните способности; той може да ни помогне да създадем свят, в който ще живеем в радост и разбиране, приближавайки се към идеалите си и редовно осъществявайки мечтите си."

Това е цитат от един от критиците на Kurzweil, който обаче признава, че всичко това е възможно, ако можем да създадем защитена ASI. Курцвайл просто дефинира в какво трябва да се превърне изкуственият свръхинтелигент, ако изобщо е възможно. И ако той е добър бог.

Най -очевидната критика към защитниците на зоната на комфорт е, че те могат да бъдат адски грешни, когато оценяват бъдещето на ISI. В книгата си „Сингулярността“Курцвайл посвети 20 страници от 700 потенциални заплахи за ISI. Въпросът не е, когато стигнем до ISI, въпросът е каква ще бъде неговата мотивация. Курцвайл отговаря на този въпрос с повишено внимание: „ISI произтича от много различни усилия и ще бъде дълбоко интегриран в инфраструктурата на нашата цивилизация. Всъщност тя ще бъде тясно вградена в тялото и мозъка ни. Той ще отразява нашите ценности, защото ще бъде едно с нас."

Но ако отговорът е, защо толкова много умни хора в този свят са притеснени за бъдещето на изкуствения интелект? Защо Стивън Хокинг казва, че развитието на ISI „може да означава край на човешката раса“? Бил Гейтс казва, че „не разбира хората, които не се притесняват“за това. Илон Мъск се страхува, че „призоваваме демон“. Защо много експерти смятат ISI за най -голямата заплаха за човечеството?

Следващия път ще говорим за това.

Препоръчано: