Учените се страхуват от заплахата от изкуствения интелект

Учените се страхуват от заплахата от изкуствения интелект
Учените се страхуват от заплахата от изкуствения интелект

Видео: Учените се страхуват от заплахата от изкуствения интелект

Видео: Учените се страхуват от заплахата от изкуствения интелект
Видео: СТРАННЫЕ НОВОСТИ НЕДЕЛИ - 62 | Таинственный | Вселенная | НЛО | Паранормальный 2024, Април
Anonim

Самоусъвършенстваният изкуствен интелект (AI) в бъдеще може да пороби или убие хората, ако той иска. Това беше казано от учения Амнон Иден, който смята, че рисковете от развитието на свободно мислещо и високо интелигентно съзнание са много високи и „ако не се погрижите за проблемите с контрола на ИИ вече на сегашния етап на развитие, тогава утре може просто да не дойде. Според английското издание Express човечеството, според Амнон Идън, днес е на „точката на връщане“за реализацията на сюжета на известния филмов епос „Терминаторът“.

Заслужава да се отбележи, че д -р Амнон Идън е ръководител на проект, чиято основна цел е да анализира потенциалните разрушителни ефекти на AI. Без правилно разбиране на последиците от създаването на изкуствен интелект, неговото развитие може да заплаши с бедствие, смята ученият. В момента нашето общество е слабо информирано за дебата, който се води в научната общност относно анализа на потенциалното въздействие на AI. „През следващата 2016 г. анализът на възможните рискове ще трябва да стане значително по -широко разпространен в мисленето на корпорациите и правителствата, политиците и тези, които отговарят за вземането на решения“, казва Идън.

Ученият е сигурен, че научната фантастика, която описва унищожаването на човечеството от роботи, скоро може да се превърне в нашия общ проблем, тъй като процесът на създаване на ИИ е излязъл от контрол. Например, Илон Мъск, с подкрепата на предприемача Сам Алтман, реши да създаде нова организация с нестопанска цел от 1 милиард долара, която разработва AI с отворен код, който трябва да надмине човешкия ум. В същото време самият американски милиардер Илон Мъск нарежда изкуствения интелект сред „най -големите заплахи за нашето съществуване“. Стив Возняк, който е съосновател на Apple, заяви през март миналата година, че „бъдещето изглежда обезсърчително и много опасно за хората … в крайна сметка ще дойде ден, когато компютрите ще мислят по-бързо от нас и те ще се отърват от бавните хора, за да така че компаниите да могат да работят по -ефективно."

Образ
Образ

Заслужава да се отбележи, че много учени виждат заплахата от AI. Десетки известни учени, инвеститори и предприемачи, чиято дейност по един или друг начин е свързана с развитието на изкуствения интелект, подписаха отворено писмо, призоваващо за повече внимание към въпроса за безопасността и социалната полезност на труда в областта на AI. Астрофизикът Стивън Хокинг и основателят на Tesla и SpaceX Илон Мъск са сред подписалите този документ. Писмото, заедно с придружаващия го документ, изготвен от Института за бъдеще на живота (FLI), е написано на фона на нарастващата загриженост за въздействието на изкуствения интелект върху пазара на труда и дори за дългосрочното оцеляване на цялото човечество в среда, където възможностите на роботите и машините ще растат почти неконтролируемо.

Учените разбират факта, че днес потенциалът на AI е много голям, затова е необходимо да се проучат изцяло възможностите за оптималното му използване за нас, за да се избегнат съпътстващите клопки, отбелязва писмото FLI. Наложително е системите за изкуствен интелект да правят точно това, което искаме от тях. Заслужава да се отбележи, че Институтът Future of Life е основан едва миналата година от редица ентусиасти, сред които е създателят на Skype, Jaan Tallinn, за да „сведе до минимум рисковете пред човечеството“и да стимулира изследванията с „оптимистична визия“на бъдещето”. На първо място, тук говорим за рисковете, които са причинени от развитието на AI и роботиката. Консултативният съвет на FLI включва Мъск и Хокинг, заедно с известния актьор Морган Фрийман и други известни личности. Според Илон Мъск неконтролираното развитие на изкуствения интелект е потенциално по -опасно от ядрените оръжия.

Известният британски астрофизик Стивън Хокинг в края на 2015 г. се опита да обясни отхвърлянето на AI технологиите. Според него с времето суперинтелигентните машини ще гледат на хората като на консумативи или мравки, които просто пречат на решаването на техните задачи. В разговор с потребителите на портала Reddit Стивън Хокинг отбеляза, че не вярва, че такива свръхинтелигентни машини ще бъдат „зли създания“, които искат да унищожат цялото човечество поради своето интелектуално превъзходство. Най -вероятно ще бъде възможно да се говори за факта, че те просто няма да забележат човечеството.

Образ
Образ

„Напоследък медиите постоянно изопачават думите ми. Основният риск при развитието на AI не е злобата на машините, а тяхната компетентност. Суперинтелигентният изкуствен интелект ще свърши отлична работа, но ако той и нашите цели не съвпадат, човечеството ще има много сериозни проблеми “, обяснява известният учен. Като пример Хокинг цитира хипотетична ситуация, в която свръхмощен AI е отговорен за експлоатацията или изграждането на нов язовир за водноелектрическа енергия. За такава машина приоритет ще бъде колко енергия ще генерира поверената система и съдбата на хората няма да има значение. „Малцина са нас, които тъпчем мравуняци и настъпваме мравки от гняв, но нека си представим ситуация - вие управлявате мощна водноелектрическа централа, която генерира електричество. Ако трябва да повишите нивото на водата и в резултат на вашите действия един мравуняк ще бъде наводнен, тогава проблемите с удавящи се насекоми едва ли ще ви притеснят. Нека не поставяме хората на мястото на мравките “, каза ученият.

Вторият потенциален проблем за по -нататъшното развитие на изкуствения интелект, според Хокинг, може да бъде „тиранията на собствениците на машини“- бързото нарастване на разликата в нивото на доходи между богати хора, които ще могат да монополизират производството на интелигентни машини и останалата част от населението на света. Стивън Хокинг предлага да се решат тези възможни проблеми по следния начин - да се забави процесът на развитие на AI и да се премине към развитието на не „универсален“, а високоспециализиран изкуствен интелект, който може да реши само много ограничен кръг от проблеми.

Освен Хокинг и Мъск, писмото е подписано от Нобеловия лауреат и професор по физика в Масачузетския технологичен институт Франк Уилчек, изпълнителния директор на Института за изследване на машинното разузнаване (MIRI) Люк Мюлхаузер, както и много специалисти от големи IT компании: Google, Microsoft и IBM, както и предприемачи, основатели на AI компаниите Vicarious и DeepMind. Авторите на писмото отбелязват, че нямат за цел да плашат обществеността, но планират да подчертаят както положителните, така и отрицателните аспекти, свързани със създаването на изкуствен интелект. „Понастоящем всички са съгласни, че изследванията в областта на ИИ напредват стабилно и влиянието на ИИ върху съвременното човешко общество само ще се увеличи“, се казва в писмото, „възможностите, които се отварят пред хората, са огромни, всичко, което съвременната цивилизация може да предложи е създаден от разузнаване. лице. Не сме в състояние да предвидим какво ще можем да постигнем, ако човешкият интелект може да се умножи по AI, но проблемът с премахването на бедността и болестите вече не е безкрайно труден."

Образ
Образ

В съвременния живот вече са включени многобройни разработки в областта на изкуствения интелект, включително системи за разпознаване на изображения и реч, безпилотни превозни средства и много други. Наблюдателите на Силиконовата долина изчисляват, че в момента в тази област се реализират над 150 стартиращи фирми. В същото време развитието в тази област привлича все повече и повече инвестиции и все повече компании като Google разработват своите проекти на базата на AI. Затова авторите на писмото смятат, че е дошъл моментът да се обърне повишено внимание на всички възможни последици от наблюдавания бум за икономическите, социалните и правните аспекти на човешкия живот.

Позицията, че изкуственият интелект може да представлява опасност за хората, се споделя от Ник Бостром, професор в Оксфордския университет, който е известен с работата си на антропния принцип. Този специалист смята, че AI е стигнал до точката, която ще бъде последвана от неговата несъвместимост с хората. Ник Бостром подчертава, че за разлика от генното инженерство и изменението на климата, за които правителствата отделят достатъчно средства за контрол, „нищо не се прави, за да се контролира еволюцията на ИИ“. Според професора понастоящем се провежда „политика на правен вакуум, който трябва да бъде запълнен“по отношение на изкуствения интелект. Дори технологии като самоуправляващи се автомобили, които изглеждат безобидни и полезни, повдигат редица въпроси. Например, трябва ли такава кола да извърши аварийно спиране, за да спаси пътниците си и кой ще носи отговорност в случай на инцидент, извършен от безпилотно превозно средство?

Обсъждайки потенциалните рискове, Ник Бостром отбеляза, че „компютърът не е в състояние да определи ползите и вредите за хората“и „дори няма ни най -малка представа за човешкия морал“. Освен това циклите на самоусъвършенстване в компютрите могат да се случат с такава скорост, че човек просто не може да следи и почти нищо не може да се направи по този въпрос, казва ученият. „На етапа на развитие, когато компютрите могат да мислят сами, никой не може да предвиди със сигурност дали това ще доведе до хаос или значително ще подобри нашия свят“, каза Ник Бостром, като посочи като пример просто възможно решение за компютър - изключване в страни с отопление със студен климат за подобряване здравето на хората и повишаване на тяхната издръжливост, което „може да дойде начело на изкуствения интелект“.

Образ
Образ

В допълнение, Bostrom също повдига проблема с чипирането на човешкия мозък, за да увеличи нашата биоинтелигентност. „В много отношения такава процедура може да бъде полезна, ако всички процеси се контролират, но какво се случва, ако имплантираният чип може да се препрограмира? До какви последици може да доведе това - до появата на свръхчовек или до появата на компютър, който ще прилича само на човек? - пита професорът. Начинът, по който компютрите решават човешки проблеми, е много различен от нашия. Например в шаха човешкият мозък разглежда само тесен набор от ходове, избирайки най -добрия вариант от тях. На свой ред компютърът разглежда всички възможни ходове, избирайки най -добрия. В същото време компютърът не очаква да разстрои или изненада противника си в играта. За разлика от човешкото същество, играейки шах, компютърът може да направи хитър и фин ход само случайно. Изкуственият интелект може да изчисли по най -добрия начин - да премахне грешката от всяка система, като премахне „човешкия фактор“от там, но за разлика от човека, роботът не е готов да извърши подвизи, които биха спасили живота на хората.

Наред с други неща, увеличаването на броя на интелигентните машини представлява етап от нова индустриална революция. Това от своя страна означава, че в близко бъдеще човечеството ще бъде изправено пред неизбежни социални промени. С течение на времето работата ще се превърне в много висококвалифицирани специалисти, тъй като почти всички прости задачи могат да се поемат от роботи и други механизми. Учените смятат, че изкуственият интелект "се нуждае от око и око", за да не се превърне нашата планета в анимационна планета "Железяка", която е била обитавана от роботи.

От гледна точка на все по -голяма автоматизация на производствените процеси, бъдещето вече е настъпило. Световният икономически форум (WEF) представи своя доклад, според който автоматизацията ще доведе до факта, че до 2020 г. над 5 милиона души, работещи в различни области, ще загубят работата си. Това е въздействието на роботи и роботизирани системи върху живота ни. За да съставят доклада, служителите на WEF са използвали данни за 13,5 милиона служители от цял свят. Според тях до 2020 г. общата нужда от повече от 7 милиона работни места ще изчезне, докато очакваният ръст на заетостта в други индустрии ще възлиза на малко над 2 милиона работни места.

Препоръчано: