На праг сме да ја направиме најголемата грешка во историјата - Стивен Хокинг за вештачката интелигенција во 2014
  Објавено на
share

 

Оние кои стравуваат дека човештвото ќе се уништи од сопствената технологија отсега имаат влијателен сојузник во ковањето апокалиптични сценарија. Не нуклеарната технологија ниту пак клонирањето. Стивен Хокинг проценува дека фатална за нас може да биде вештачката интелигенција.

На праг сме да ја направиме најголемата грешка во историјата

Оние кои стравуваат дека човештвото ќе се уништи од сопствената технологија отсега имаат влијателен сојузник во ковањето апокалиптични сценарија. Не нуклеарната технологија ниту пак клонирањето. Стивен Хокинг проценува дека фатална за нас може да биде вештачката интелигенција. 

 

 

Најпознатиот физичар на светот го предупредува човештвото на ризиците кои ги носи развивањето на вештачката супер-интелигенција и вели дека тоа е најважната работа која ќе се случи во целата наша историја, но, може да биде и последна.

"Ако гледаме напред, не постојат суштински лимити што сè може да биде направено. Не постои физички закон кој ќе ги спречи елементите да се конфигурираат супериорно во однос на конфигурацијата на човечкиот мозок," пишува Хокинг.

Во таков случај лесно е да се замисли како таквата технологија ќе ги надигра финансиските пазари или човечките истражувања, како ќе ги надмудри човечките лидери или ќе создаде оружја кои нема да ги разбереме. 

Неизвесноста на таква иднина му личи на замислена ситуација да добиеме порака од некоја супериорна вонземна цивилизација во која се вели: "Подгответе се, ќе ви дојдеме за некоја деценија". Ниту можеш да седиш со скрестени раце ниту пак ефикасно да се подготвиш бидејќи не знаеш како и со кој цел ќе дојдат.

На краток рок, влијанието на вештачката интелигенција зависи од тоа кој ја контролира, но на подолг рок, зависи од тоа дали таа воопшто може да биде контролирана.

Целата статија следува подоле во целост 

Стивен Хокинг: „Transcendence ги разгледува импликациите на вештачката интелигенција - но дали ја сфаќаме вештачката интелигенција доволно сериозно?

Успехот во создавањето вештачка интелигенција би бил најголемиот настан во историјата на човештвото. За жал, тоа може да биде и последно, освен ако не научиме како да ги избегнеме ризиците, вели група водечки научници

Стивен Хокинг сугерира дека треба посериозно да ја сфатиме вештачката интелигенција 

(Getty Images)
Со оглед на тоа што холивудскиот блокбастер „Transcendence“ игра во кино, со Џони Деп и Морган Фримен кои прикажуваат конфликтни визии за иднината на човештвото, примамливо е да се отфрли идејата за високоинтелигентни машини како обична научна фантастика. Но, ова би била грешка, и потенцијално наша најлоша грешка во историјата.

Истражувањето за вештачка интелигенција (ВИ) сега напредува брзо. Неодамнешни знаменитости како што се самоуправувачки автомобили, компјутер кој победува на Jeopardy! и дигиталните лични асистенти Siri, Google Now и Cortana се само симптоми на ИТ трка во вооружување поттикната од невидени инвестиции и градење на сè позрела теоретска основа. Ваквите достигнувања веројатно ќе избледат наспроти она што ќе го донесат следните децении.

 

Потенцијалните придобивки се огромни; сè што цивилизацијата има да понуди е производ на човечката интелигенција; не можеме да предвидиме што би можеле да постигнеме кога оваа интелигенција се зголемува со алатките што вештачката интелигенција може да ги обезбеди, но искоренувањето на војната, болестите и сиромаштијата би било високо на сечија листа. Успехот во создавањето вештачка интелигенција би бил најголемиот настан во историјата на човештвото.

Вотсон е вештачки интелигентен компјутерски систем способен да одговара на прашања поставени на природен јазик, развиен во проектот DeepQA на IBM од истражувачки тим предводен од главниот истражувач Дејвид Феручи.Шаховските ентузијасти го гледаат светскиот шампион во шах Гари Каспаров на телевизиски монитор додека ја држи главата во раце на почетокот на шестиот и последен меч против компјутерот на IBM Deep Blue во Њујорк.  Каспаров го загуби мечот во само 19 потези и со севкупна победа на Дип Блу со резултат 2,5-3,5.Дигитални асистенти, новиот вид батлери за податоци за паметни телефони дизајнирани да ни го олеснат животот, да ги предвидат сите наши потреби

 

За жал, тоа може да биде и последно, освен ако не научиме како да ги избегнеме ризиците. Во блиска иднина, светските војски размислуваат за системи за автономно оружје што можат да избираат и елиминираат цели; ОН и Хјуман рајтс воч се залагаа за договор со кој се забранува такво оружје. На среден рок, како што нагласија Ерик Бринјолфсон и Ендрју Мекафи во Втората ера на машините , вештачката интелигенција може да ја трансформира нашата економија и да донесе големо богатство и голема дислокација.

Гледајќи подалеку напред, не постојат фундаментални ограничувања за тоа што може да се постигне: не постои физички закон кој ги спречува честичките да бидат организирани на начини кои вршат уште понапредни пресметки од распоредот на честичките во човечкиот мозок. Можна е експлозивна транзиција, иако може да се одвива поинаку од филмот: како што сфатил Ирвинг Гуд во 1965 година, машините со натчовечка интелигенција би можеле постојано да го подобрат својот дизајн уште повеќе, предизвикувајќи го она што Вернор Винџ го нарече „сингуларност“ и филмскиот лик на Џони Деп. нарекува „трансценденција“.

Може да се замисли како таква технологија ги надмудри финансиските пазари, измислува човечки истражувачи, манипулира со човечки лидери и развива оружје што не можеме ни да го разбереме. Додека краткорочното влијание на вештачката интелигенција зависи од тоа кој ја контролира, долгорочното влијание зависи од тоа дали воопшто може да се контролира.

 

Значи, соочени со можни иднини со непроценливи придобивки и ризици, експертите сигурно прават се што е можно за да обезбедат најдобар исход, нели? Погрешно. Ако некоја супериорна вонземска цивилизација ни испрати порака велејќи: „Ќе пристигнеме за неколку децении“, дали само ќе одговориме: „Во ред, јавете ни се кога ќе стигнете овде – ќе ги оставиме светлата вклучени“? Веројатно не - но ова е повеќе или помалку она што се случува со вештачката интелигенција. Иако се соочуваме со потенцијално најдоброто или најлошото нешто што може да му се случи на човештвото во историјата, малку сериозни истражувања се посветени на овие прашања надвор од непрофитните институти како што се Кембриџ Центарот за проучување на егзистенцијалниот ризик, Институтот за иднината на човештвото , машината . Институт за истражување на разузнавањето ,. Сите ние треба да се запрашаме што можеме да направиме сега за да ги подобриме шансите да ги искористиме придобивките и да ги избегнеме ризиците.

Стивен Хокинг е директор за истражување на Катедрата за применета математика и теоретска физика на Кембриџ и лауреат на наградата за фундаментална физика во 2012 година за неговата работа на квантната гравитација. Стјуарт Расел е професор по компјутерски науки на Универзитетот во Калифорнија, Беркли и коавтор на „Вештачка интелигенција: модерен пристап“. Макс Тегмарк е професор по физика на Технолошкиот институт во Масачусетс (МИТ) и автор на „Нашиот математички универзум“. Френк Вилчек е професор по физика на МИТ и добитник на Нобеловата награда во 2004 година за неговата работа на силната нуклеарна сила.

 

 

 

 

 

 




КОМЕНТАРИ




Copyright Jadi Burek © 2013 - сите права се задржани