Отиди на
Форум "Наука"

Стивън Хокинг: Изкуственият интелект може да е последното изобретение на човечеството


Recommended Posts

  • Потребители
Развитието на изкуствения интелект върви с все по-голямо темпо. Постигнатото до момента обаче ще бледнее с това, което ще се реализира през следващите десетилетия, пише известният учен Стивън Хокинг в статия за в. Independent.
Потенциалните ползи от изкуствения интелект са огромни, казва Хокинг. "Всичко, което цивилизацията може да предложи, е продукт на човешката интелигентност. Не можем да предвидим какво може да постигнем, когато тази интелигентност се увеличи с инструментите на изкуствения интелект". Допълва той и смята, че е напълно възможно да се открият лечения на всички болести, да се реши проблема с бедността и да няма повече войни.
"Успешното създаване на изкуствения интелект ще е най-голямото събитие в историята на човечеството. За съжаление, може да бъде и последното, освен ако не се научим как да избегнем рисковете", предупреждава ученият.
В близко бъдеще рисковете са разработките на военните за автоматични оръжейни системи, които самостоятелно избират и унижщожават целите си. Хокинг е доволен, че ООН и Human Rights Watch вече са призовали за забрана на тези оръжия.
В средносрочен план, Хокинг се притеснява от възможността неправилното управление на изкуствения интелект да доведе до още по-голямо разделяне между бедните и богатите, вместо да подобри живота на всички.

Целия материал: http://www.dnevnik.bg/tehnologii/2014/05/02/2292572_stivun_hoking_izkustveniiat_intelekt_moje_da_e/

Link to comment
Share on other sites

  • 2 years later...
  • Потребител

http://megavselena.bg/golyamo-cherveno-kopche-shte-izklyuchva-izkustveniya-intelekt/

Голямо червено копче ще изключва изкуствения интелект

A Space Odyssey / Metro-Goldwyn-Mayer, Stanley Kubrick Productions

Изследователи от Оксфордския университет и лабораторията DeepMind, която принадлежи на Google, са започнали работа над система за аварийно изключване на самообучаващи се алгоритми.

Това съобщава Business Insider, като се позовава на Института за изучаване на машинния интелект (MIRI)

„Ако такъв агент [изкуственият интелект] работи в режим на реално време под наблюдението на човека, то понякога може да възникне ситуация, при която операторът ще бъде принуден да натисне голямото червено копче, за да спре агента от изпълнението на действия, опасни за самия агент или неговото обкръжение.“

Авторите отбелязват, че самообучаващите се алгоритми могат с времето да открият някакъв механизъм за заобикаляне или игнориране на аварийната команда на оператора.

Според изследователите целта на работата е създаването на рамка, която няма да позволи на изкуствения интелект да намери начин за игнориране на командата за изключване.

Голямото червено копче също така трябва гарантирано да прекъсне дейността и максимално да обезопаси машината и околните при потенциално опасни ситуации, както и да предотврати извършването на действия, които могат да доведат до „необратими последствия“.

Въпросите за сигурността, свързани с разработката на системи за изкуствен интелект, се повдигат отдавна. През 2015 година Елън Мъск, Стивън Хокинг, Ноам Чомски, Стив Возняк и редица други учени, бизнесмени, знаменитости, изследователи и специалисти в областта на робототехниката и изкуствения интелект подписаха открито писмо, предупреждаващо производителите на оръжие от създаването на изцяло автономни бойни системи.

 

Ако ИИ притежава чувства - не е възможно да се отстраняват противоречивите емоции (известен пример - Тъщата пада от петия етаж върху ново ти БМВ!?!), при които трябва да се намери начин на поведение (как да се действа? по физиономия?!)

Ако не притежава чувства - не е ИИ, който да може да "разбира" Човека... Остава си машина с ограничен интелект.

Не е ясно - само на машина ли ще монтират червено копче... В началото - така се твърди, ама ... по-късно, знае ли се.:)

...

Link to comment
Share on other sites

  • Потребители

Аз някак си представям, че тези бъдещи ИИ ще бъдат много различни видове, вид програми, които инсталираме на компютрите си. Те ще имат възможности, но най-вече ще имат рамки извън които няма да могат да излизат...все пак всяка "машина" се създава с определена цел :animatedwink:

Link to comment
Share on other sites

  • Потребител
Милиардерът Илон Мъск, който е собственик на компаниите Tesla и SpaceX заяви, че хората са длъжни да се превърнат в киборги, за да не станат „домашни котенца” на значително превъзхождащите ги по интелект роботи. Според него, при значителния прогрес в областта на изкуствения интелект, човеците трябва да разширят своите интелектуални възможности с помощта на цифровите технологии, за да не изостанат безнадеждно от бъдещите господари на света-роботите с изкуствен интелект.
Link to comment
Share on other sites

  • Потребители
Преди 28 минути, Atom said:
Милиардерът Илон Мъск, който е собственик на компаниите Tesla и SpaceX заяви, че хората са длъжни да се превърнат в киборги, за да не станат „домашни котенца” на значително превъзхождащите ги по интелект роботи. Според него, при значителния прогрес в областта на изкуствения интелект, човеците трябва да разширят своите интелектуални възможности с помощта на цифровите технологии, за да не изостанат безнадеждно от бъдещите господари на света-роботите с изкуствен интелект.
 

Много интересно, но повдига редица проблеми от чисто морална, политическа и религиозна гледна точка. За това и за други аспекти, най-вече за това дали няма да бъде изоставено въобще разбирането за човешката природа при такова развитие е книгата на Франсис Фукуяма (същият е автор на "Краят на историята") "Нашето постчовешко бъдеще". Още съм в началото и наистина е интересно. В този форум единствено лапландеца беше уверен, че даже по-рано от 200 години човешкият род ще изчезне като такъв и ще бъде заменен от постчовеци, както ги наричаше той.

Link to comment
Share on other sites

  • Потребител
Преди 14 часа, Atom said:
Милиардерът Илон Мъск, който е собственик на компаниите Tesla и SpaceX заяви, че хората са длъжни да се превърнат в киборги, за да не станат „домашни котенца” на значително превъзхождащите ги по интелект роботи. Според него, при значителния прогрес в областта на изкуствения интелект, човеците трябва да разширят своите интелектуални възможности с помощта на цифровите технологии, за да не изостанат безнадеждно от бъдещите господари на света-роботите с изкуствен интелект.
 

 

Пророците след Исус Христос само л@йна ядат!:)

Интересно що, след като са се превърнали в роботи (в мисленето си!), искат и другите да са такива ... роботи, като тях?!

Не случайно споменах необходимостта от човешки чувства (любов, състрадание, умиление и др., водещи до Смирение пред сътвореното от Природата).

Та, то и сега повсеместното приложение на роботите "убива" Човека - отнемат му работата, дето си изкарва хляба и го изхвърлят на улицата...

Е, как няма да очакваме, да им изгорят бушоните ...  дано ... на роботите (и на Човек изнуден от улицата)!:animatedwink:

Редактирано от Малоум 2
Link to comment
Share on other sites

  • Потребители

„Богатите вероятно ще станат киборги до 200 години и постепенно ще се слеят с технологични устройства като компютри и смартфони, твърди израелски историк, цитиран от в. "Дейли телеграф".

Дори когато хората изпитват удоволствие или имат поситжения, това не им стига. Те искат все повече. Мисля, че е вероятно през следващите 200 години Хомо сапиенс да се ъпгрейдват до нещо като божествено създание или с биологични манипулации и генно инженерство, или като бъдат създадени киборги, отчасти органични, отчасти неорганични."

Според проф. Харари хората са станали толкова доминантен вид заради способността си да измислят "фикции", които обединяват обществото, като религията, парите, идеята за основните човешки права, които нямат основа в природата.

"Бог е изключително важен, защото без религиозния мит не можеш да създадеш общество. Религията е най-важното изобретение на хората - каза проф. Харари. - Докато хората са мислели, че зависят от тези богове, те са контролируеми. Сега казваме, че нямаме нужда от бог, а само от технологии.

Най-интересното място в света от религиозна гледна точка не е Близкият изток, а Силициевата долина, където създават техно-религия.

 

Нищо принципно различно от идеята на Фр. Ницше за „свръхчовека”, върху базата на която нацистите изградиха теорията си за „свръх-раса” и построиха концлагери за „нисшите и вредни” човешки видове. Иронията е, че професорът е етнически евреин, а този път в ролята на „свръхчовеци” са визирани богатите.

Link to comment
Share on other sites

  • 8 месеца по късно...
  • Потребител
On 7.06.2016 г. at 11:48, Б. Киров said:

Според проф. Харари хората са станали толкова доминантен вид заради способността си да измислят "фикции", които обединяват обществото, като религията, парите, идеята за основните човешки права, които нямат основа в природата.

"Бог е изключително важен, защото без религиозния мит не можеш да създадеш общество. Религията е най-важното изобретение на хората - каза проф. Харари. - Докато хората са мислели, че зависят от тези богове, те са контролируеми. Сега казваме, че нямаме нужда от бог, а само от технологии.

Добре казано :)

Link to comment
Share on other sites

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Твоето дарение ще ни помогне да запазим и поддържаме това място за обмяна на знания и идеи. Благодарим ти!