Отиди на
Форум "Наука"

Изкуствен интелект стана свръхагресивен


Recommended Posts

  • Глобален Модератор

 

Изкуственият интелект на Google вече знае, че агресията и егоизмът могат да бъдат силно ефективниИзкуственият интелект на Google вече знае, че агресията и егоизмът могат да бъдат силно ефективни
Сн.: УouTube
  •  
Изкуственият интелект DeepMind на Google се "самонаучи" да бъде крайно агресивен и егоистичен.
A.I.-то на Google вече е демонстрирало способността си да се самообучава, като разчита на направените изследвания на обстановката и своята памет.

По този начин бе постигнат успех на най-сложната игра в света - Го, а DeepMind успя да се справи с множеството неизвестни фактори и в крайна сметка да победи човека.

Впоследствие изкуственият интелект се научи да имитира човешки глас.

Последното "откритие" на изкуствения интелект на IT корпорацията обаче е доста по-тревожно.

DeepMind е разбрал, че в критични ситуации, в които загубата изглежда близо, е най-ефективно да се подходи по агресивен начин, предава ScienceAlert.

Освен крайна проява на агресия, изкуственият интелект е започнал да проявява и признаци на... алчност и егоизъм.

Как се е стигнало до тук?

Екипът на Google е провел 40 милиона сесии на опростената игра Gathering, в която два изкуствени интелекта са изправени един срещу друг, като целта им е да събират повече плодове. 

В началото, когато плодовете били много, нямало никакъв проблем. Но когато плодовете намалели, изкуственият интелект на Google е използвал заложеният в играта лазерен лъч, който е изтикал чрез него другия A.I. извън игралното поле. В крайна сметка всички плодове оставали за този, който бил по-агресивен.

Учените споделят, че всъщност са искали да научат изкуствения си интелект на алчност и егоизъм. След това обаче те провели друг тест. 

При втория опит била използвана опростената игра Wolfpack, в която участвали 3 изкуствени интелекта - 2 в ролята на вълци и 1 в ролята на агне, като в играта имало и "крадци", които се стараели да откраднат плячката, ако тя бъде уловена. 

В тази ситуация DeepMind открил, че работата в екип може да е изгодна, като двата "вълчи" A.I.-та сформирали "глутница". 

Екипът на Google споделя, че по-старите версии на DeepMind, които използвали по-малки невронни мрежи, били по-миролюбиви и склонни да съжителстват в хармония. 

Именно новите версии, които използват по-големи и съвършени невронни мрежи са развили агресивно поведение и наченки на егоизъм и алчност, като те били превъзмогвани единствено в случаите, когато работата в екип се е оказала по-изгодна. 

Екипът на Google споделя, че е много важно изкуственият интелект да се научи да "мисли", като прави преценки на различните ситуации, предвижда тяхното развитие и решава дали то е изгодно или не. 

Тези способности могат да намерят много широко приложение в човешкото ежедневие - от умните коли и светофари, до животоспасяващите операции и заместването на човека в множество професии. 

Не всички обаче са толкова ентусиазирани. 

Шефът на SpaceX Илон Мъск е заявявал макар и завоалирано, че не е сигурен до колко е етична работата на Google и какви всъщност са нейните цели. В последствие той създаде организация за отворен изкуствен интелект, която да се съобразява и с други фактори, освен с тези на корпоративното надмощие и финансовата печалба. 

"Сега сме във фаза, в която възможностите на A.I. изглеждат тясно специализирани. Това ни кара да не обръщаме голямо внимание на някои важни въпроси. Но е възможно в най-скоро време изкуственият интелект да еволюира толкова бързо, че да стане по-добър от човека във всяка една ситуация. Трябва да подходим отговорно, защото последиците могат да са фатални за човечеството", е споделял не веднъж Мъск. 

"Изкуственият интелект може да се окаже или най-доброто или най-лошото нещо създадено от човека", споделя известният британски физик Стивън Хокинг. 

Според Хокинг най-реалната опасност обаче е друга - ученият се опасява от бъдеще, в което собствениците на корпорации за изкуствен интелект владеят света, а останалите хора са потънали в нищета.
Link to comment
Share on other sites

  • Потребител

Има нещо неизчистено в цялата постановка. Каква е мотивацията на изкуствения интелект да събира ябълки или гони овце? Очевидно неоправдана, а заложена в програмата. И изборите, които изкуствения интелект прави, са просто игра, а не действия спрямо Аз-а, вътрешни подбуди. Изобщо изкуственият интелект гледа ли на себе си като личност, мисли ли за оцеляването си, приема ли се за жив, за да му се приписват агресия, егоизъм и т.н.?

На фона на тези прости причинно-следствени стъпки, които програмата предприема, мимоходом е подхвърлен истински важния и еволюционен ход - имитирането нагласа. Но информацията е оскъдна и доколко този изкуствен интелект е изкуствен интелект и доколко е една игра за шах, не става ясно.

Link to comment
Share on other sites

  • Потребител
On 2/15/2017 at 20:27, vorfax said:

истински важния и еволюционен ход - имитирането нагласа

Така се узурпира реалността. Сигурно си спомняте сцената, в която Нео от "Матрицата" криеше дискове между изрязаните страници на книгата "Simulation and Simulacra". Та в тази книга френският теоретик  Жан Бодрияр описва подробно това 'обсебване'. В резултат копието без оригинал става по-реално от самата реалност. Но когато виртуалното прекъсва, изчезва и неговото измамно отражение. Тогава се осъзнава изгубената връзка, ескалирала до етап на пълно откъсване от живота. 

Link to comment
Share on other sites

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

Вече 15 години "Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

 

За контакти:

×
×
  • Create New...