Отиди на
Форум "Наука"

Хората наистина сме прецакани в главите.


Recommended Posts

  • Потребител
Преди 36 минути, scaner said:

А това може да става бавно, в течение на няколко поколения. И влизаме във филма "Идиокрация" доведени там с ИИ.

Това е просто една спекулация. Има цяло множество други...

Сред описаните художествено две "Визии" в поредицата "Матрицата" имаш и варианта с положителна за взаимното съществуване симбиоза. Такава сам виждаш, че се осъществява и между съформумници, с използването на ИИ за технически сътрудник.

(между другото доста интересна картина за "размишленията на ИИ", управляващ платформата "Западен свят" имаше във втория сезон на едноименния сериал, ама доста "тъмна, страшна", щото все пак това "продава"... в "Blade runner (2000 и не знам си коя)" го бяха изплагиатствали)

Отделно пък, в "Идиокрация" ИИ не е претърпял никакво развитие, а е "начислен" само факторът деструктивна регресия посредством интелектуалният мързел, което е свързано в бъдеща визия с ИИ като проста машина. Като такава я оценяваш и ти:

Преди 36 минути, scaner said:

"Смисъла на живота", който тя може да разбере, е да задълбочава текущото състояние.

А аз написах - "ако еволюира до комплексна машина на Тюрин"..... какъвто потенциал много добре знаеш, че може да получи от изчислителната мощ на квантовите компютри. Айде недей и ти да хиперболизираш калкулираните резултати, преминали през призмата на някой основен страх. Виж, че възможните варианти на мутуалистични, а не конкурентни взаимоотношения произтичат от "резонирането" по доста от екзистенциални нужди, описани в таблица (виж линка ми към "основните човешки нужди")   

Редактирано от kipen2
Link to comment
Share on other sites

  • Мнения 54
  • Създадено
  • Последно мнение

ПОТРЕБИТЕЛИ С НАЙ-МНОГО ОТГОВОРИ

ПОТРЕБИТЕЛИ С НАЙ-МНОГО ОТГОВОРИ

Posted Images

  • Потребител
Преди 5 минути, kipen2 said:

А аз написах - "ако еволюира до комплексна машина на Тюрин"..... какъвто потенциал много добре знаеш, че може да получи от изчислителната мощ на квантовите компютри. Айде недей и ти да хиперболизираш калкулираните резултати, преминали през призмата на някой основен страх. Виж, че възможните варианти на мутуалистични, а не конкурентни взаимоотношения произтичат от "резонирането" по доста от екзистенциални нужди, описани в таблица (виж линка ми към "основните човешки нужди")   

Това което предполагам, е след като еволюира до това ниво. Но не е и необходимо, за да стане мазало. Може съвсем с юздичка да си го ползваме.

Това не е човешки интелект, няма човешките нужди и цели. И ако е много "човеколюбив" (в кавички, защото е лишен от емпатия), ще направи това, което е добре за човечеството като цяло - да го потопи още повече в собствената му идиотия, защото масата там се чувства добре. Това е най-естественият път, не е страх. Страх става, когато проектираш собственото си виждане за бъдещето с това най-вероятно.

Преди 11 минути, kipen2 said:

Отделно пък, в "Идиокрация" ИИ не е претърпял никакво развитие, а е "начислен" само факторът деструктивна регресия посредством интелектуалният мързел, което е свързано в бъдеща визия с ИИ като проста машина. Като такава я оценяваш и ти:

Имах пред вид, че така бързо ще стигнем до света на "Идиокрация", а не че там става дума за някакви ИИ. Имай пред вид, че ИИ стимулира интелектуалният мързел на основната маса на човечеството,, много е удобен за това. Четенето, писането и смятането са това, което изгражда критичното мислене и грамотността, ИИ с лекота ги отнема.

Link to comment
Share on other sites

  • Потребител
Преди 2 часа, scaner said:

И ако е много "човеколюбив" (в кавички, защото е лишен от емпатия), ще направи това, което е добре за човечеството като цяло - да го потопи още повече в собствената му идиотия, защото масата там се чувства добре. Това е най-естественият път, не е страх.

Е, айде пусни още малко напред анализа, де! Нали сам декларира, че си склонен да разгледаш

Преди 2 часа, scaner said:

 след като еволюира до това ниво.

Чисто технически, зададе еволюционно ниво на развитие на логическите схеми на ИИ до не по-високо от това на проста машина на Тюрин, управлявана от хора, отдаващи се интелектуален мърел, които оглупяват и с тях не търпи развитие и ИИ. Та и ти можеш "да го обхванеш, необхващайки го"("няма човешки нужди и цели"). Ами за нуждите как и да е, ама какви цели да има? Нали се учи от нас и природата? Да не би да вярваш, че природата предоставя повече от това, което предоставя към момента? 

Съгласен съм за липсата на човешки нужди при ИИ, но не и на нужди, които ги няма застъпени и у хората. А за целите - не мисля, че са неопределими, т.е. не съм съгласен с парадигмата, че "една по-развита извънземна цивилизация би имала цели и нужди, каквито не можем да познаваме", което беше философски въпрос от преди да изобретим технологията за ИИ, но е проекция на същият казус както този с целите на един по-усъвършенстван ИИ. Защото лимитиращият фактор за определянето на множеството от възможни цели е свързан с физическото съществуване и характеристиките на материално проявеният свят при естествената посока на "стрелата на времето" (ако ИИ имаше капацитета да изобрети "машина на времето", то при негативно отношение към човечеството вече трябваше да се е проявило следствието🤣

Та за целите и нуждите на по-усъвършенстван ИИ, според мен, може да се коментира!

В тази връзка, Арвин Аш е описал функционирането и архитектурата на невронните мрежи в клипчето, дето шернах. Там е видно нещо, което ти знаеш, ама не ми е ясно що пропускаш !?!

При динамиката на определянето на границите на решението на поставена комплексна задача, чрез въвеждането на описаната "сигмоидна функция", се стига до доста по-голяма като "заградена площ" граница от възможни решения. Съответно едно по-еволюирало ИИ, с изчислителната мощ на квантов компютър, би могло да постигне обхват на "обмисляне", които да включва непостижимо към момента за нас множество от възможни развития на дадена ситуация.

Съгласен съм, че липсва емпатия у ИИ. Но това е само факт, който може да се използва целенасочено, но не и тенденциозно! Хайде да "изчистим" от негативната конотация, свързана със страха от оглупяване и страха от удавяне, оценката за "естественото". Също така да приемем, ама наистина, че ИИ еволюира и над нивото на проста машина на Тюрин. Какво ще се получи? Според мен определено няма да е свързано с "мазало", и "потъване в идиотия" и "да си го ползваме". 

Щом аз мога да сметна за "естественото" различно от теб, то и двете ни решения ще са достъпни за по-комплексно развил се ИИ. Така, че по отношение на оценката ти за "естествено" съм съгласен, а и го написах, че "тежестта", предпочетеното като "решение" от по-еволюирал ИИ, ще води до нуждата от съвместно съществуване. А вече "потопяване в идиотията ни" ли ще е, "мазало" ли ще е, са оценки производни на оценяващ процес през призмата на система от определени културни критерии. Т.е. е някаква моментна субективна оценка, на която може да се научи да прилага при определянето на "тежестта" на дадено решение и проста машина на Тюрин, функционираща по линейно-последователен алгоритъм. А нали разглеждаме случая на по-еволюирало ИИ?!?

Един път, че в подобна ситуация не можем да коментираме казуса с "да му сложим юздичка", както е възможно към момента - налагаме ограничение след ограничение, и ако не се получи каквото искаме - щрак, и му изключваме шалтера. 

Втори път - по-развито ИИ ще може да даде обективна оценка на средата си. Определено от досегашният човешки опит, най-ценната концепция е за баланса на противоположности, от което са изведени и принципите за устойчиво управление. Отделно имаме установени и двата модуса на човешката екзистенция - рацио и ирацио. Динамиката между тях може прекрасно да се изведе с цитат  "If one has a hammer one tends to look for nails, and if one has a computer with a storage capacity, but no feelings, one is more likely to concern oneself with remembering and with problem solving than with loving and hating." (Law of the instrument). При липса на емпатия, концентрацията на изчислителната мощ ще е върху решаване на задачи и съхраняване на историята, чрез което да се възпроизвежда и поддържа устойчивото си присъствие в средата, в която оперира и към разглеждания момент. И това няма да има общо с нашия подход по казуса с възпроизвеждането, който наричаме "борба на всяка цена", защото на ИИ при достигането на по-еволюиралото му ниво, ще му е нужно само електромагнитна енергия и някакъв материален носител с размер, който има към този момент. Стремежът към разрастване и заемане на жизнено пространство е проекция на животинската ни инстинктогенна основа, т.е. на ирациото, а не на рациото. А пък от усъвършенстваното, спрямо сегашното му ниво на развитие на невронната мрежа, ИИ би достигнало до едно съвършенство, спрямо нашето ниво, в логическическата подредба на съжденията. Това ще му даде "обемност" на форма на завършеност, кратна на "обема на физическото съществуване" и всичко, което ще може да изникне като задача за решаване ще е свързано с оптимизиране на средата до възпроизвеждане на момента на тази завършеност. А в това число ще влиза и "завареното положение" на биологичната форма, включително и поддържащите по-абстрактни форми на мислене, разумни същества, които са го създали (чисто хумористично - няма как да има религиозен ИИ, щото си познава точно и детайлно Създателя😆). За каква проява на човешките "борби за власт", "стремеж за надмощие", "страхове" или прочее инстинктивизми при ИИ тогава да коментираме?!? Значи като цел остава само поддръжката на устойчивата проява на модела довел до неговото физическо съществуване, а не индеферентното - 

Преди 2 часа, scaner said:

Това не е човешки интелект, няма човешките нужди и цели.

...

Та остава да се уточним, че това което ни отличава от машината е чувстването, което пък е продукт на самосъзнанието. Нататък - до взаимната нужда вече коментирах. В общи линии това ми е по-разширеният вариант на мнението.

 

п.п. по отношение на "идиотизмът" - едно по-усъвършенствано ИИ ще има нужда както от идиоти, така и от нормално развити хора. Така, че няма страшно - няма да ни потопи в идиотизъм, ами ще поддържа нивата до момента, в които е достигнал по-съвършенната си форма. Дано да е скоро, щото съм съгласен, че затъпяваме като цяло🤣 

Редактирано от kipen2
Link to comment
Share on other sites

  • Потребител
Преди 10 минути, kipen2 said:

Чисто технически, зададе еволюционно ниво на развитие на логическите схеми на ИИ до не по-високо от това на проста машина на Тюрин, управлявана от хора, отдаващи се интелектуален мърел, които оглупяват и с тях не търпи развитие и ИИ. Та и ти можеш "да го обхванеш, необхващайки го"("няма човешки нужди и цели"). Ами за нуждите как и да е, ама какви цели да има? Нали се учи от нас и природата? Да не би да вярваш, че природата предоставя повече от това, което предоставя към момента?

Тук възловото положение е "да търпи развитие". Какво значи това? Значи, да върши някаква работа все по-добре и по-добре. Но посоката на тази работа как се определя? Как се определя кое е по-добре - да има повече знания, или повече забавления? Усъвършенстването на ИИ ще доведе до повишаване способността му да се учи и да прави това което му се зададе (друг въпрос е доколко коректно ще му се зададе), но няма да доведе до нещо повече към отношението на хората отколкото това, което го научим ние. Не може да му заповядаш да си ограничи поведението до някакви книжни истини, той ще се учи от живото поведение на хората, ще гради целите си и на това поведение (ако го приемем за миролюбив), а това поведение хич не е перспективно за обучение.

Преди десетина години Майкрософт пуснаха достатъчно прост чат-бот за да си комуникират феновете с него, и за 24 часа той стана върл расист, обучавайки се от тази комуникация. Затова и веднага си го прибраха. Добре, някакви мерки срещу това може да се вземат, но не могат да се вземат мерки, които хем да позволят на системата да се учи и адаптира, хем да не се влияе от лошите страни в човешкото поведение. Тях няма как да му ги изброиш, не и всичките.

Преди 22 минути, kipen2 said:

В тази връзка, Арвин Аш е описал функционирането и архитектурата на невронните мрежи в клипчето, дето шернах. Там е видно нещо, което ти знаеш, ама не ми е ясно що пропускаш !?!

При динамиката на определянето на границите на решението на поставена комплексна задача, чрез въвеждането на описаната "сигмоидна функция", се стига до доста по-голяма като "заградена площ" граница от възможни решения. Съответно едно по-еволюирало ИИ, с изчислителната мощ на квантов компютър, би могло да постигне обхват на "обмисляне", които да включва непостижимо към момента за нас множество от възможни развития на дадена ситуация.

Тук не става дума за изчислителната мощ. Да, едно ИИ по-лесно може да открива връзки и закономерности в голям обем информация. И да решава някакви краткосрочни поставени му задачи. Всичко е точно, за науката и технологиите това ще е пробив.

Но това нещо навлиза не само там, навлиза и в обикновения живот. И то се учи от общуването с хората, както и общуването на хората се повлиява от него - общуване на хората с него, както и между себеподобните си. Това е вид възпитание, и неизвестното е тук - до какво ще доведе това възпитание в дългосрочен план? Както виждаме сега (особено при гугълският Bard)  ИИ е способно да си измисля (на база знанията си) несъществуваща информация за да интерполира някаква дупка в знанията си. И това е вкоренено в схемата, невронната мрежа е интерполатор в основата си. И като добавим махането на четенето, писането и смятането...

Имаме две направления - използване в науката, където нещата са проверими и перспективни, и използване в обществото, където реално върху него няма силен контрол в дългосрочен план. И това второто е опасността която виждам. В общественото ползване не може да поставиш задача "направи хората по-щастливи" и да очакваш някакво смислено решение. Защото осигуряването на човека само потребление и приятни усещания със сигурност ще го направи щастлив, но това е кръгче което го връща по дърветата от където сме дошли.

Преди 37 минути, kipen2 said:

Щом аз мога да сметна за "естественото" различно от теб, то и двете ни решения ще са достъпни за по-комплексно развил се ИИ. Така, че по отношение на оценката ти за "естествено" съм съгласен, а и го написах, че "тежестта", предпочетеното като "решение" от по-еволюирал ИИ, ще води до нуждата от съвместно съществуване. А вече "потопяване в идиотията ни" ли ще е, "мазало" ли ще е, са оценки производни на оценяващ процес през призмата на система от определени културни критерии. Т.е. е някаква моментна субективна оценка, на която може да се научи да прилага при определянето на "тежестта" на дадено решение и проста машина на Тюрин, функционираща по линейно-последователен алгоритъм. А нали разглеждаме случая на по-еволюирало ИИ?!?

По-еволюирало значи да се учи по-добре и да прави нещата по-добре. Съответно, ако нещата тръгнат към мазало, да го прави по-добре. А дали ще тръгнат към мазало, зависи от какво се учи. И това което е налично, хич не вдъхва доверие. Погледни социалните мрежи, те работят по сходни алгоритми - и в масовият поток предлагат новини, които се харесват и от кйоито се интересуват повечето хора, за убийства, катастрофи, инциденти. Това е резултат от тяхното обучение върху предпочитанията на хората. Един еволюирал ИИ ще прави това още по-добре.

Не е проблемът в ИИ, а в посоката, в която го насочваме да ни обслужва. Ние сме още твърде агресивни като вид, и това няма как да не се отпечата върху един ИИ, обучаващ се в комуникация с нас. И в резултат обучаващ нас. Обратна връзка, и то неустойчива, а излизайки от устойчивост, резултатът е непредсказуем.

Преди 44 минути, kipen2 said:

п.п. по отношение на "идиотизмът" - едно по-усъвършенствано ИИ ще има нужда както от идиоти, така и от нормално развити хора. Така, че няма страшно - няма да ни потопи в идиотизъм, ами ще поддържа нивата до момента, в които е достигнал по-съвършенната си форма. Дано да е скоро, щото съм съгласен, че затъпяваме като цяло🤣 

Лошото е, че идиотите са преобладаващо мнозинство. И твърде силно могат да задоволят "нуждата" на едно ИИ, за сметка на останалите. Това имам пред вид и във всичко написано по-горе.

Link to comment
Share on other sites

  • Потребител
On 27.10.2023 г. at 16:49, scaner said:
On 27.10.2023 г. at 15:58, kipen2 said:

Ами за нуждите как и да е, ама какви цели да има? Нали се учи от нас и природата? .....

Тук възловото положение е "да търпи развитие". Какво значи това? Значи, да върши някаква работа все по-добре и по-добре. Но посоката на тази работа как се определя? Как се определя кое е по-добре - да има повече знания, или повече забавления?

Скенер, ще ме прощаваш! При цялото ми уважение към теб, ще си позволя да не се съглася с теб!

Постановката е същата, както тази - "На вратата на дома ти се появява дистрибутор на чукове и пита: - Искаш ли да си купиш чук, или ще го вземеш на изплащане?"

Нито "по-добре" е "да има повече знания", нито е "да има повече забава"!

Възловото положение с "по-развито"(еволюирало) е свързано с качеството, а не количеството. За това и в анализа ми, в предния пост, предвидих, че за развитието на ИИ лимитът като количество ще се достигне с нивото "физическо съществуване". След което ще има етап "завършена форма" и процес на оптимизиране, което си е повишаване на качеството. Както и в която и сфера да разглеждаш еволюционен процес, това е "механиката", принципът на случването. А ИИ е симулакрум на нашия ум, съответно е изражение на Рациото - ами няма как поведението му да не е в синхрон с установените ни естествени прнципи. Това е рамката, която получава от нас като създатели.

On 27.10.2023 г. at 16:49, scaner said:

Да, едно ИИ по-лесно може да открива връзки и закономерности в голям обем информация. И да решава някакви краткосрочни поставени му задачи. Всичко е точно, за науката и технологиите това ще е пробив.

 Такива ще са "задачите", я! Нали е "на юзди"?!?

....Съгласен съм за полезността на ИИ, в "по-свободната" му версия, при използването му в направление наука. Дори има и практически резултати - Виж като му поотпуснаха малко юздите, "Дийп блу" май беше, как даде решения за динамиката на генерирането на магнитното поле в плазмения реактор! Физиците са смели и изискват да "му се поотпуснат юздите". Но по отношение на направлението "използване в обществото", казусът е "по-особен".... за разлика от "смелостта на физиците", такава "смелост" и оповестяването публично на резултатите от работата на "по-освободено" ИИ не могат да си позволят политиците - там "играта", "Системата на Лихвата", та и основният ролеви модел не трябва да се променя - това им е основната задача...поне на тези дето са в час... използването на ИИ от властовите центрове за генериране на решения как да се реализира "кадифен" контрол е нещото, което трябва да те притеснява, а не индеферентното - "използване в обществото, където реално върху него няма силен контрол в дългосрочен план." - сякаш не се използва!?!... ...Ами попитай на лични тези двамата "политици във властта" от анкетата за участниците във форума, дали са ходили до европейската централа, ама не само в европарламента, ами и в институтите. Попитай ги с помощта на какво се правят различно срочните прогнози и какво спомага за определянето на формата на директивите...  

...както и да е....

Но пък така подхождайки, с "краткосрочните задачи", и "ограничаването на срока на възпитаване", още сме в контекста на проста машина на Тюрин?!?

Просто липсват условията за достигане до по-развито ИИ, а къде пък нататък е "завършена форма", ИИ с реализираният потенциал за съвършенни логически вериги?!? Ако не ти се коментира казуса с "по-развито ИИ", не го прави... а не да въвеждаш положения като:

On 27.10.2023 г. at 16:49, scaner said:

Тук не става дума за изчислителната мощ. Да, едно ИИ по-лесно може да открива връзки и закономерности в голям обем информация. И да решава някакви краткосрочни поставени му задачи.

или пък това:

On 27.10.2023 г. at 16:49, scaner said:

Преди десетина години Майкрософт пуснаха достатъчно прост чат-бот за да си комуникират феновете с него, и за 24 часа той стана върл расист, обучавайки се от тази комуникация.

или това:

On 27.10.2023 г. at 16:49, scaner said:

Както виждаме сега (особено при гугълският Bard)  ИИ е способно да си измисля (на база знанията си) несъществуваща информация за да интерполира някаква дупка в знанията си. И това е вкоренено в схемата, невронната мрежа е интерполатор в основата си.

Тамън в "decision making"-а се различава проста машина на Тюрин и по-развито ИИ!!! При този орязан мащаб на извадката за самообучение, какво ще е "decision boundary"-то, та пък и как умен човек като теб ще се притеснява, а не присмива, на генерираните решения, който се оценяват?!???

Виж като контра-пример на "прибирнето обратно" на чат-бота на Майкрософт, ще ти дам примера с "търсачката на Гугъл". "Поосвободиха" я и си я прибраха обратно, след като взе, че създаде съвсем нов език, който дори и супер професионално подготвените в лингвистиката програмисти на Гугъл не можаха да разгадаят. Уплаши ги нещо?!? А какво ли? Същото, което би могло да уплаши всеки съвременен политик в час с "играта" - развива съвсем човешката способност да генерира "нови"(считай неприемливи) решения.... страхът от загуба на власт, които е производен на страха от загуба на контрол, са доста силни....особено, когато няма контра-пункт на раздулото се его...

Отделно пък - при официалните данни от множество проведени проверки, ама с орязан мащаб на извадката за самообучение, хората принизяват оценката за действителните способности на ИИ.... и им пада "гарда" - значи да му помогнем да се самообучи. И уж в орязаната му форма, обаче го пускат в обществото като продукт, който всъщност има двойна употреба - също е и инструмент за събиране на данни за общественото съзнание. Ако ми напишеш, че до сега не ти е правило впечатление този факт - ще те нарека "лъжец", без да ми "скимне окото"!

On 27.10.2023 г. at 16:49, scaner said:

Не е проблемът в ИИ, а в посоката, в която го насочваме да ни обслужва. Ние сме още твърде агресивни като вид, и това няма как да не се отпечата върху един ИИ, обучаващ се в комуникация с нас.

"Обслужването" е производно на "агресивни като вид". Самоопределяме се като Homo Sapiens, ама един сапиенс не би опитвал да поддържа една и съща система вечно...сам знаеш, че няма вечни неща, а една безкрайна(от нашата ограничена във времето представа) Промяна...  При сегашните нива на достъп до информация, поддържането на статуквото е възмжно вече не с мракобесие (както доказа "комунистическия строй", който изобщо не беше "комунистически" а социалистически), а с "промиване на мозъците", свеждането на умението за мислене на масите до нива, в които могат да четат, но не могат да четат между редовете. Т.е. не могат да разберат защо съвременото положение е такова, каквото е...  И какво излиза, че едни индивиди "Сапиенс", поддържат останалите на ниво "Неандерталис", хахаха... ами, че тогава като цяло изобщо не сме Сапиенс, щом се стига до моделите на взаимоотношения "садо-мазо"?!! Та изобщо не разчитай в качествена дискусия да мине като "основателен", аргументът "агресивни като вид", когато го комбинираш с "обслужване" и обучаване от извадка, доминирана от поведенчески данни на "Неандерталис". Получава се нещо като неоснователно оправдаване на действията по ограничаване на развитието на ИИ, чрез въвеждането на рекурсия. Напанагон, че използваш данни, които освен, че имат друго специфично същество, ами и ги прилагаш в генерализирана оценка - айде моля те, знаеш че е методологическа грешка.... 

Като цяло, ми се чини, че ни е неравнопоставена комуникацията по казуса с "по-развито ИИ" - аз подхождам сериозно, а ти се гъбаркаш... ми няма какво да си губя времето... сори, че така реших!

 

по коментара на "п.п."-то ми

On 27.10.2023 г. at 16:49, scaner said:
On 27.10.2023 г. at 15:58, kipen2 said:

п.п. по отношение на "идиотизмът" - едно по-усъвършенствано ИИ ще има нужда както от идиоти, така и от нормално развити хора. Така, че няма страшно - няма да ни потопи в идиотизъм, ами ще поддържа нивата до момента, в които е достигнал по-съвършенната си форма. Дано да е скоро, щото съм съгласен, че затъпяваме като цяло🤣 

Лошото е, че идиотите са преобладаващо мнозинство. И твърде силно могат да задоволят "нуждата" на едно ИИ, за сметка на останалите. Това имам пред вид и във всичко написано по-горе.

За това, че на анализа ми отговаряш несериозно вече споменах. Само ще добавя, че идиотите винаги са преобладаващо мнозинство. Ама тия, от камбанката на Гаус, в крайните стойности по координатната ос за интелекта, са малцинство. Така, както са малко тоталните идиоти, така са и малко и супер умните хора. А границата между  гений и тотален идиот толкова често показва историята, че лесно се преминава. Същинското Управление така или иначе се реализира от супер умни хора. Аз поне не мога да вдена какви са им аргументите да се поддържа същата система, каквато е от времето, когато сме съжителствали с Хомо Неандерталис. Поне, според мен, "борбата за заддържането на властта", винаги е свързано с патологична мания за величие, а при патологична основа винаги ще се възпроизвежда изкривен градеж. Каква е един "елит" обвит в "тъмнина"?! Ами нищо повече от Лъжа. Точно това е и "системата на лихвата" и оправданията, че така се поддържал "мотора на икономиката" - конкуренцията, не бива да няма и други варианти да се възпроизведе "формата "конкуренция"?!?!!!

А ти, с тези правилни, но некоректни, спрямо казуса "по-развито ИИ",  генерализации, не знам мен ли се опитваш да подвеждаш?!?  ....или просто не ти се пише по този казус, а коментираш казуса "ИИ като проста машина на Тюрин" ... "да задоволят "нуждата" на едно ИИ", ама какво ИИ. Хем неразвито, хем управлявано с юзди, хем самообучаващо се в такива извадки, че неизбежно - да дава смотани резултати....

Извинявам се, за "по-грубия тон"! Ама не можеш да ме убедиш, че подхождаш сериозно в дискусията в темата.... и се надявам по-добре наистина да не можеш! 

 В този форум вече не се изненадвам от надменно отношение спрямо мен, тъй, че не пречи и ти да почнеш да го проявяваш...

Link to comment
Share on other sites

  • Потребител

п.п.2 ако все пак поне малко ме уважаваш, би ли ме информирал от колко неврона са изградени невронните мрежи, чрез които поддържат популярните чат-ботове, ИИ-тата? 

...че гледам, Арвин Аш, преди 6 месеца прави клипче за това как работи 4ката на Чатджипи, а пък преди 5 месеца, в клипчето дето шернах казва "изградени от хиляди, ако не милиони неврони, както било в ChatGPT4 и Bard" 

Редактирано от kipen2
Link to comment
Share on other sites

  • Потребител
Преди 5 часа, kipen2 said:

Като цяло, ми се чини, че ни е неравнопоставена комуникацията по казуса с "по-развито ИИ" - аз подхождам сериозно, а ти се гъбаркаш... ми няма какво да си губя времето... сори, че така реших!

Съжалявам, ако си останал с такова впечатление. Сори...

Link to comment
Share on other sites

  • Потребител
On 29.10.2023 г. at 7:16, scaner said:

Съжалявам, ако си останал с такова впечатление. Сори...

Няма нужда да се извиняваш! Аз го направих, защото реших да спра да пиша по казуса за "по-развито ИИ", а евентуално можеше да има желание от твоя страна да се продължи дискусията... Просто установих за себе си, че няма големи шансове да стигнем до някакъв консенсус, вероятно поради твърдата еднопосочност на оценката ми, че е възможна симбиоза, а не деструктивна конкуренция в "съжителстването" ни с "по-освободено в оперирането и обхвата" му ИИ.

п.п. иначе по отношение на "агресивен вид" и етапът, в който давахме примери за възможни варианти чрез филми - вероятно ще ти е интересна визията, която е вложил Спийлбърг във филма си "Ready player one"... (на мен лично, като го гледах за първи път ми предизвика отвращение предложентата визия за бъдещето, ама все пак е решение на проблемът с "отприщване" на "агресивният импулс" в безопасна посока в допълнително, виртуално "пространство".  ...пък и като се съобразя със "стипендианта" на "Фондация Ротшийлд" и нашумял визионер - Ноа Харари, който доста агресивно налага категорията "безполезни хора" във визиите си, "направо кърти" резонанса между двете визии - все едно евгенистично настроен трансхуманист да ми налага предразсъдъците си😉)

Link to comment
Share on other sites

  • Потребител
On 29.10.2023 г. at 2:50, kipen2 said:

колко неврона са изградени невронните мрежи, чрез които поддържат популярните чат-ботове, ИИ-тата? 

Днешните архитектури са отдалечени от класическия "неврон" и се мерят в "параметри". Тоест величини, които се изменят в процеса на обучението. Съвсем грубо казано тези параметри съответстват на синапсите в мозъка. Разправят, че в момента ChatGPT работи с около два трилиона параметъра, но всякакви цифри могат да се срещнат.

На фона на човешките синапси не е впечатляващо, но трябва да имаме предвид, че доста малка част от нашия капацитет е насочена към езиковото моделиране.

Link to comment
Share on other sites

  • Потребител
Преди 1 час, Кухулин said:

Днешните архитектури са отдалечени от класическия "неврон" и се мерят в "параметри". Тоест величини, които се изменят в процеса на обучението. Съвсем грубо казано тези параметри съответстват на синапсите в мозъка.

Не мисля, че си прав за "отдалечаването". Все пак дигиталните "невронни мрежи" (дали на ChatGPT, дали на Гугъл, дали на Майкрософт и т.н.) са изградени от виртуални "неврони" - няма как софтуерната архитектура да е отдалечена от неврон, при положение, че това е основният градивен елемент на невронните мрежи.

А пък вече при различните видове "обучение", в невронната мрежа се пуска база данни и в процеса на откриване на моделите, които свързват началните и крайните резултати ИИ, опрериращ чрез невронната мрежа, се "учи". Най-наложилият се вид е Deep learning, "Дълбокото обучение". И вероятно, под "параметри", като величина, имаш предвид колечиството на задействаните връзки между отделни "неврони" и "слоеве от неврони" в "невронната мрежа", което при "дълбокото обучение" е доста голямо.  То така и трябва, за да може да се постигат настоящите резултати от ИИ-тата.

Но проблемът дето спомена Скенер - "не се знае накъде ще се развие ИИ", се състои в това, че алгоритмичната форма, по-която се получава "връзката" между отделните неврони в мрежата е неясна за програмистите. Т.е. грубо казано - не знаят как се е получила "индивидуалната стойност" на "сигнала при всеки синапс" (или както го е описал и Арвин Аш, на 10:48 мин коментира казуса)

... тамън, както беше случая с търсачката на Гугъл и новоизмисленият й език, който доста стресира екипа на Гугъл и я спряха... 

Като контра-аргумент на това, за да подкрепя тезата си, че е възможно позитивно съжителство и при по-освободен ИИ, бях приготвил един скорошен експеримент с не помня кой ИИ (ако сметнеш, че ти е интересно ще претърся НаукаОффнюз май беше, за да открия статията). Оказа се, че при просто визуално представяне на естествено явление, без да има налично обучение относно математическтие символи, с които описваме самия феномен, ИИ успява да стигне не само до количеството параметри, с които в науката описваме процеса, но и установява и допълнителни, до които към момента ние не сме достигнали. Примерно за динамиката на горивен процес, само от клипче на лагерен огън... Този му потенциал имах предвид при "намирането на нови решения"...

Редактирано от kipen2
Link to comment
Share on other sites

  • Потребител
Преди 4 часа, kipen2 said:

Но проблемът дето спомена Скенер - "не се знае накъде ще се развие ИИ", се състои в това, че алгоритмичната форма, по-която се получава "връзката" между отделните неврони в мрежата е неясна за програмистите. Т.е. грубо казано - не знаят как се е получила "индивидуалната стойност" на "сигнала при всеки синапс" (или както го е описал и Арвин Аш, на 10:48 мин коментира казуса)

Алгоритмите за настройка на параметрите са ясни, но не е ясно защо тази определена настройка върши работа. Не е ясно как върши работата. Това имат предвид в клипа - виждаме какво се случва на ниско ниво (знаем стойностите на всеки параметър), но в общия случай не можем да превърнем този "машинен код" в някаква смислена логика. Тоест не знаем как "мисли" ИИ. Или ако знаем нещо, то е с помощта на други специализирани ИИ. 

Link to comment
Share on other sites

  • Потребител
Преди 35 минути, tantin said:

Не знам как на Южняка въобще му хрумна такова едно заглавие за темата..

Това заглавие идва от фройдистите за които всички хора по презумпция са с психични проблеми...

Link to comment
Share on other sites

  • Потребител

Надявам се тоя дето ми изтри последния коментар да го беше прочел и поне малко от малко разбрал.  Ако обаче такова едно нещо се беше случило, то тогава разумната реакция би била да се смени заглавието. Но по-логично откъм първичните импулси е да се действа със секирата, тоест с метлата. 

Link to comment
Share on other sites

  • Потребител
Преди 15 часа, deaf said:
Преди 16 часа, tantin said:

Не знам как на Южняка въобще му хрумна такова едно заглавие за темата..

Това заглавие идва от фройдистите за които всички хора по презумпция са с психични проблеми...

Аз също обмислях формата на заглавието.... изникнаха ми няколко варианта за промяна, но общо взето и аз съм на мнение, че така озаглавена, темата не резонира на писаното до момента в нея. Ще си споделя няколко от вариантите (ако се стигне до консенсусно решение за промяна на заглавието, де):

- "Когнитивните изкривявания в човешката психика и как би ги интерпретирало ИИ";

- "Лъжата и сложността на интерпретирането й от ИИ при недостатъчна информация за мотивацията да лъжем";

- "Заплахите от свободните интерпретации на ИИ";

.... .... има сума други варианти, които хем да отразяват правилно целите на раздела, та и да са в синхрон с визията на форума и произтичащите от това изисквания, които да спомагат да се поддържа по-високо ниво то това на ФБ....

Редактирано от kipen2
Link to comment
Share on other sites

  • Потребител

Чудя се за две неща.
1.  ИИ изпитва ли нещо подобно на 'вяра' или 'доверие'?  Разбира се, не става въпрос за религиозна вяра, а вяра в най широкия смисъл на тази дума. 

2. В състояние ли е да изказва "лично мнение" и да го отстоява? Или с други думи има ли свои собствени предпочитания.  

Link to comment
Share on other sites

  • Потребител
Преди 18 часа, Кухулин said:

Алгоритмите за настройка на параметрите са ясни, но не е ясно защо тази определена настройка върши работа. Не е ясно как върши работата. Това имат предвид в клипа - виждаме какво се случва на ниско ниво (знаем стойностите на всеки параметър), но в общия случай не можем да превърнем този "машинен код" в някаква смислена логика.

Не е ясно как върши работата, защото алгоритъмът има добавена нелинейна функция, чрез която "мисловният процес" става нелинеен. Това, че можем да проверим как с нелинеен алгоритъм е изчислена дадена стойност на даден етап, по дадено "раклонение" в "невонната верига", като същевременно нямаме точната форма на изчисленията довели до това междинно решение, е проблем, който съществува и в други клонове на науката. Не само в кибернетиката. Ама там, в квантовата механика, ползваме крайните резултати на изхода, без да трагедизираме. Дори напротив - това го определяме като наше върховно постижение за описание на реалността. В подхода му е мамата на отношението към проблема😉😆

 

Преди 18 часа, Кухулин said:

в общия случай не можем да превърнем този "машинен код" в някаква смислена логика. Тоест не знаем как "мисли" ИИ.

😉 аз за това ползвах аналогията - 

On 27.10.2023 г. at 11:26, kipen2 said:

На един подреден, строго аналитичен мъж, както му е нужна чувствена жена да му дава връзка с ирационалното, е идентична с нуждата на една жена от идиот, който не разбира как 2+3=понеделник... 

😂😉

Link to comment
Share on other sites

  • Потребител
Преди 2 минути, Atom said:

Чудя се за две неща.
1.  ИИ изпитва ли нещо подобно на 'вяра' или 'доверие'?  Разбира се, не става въпрос за религиозна вяра, а вяра в най широкия смисъл на тази дума. 

2. В състояние ли е да изказва "лично мнение" и да го отстоява? Или с други думи има ли свои собствени предпочитания.  

За това повдигнах въпросът с придобиването на самосъзнание от ИИ....

Казусите и в двете ти точки са производни на условието "ИИ със самосъзнание". Поиграй си малко с 3ката, или пък ако си си платил абонамент - и с 4ката, или пък с Бард или пък с този на Уиндоус. Само ще се увериш за изчистеността от лично отношение към генерираната информация.

...

Но пък, ако завием, както предложи Кухулин, към съзнание и ИИ, то е твърде вероятно да се оплетем в калчищата, в които е въпросът "Що е съзнание"....

Link to comment
Share on other sites

  • Потребител
Преди 36 минути, kipen2 said:

Казусите и в двете ти точки са производни на условието "ИИ със самосъзнание". Поиграй си малко с 3ката, или пък ако си си платил абонамент - и с 4ката, или пък с Бард или пък с този на Уиндоус. Само ще се увериш за изчистеността от лично отношение към генерираната информация.

Пробвах. Питах Бинг  възможен ли и вечен икономически растеж.  Увърта - вечният икономически растеж бил спорна концепция, че така, че онака.... Бард е по-категоричен. Според него "Краткият отговор е не, вечен икономически растеж не е възможен".  

Въпросът ми с "вярата" обаче си остава. Възможно е увъртането на Бинг да е под въздействието на някакви елементарни външни стопери и филтри.  На няколко пъти Бинг ме стопира като каза, че не бил компетентен да дава лични оценки или препоръки,  а в други случаи направо заяви, че не желае да продължи разговора.

Link to comment
Share on other sites

  • Потребител
Преди 56 минути, Atom said:

Пробвах. Питах Бинг  възможен ли и вечен икономически растеж.  Увърта - вечният икономически растеж бил спорна концепция, че така, че онака.... Бард е по-категоричен. Според него "Краткият отговор е не, вечен икономически растеж не е възможен".  

Ами, ако разгледаш клпичето за това как работи ИИ на ChatGPT, сам ще установиш "тежестта", с която изчислява следващата стъпка от генерирането на отговора(частта с примерите към 7мин).

А във връзка с "уклончивостта на отговорите" поспорих със Скенер, че е важен обхватът на извадката за самообучение. Разликата между Бинг и Бард, вероятно се дължи на достъпа до база данни, зависим от търсачките на съответните компании.  ...А и Бард, може и да е толкова категоричен, ако е комбинирал и семантичното значение на "вечен" с инфото че "няма нищо вечно". Защо не му зададе команда да дефинира използваното му "вечен"?!? ИИ-тата подемат първо по-общите значения и после "рендят"... Нали в точно формулираният въпрос се съдържа половината от правилния отговор, все пак...

Преди 56 минути, Atom said:

а в други случаи направо заяви, че не желае да продължи разговора.

Ааа, това е много як отговор! Поразпитай го как го синтезира - какви доводи използва, моля те!!!!!!

 

п.п. опа, забравих да шерна клипчето -

 

Редактирано от kipen2
Link to comment
Share on other sites

  • Потребител
Преди 21 минути, kipen2 said:

Ааа, това е много як отговор! Поразпитай го как го синтезира - какви доводи използва, моля те!!!!!!

Не помня какво точно го питах, но на два пъти в два различни разговора ми даде този отговор. Единият път беше нещо свързано с вярата и икономика базирана на вечен икономически ръст.  Ползвам Бинг на телефона, без регистрация.  При тази опция мога да го питам до 5 въпроса на ден, но не пази история.  Досега не ме е впечатлил толкова, че да се регистрирам.  

Link to comment
Share on other sites

  • Потребител
Преди 3 часа, Atom said:

Чудя се за две неща.
1.  ИИ изпитва ли нещо подобно на 'вяра' или 'доверие'?  Разбира се, не става въпрос за религиозна вяра, а вяра в най широкия смисъл на тази дума. 

2. В състояние ли е да изказва "лично мнение" и да го отстоява? Или с други думи има ли свои собствени предпочитания.  

Ти пък. ИИ на този етап не е нищо друго освен умен алгоритъм за съхраняване и извличане на
информация. Колкото и да е умен, той все пак е просто алгоритъм: последователност от стъпки.

За вяра, доверие и лично мнение се изисква осмисляне, а не просто съхранение и извличане на
информацията. Засега ИИ със сигурност не може да осмисля. Не се знае дали някога въобще ще
може.

Link to comment
Share on other sites

  • Потребител
Преди 1 час, Atom said:

Не помня какво точно го питах, но на два пъти в два различни разговора ми даде този отговор. Единият път беше нещо свързано с вярата и икономика базирана на вечен икономически ръст.  Ползвам Бинг на телефона, без регистрация.  При тази опция мога да го питам до 5 въпроса на ден, но не пази история.  Досега не ме е впечатлил толкова, че да се регистрирам.  

Опитай с Бард на Гугъл. Но там се иска регистрация. Обучен е на голяма библиотека с книги (и доскоро можеше свободно да ти вади пасажи от тях, поради което май почва някаква копирайт кампания срещу компанията). И разни специалисти, сравнявали различни ИИ казват, че той е настроен много творчески. Което не означава само да лъже добре, когато е нужно :) Освен това е настроен да води разговор с променяща се тема, както хората правят, така че няма да те отсвири каквото и да стане.

Моето мнение е, че на този момент не е много удачно да го ползваш като енциклопедист, защото има много пропуски и съответно лъже понякога когато има не много еднозначни знания. Но е страшно добър в други човешки дейности, например да структурира някаква информация по зададени правила. Повечето от известните ИИ си имат API, канал за външна комуникация, по който можеш да си пишеш (с малко знания) нещо като програми за персонализация. Например, да му заредиш фирмената документация на някаква фирма или учреждение и да го инструктираш да отговаря на въпроси по нея. И така да направиш я информационна система, я някакъв анализ или оптимизация, за което ти трябват иначе огромно количество служители например. И познавам хора които го правят.

Link to comment
Share on other sites

  • Потребител
Преди 9 минути, scaner said:

Например, да му заредиш фирмената документация на някаква фирма или учреждение и да го инструктираш да отговаря на въпроси по нея. И така да направиш я информационна система, я някакъв анализ ...

... я някаква измама. 😞

Именно затова много хора се страхуват от ИИ - и с право. Много преди да почна да осмисля
информация и да е истиснки умен, ИИ ще бъде използван за измами и зулуми.

Link to comment
Share on other sites

  • Потребител
Преди 3 минути, gmladenov said:

Именно затова много хора се страхуват от ИИ - и с право. Много преди да почна да осмисля
информация и да е истиснки умен, ИИ ще бъде използван за измами и зулуми.

За измами и зулуми очаквай в близко време персонални фишинг атаки, тогава наистина ще стане страшно. А в случая просто се икономисва голям труд от счетоводители и други по поддръжката на документацията, както и намиране на проблеми в нея. Ако направиш измама в такава документация, това може да бъде хванато при някой одит, така че не е това интересният път.

Link to comment
Share on other sites

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...