Забелязахме, че използвате Ad Blocker

Разбираме желанието ви за по-добро потребителско изживяване, но рекламите помагат за поддържането на форума.

Имате два варианта:
1. Регистрирайте се безплатно и разглеждайте форума без реклами
2. Изключете Ad Blocker-а за този сайт:
    • Кликнете върху иконата на Ad Blocker в браузъра
    • Изберете "Pause" или "Disable" за този сайт

Регистрирайте се или обновете страницата след изключване на Ad Blocker

Отиди на
Форум "Наука"

Препръчано мнение

  • Потребител
Публикувано

Като се спомена по-горе OpenAI някой знае ли дали имат финансови проблеми. Струва ми се, че безплатната версия на ChatGPT "оглупя", а и много скъсиха сесиите на един чат. Общо взето оставам с впечатления, че искат да разкарат ползвателите на безплатния план. 

  • Потребител
Публикувано

   На доста места пишат, че след събитията с Open AI и Anthropic, масово потребители прекратяват абонаментите си за Chat GPT и преминават към Claude.

Преди 31 минути, Atom said:

Като се спомена по-горе OpenAI някой знае ли дали имат финансови проблеми. Струва ми се, че безплатната версия на ChatGPT "оглупя", а и много скъсиха сесиите на един чат. Общо взето оставам с впечатления, че искат да разкарат ползвателите на безплатния план. 

   Доколкото знам имат огромни, все още са във фаза "горене на пари" и мисля, че според най-оптимистичните оценки могат да излязат на печалба през 2030 г., това е според обявените засега разходи за хардуеар и инфраструктура, а те непрекъснато се променят, в смисъл растат. Това разбира се не означава много засега, много от големите компании започват да печелят след 10,15 и повече понякога години. Скоро им предстои листване на борсата (както и на Anthropic) и ако хайпа се задържи могат да продължат да набират капитал и да растат. Освен това, наскоро обявиха, че ще работят с рекламодатели с цел повишаване на приходите, въпреки че доскоро това беше категорично отхвърляно, та ползвателите на безплатни планове могат да очакват и това.

  • Потребител
Публикувано (edited)
On 1.03.2026 г. at 18:19, Р. Теодосиев said:

Не знам колко е добре за компаниите подобна обвързаност. Това би свалило доверието, а с това и акциите и масовото използване на дадената услуга.

    Това за съжаление не е съвсем така. Това че и двете компании не са публично търгувани и нямат акции в общия смисъл на думата е само детайл, те скоро ще се листнат на борсите и ще имат акции. Цените на акциите обаче, се определят от пазарните участници, а те се интересуват от бъдещите парични потоци и от това доколко благосклонна е администрацията към тях и бизнеса им, моралът и доверието на масовия потребител нямат особено значение, докато подкрепяща администрация и държавни поръчки имат.

   Типичен пример за това са Мета, те от години имат проблеми с доверието на потребителите, срещу тях са водени много дела и много са спечелени. Те всъщност са рекордъор по глоби с 5 млрд $ през 2019 г. след скандала Cambridge Analytica, най-голямата глоба, налагана някога на технологична компания за нарушаване на поверителността на потребителите, тяхна е и най-голямата глоба по GDPR в историята1,2 милиарда евро (2023 г.), наложена за незаконно прехвърляне на данни на европейски потребители към сървъри в САЩ. В момента е в ход дело на 41 щата в САЩ, чиито прокурори съдят Meta с обвинението, че компанията съзнателно е проектирала алгоритмите си да бъдат пристрастяващи за децата и е скрила доказателства и вътрешни изследвания за вредата им върху психичното здраве като депресия, тревожност, хранителни разстройства и др. Това са най-големите, но има още доста. Въпреки това обаче, с благосклонна администрация, която направи каквото можеше по отношение на разследванията за монополни практики и др., а и заради стабилните си финансови резултати разбира се, акциите на Мета поскъпнаха 3-4 пъти в последните няколко години. Та за акциите, на Уолстрийт имат поговорка-"always follow the money", доверието и морала нямат голяма стойност.

  Какво ще стане с Антропик предстои да видим, но със сигурност от това решение не ги очаква по-леко бъдеще.

Редактирано от Grifin
  • Глобален Модератор
Публикувано

По темата: един поглед от мрежата, изпълнен с доста сарказъм...

Докато всички говорят за Иран, с удоволствие наблюдавам конфликта, който дава изчерпателна представа за начините и логиката на вземане на решения в кабинета на Тръмп. Скандалът „дворът на Тръмп“ срещу „Антропик“ възникна около недостатъчния ентусиазъм на шефовете на компанията по повод изтичането на информация, че техният модел е бил използван по време на залавянето на Мадуро.

Това е чист Ярослав Хашек. Швейк в Пентагона.

Станало е така. Армията е заловила злодея от далечните южни земи. При залавянето е бил използван изкуствен интелект на компанията „Антропик“. Как точно е бил използван, не е известно. Според оценките на инсайдери – по никакъв специален начин: таблички на екраните за наблюдение. Но това не е важно. Важно е, че победата, технологиите, Америка се завръщат.

Ръководството очаква аплодисменти.

А представителят на „Антропик” на рутинна среща с „Палантир” пита: „А вие използвахте ли нашето нещо по правилата?”. Не „как смеете!”. Не „протестираме”. Просто въпрос. С интонацията на човек, който проверява дали не е оставил ютията включена.

Представителят на безотказния „Палантир“ тича да докладва: „Те НЕ СЕ РАДВАТ!“ Смея да докладвам, господин обер-лейтенант, арестуваният мълчеше подозрително, когато минавахме покрай портрета на Негово Величество. Обер-лейтенант (мрачно): „Запишете в протокола“.

И се започва.

Министърът на войната произнася историческата фраза: „Няма да използваме ИИ-модели, които не позволяват да се водят войни“. На него му обясняват: моделът позволява да се водят войни, договорът задължава да не се следи собствените граждани и да не се позволява на роботите да стрелят без окончателно одобрение от човек.

Заместникът му по технологиите (бивш вицепрезидент на „Юбер“ – компания, чиято корпоративна култура се състои от думата „МАЧКАЙ“) задава въпроса: „А ако към нас лети ракета, ще разрешите ли на ИИ да я свали?“ Отговарят му: „Да, разбира се. Това винаги е било в договора. Написахме го с ясни думи“.

Но министърът и заместникът чуват само интонацията, в която няма достатъчно обожание. Заместникът излиза в X и пише, че шефът на „Antropic“ е „лъжец с комплекс на бог, който иска лично да контролира армията на САЩ“. Присъединява се и Тръмп с традиционния поток от лични обиди.

Дарио Амодей от „Антропик“ е човекът, който пръв в историята пусна своя ИИ в секретни военни мрежи, изключи китайските клиенти по молба на разузнаването и помогна за отблъскването на кибератаките на КНР. Орден? Не, класиката на Хашек: „Ако в батальона се появят подобни елементи, те трябва да бъдат изкоренени, наказани и хвърлени в затвора“.

Сем Алтман от OpenAI – майстор на правилните изражения на лицето. Същата вечер Алтман обяви: „Ние също подписваме договор с Пентагона! Със същите червени линии!“ Тоест: със същите ограничения, за които на „Antropic“ току-що обявиха, че са заплаха за националната сигурност. „Antropic“ е враг на народа, защото не позволява следене. OpenAI е патриот с договор, защото не позволява следене.

В същото време стотици инженери от Google, OpenAI, Microsoft и Amazon подписаха писмо в знак на солидарност с „Anthropic“. Общото мнение на авторитетите в бранша, изразено от Иля Суцкевер: „Добре е, че „Anthropic“ не отстъпи“.

Изслушвания в Сената: „Никой американец, демократ или републиканец, не иска масово следене на американския народ“.

За Алтман всичко изглежда умно до момента, в който шефовете му обърнат гръб. А те ще го направят: гупито плува в кръг. И тогава Алтман няма да има нито репутационния капитал на Амодеи, нито подкрепата на инженерите, нито симпатията на Конгреса – това, което Амодеи е придобил, като тихо е помолил да се спази договора.

За тези, които мислят, че „Антропик” е загубила. Загубеният договор е 1,4% от годишните им приходи. Етикетът „заплаха за веригата на доставки” работи, докато шефовете помнят защо са ядосани. Но „компанията, която каза „не” и не отстъпи” – това е завинаги.

Един и същ сценарий като този с тарифите. Тези, които се унижиха, получиха и тарифи, и унижение. Тези, които не се унижиха – само тарифи. А после дойде Върховният съд и отмени тарифите. След което Тръмп предложи на тези, които са готови да се унижат още веднъж, да го направят и все пак да получат тарифите.

 

  • Глобален Модератор
Публикувано

Икономическата революция за сметка на ИИ се отлага?

Известният икономист Дарон Аджемоглу (нобелов лауреат по икономика за 2024 г.) от Масачузетския технологичен институт счита шума около изкуствения интелект за неоправдан. „Икономическа революция няма да има“, цитира Bloomberg думите на експерта.

Аджемоглу, известен професор от MIT, не е от пророците на края на света, обсебени от нарастващите икономически и финансови опасности, но гледа негативно на ажиотажа около ИИ, както и на предизвикания от него инвестиционен бум и ръст на акциите на технологичните компании.

Според Аджемоглу, колкото и перспективен да изглежда ИИ, той едва ли ще оправдае вдигнатия шум. Според неговите изчисления, изкуственият интелект ще засегне сериозно само 5% от работните места през следващото десетилетие. Това е добра новина за работниците, но лоша за компаниите, които инвестират милиарди в ИИ и очакват той да доведе до растеж.

Успоредно с това Anthropic публикува данни, че изкуственият интелект не разрушава пазара на труда, както обещават алармистите. ИИ работи там, където му позволяват да работи. А му позволяват там, където никой не носи отговорност за грешки. "ИИ не увеличава производителността". Аджемоглу в подкаст на MIT:
 

1. Аджемоглу: ИИ ще добави 1,1–1,6% към американския БВП за десет години. Историческият среден темп на растеж на производителността е 2% годишно. Тоест ефектът е статистически трудно различим от шума. ИИ реално засяга около 5% от икономиката – сумиране на данни, разпознаване на модели, визуална класификация. Ще продължим да имаме журналисти, финансови анализатори, специалисти по човешки ресурси. Данните на Anthropic потвърждават това. Езиковите модели теоретично са способни да ускорят 94% от задачите в категорията „компютри и математика”. Реално покриват – 33%. Разликата не се намалява пропорционално на растежа на възможностите на моделите.

2. Проблемът с отговорността. Anthropic дава пример: задачата „оторизиране на издаването на рецепта“ се оценява като напълно достъпна за LLM. В реалния трафик на Claude тя почти не се среща поради „правни ограничения и изисквания за верификация“. Правилно, но меко казано. Истината е, че специалистът, делегирал оторизацията на рецептата на езиковата модел и получил иск, завършва кариерата си. ИИ работи там, където грешката не се приписва на конкретен субект. Не работи там, където за последствията отговаря лицензиран специалист, застраховател или съд.

3. Криза на наемането на млади хора. От 2024 г. младите работници на възраст 22–25 години статистически по-рядко се наемат в професии с висока степен на проникване на ИИ. ИИ „изяжда“ именно онези позиции, където отговорността е минимална – входни точки в професията, задачи без подпис и без лиценз.

Така изчезват не работните места – изчезва пътят. Стартовите позиции не са просто евтина работа „подай-донеси“, а школа за отговорност, където човек се учи да отговаря за резултата, преди цената на грешката му да стане висока. ИИ премахва този етап. Обществото получава дефицит не на работна ръка, а на възпитана отговорност.

4. Войната като идеална среда. Във военното приложение няма ищец. Няма регулатор, който да изисква обяснение на алгоритъма за таргетиране. Няма застраховател. Суверенното насилие на държавата води до отговорност за неговото превишение само в идеалния свят. В реалността Хегсет говори за „неполитически коректна война“. Резултатът е логичен: именно тук ИИ се внедрява най-бързо и с най-малко съпротива.

Условното „лекарство за рак“ е 10-15 години клинични изпитвания, като всяка стъпка е потенциален съдебен прецедент. AlphaFold предсказва структурите на протеините от 2020 г. Разстоянието от това знание до лекарството на пазара се измерва не с изчислителни ресурси, а с институционално време. ИИ не го съкращава.

5. Аджемоглу казва: технологията няма предопределена съдба, ние сами избираме посоката. Вярно е. Но има една теза, която той не довършва: разпределението на приложенията на ИИ не е пазарна неутралност, класическа политическа икономика.

Инвестициите отиват там, където печалбата е лесна: автоматизацията на офисната работа спестява незабавно от заплатите, държавните поръчки в областта на отбраната не изискват етика, рекламното таргетиране няма регулатор с реални правомощия. „Лекарството за рака“ разпределя печалбата в обществото, разтяга възвръщаемостта за едно поколение и незабавно наказва отговорните за неуспехите. Това е пазар, който работи точно така, както е устроен.

Заключение:

ИИ е способен на повече, отколкото реално прави. Разликата между „практически и теоретично“ не се намалява пропорционално на растежа на възможностите, а се определя от структурата на отговорността в конкретни професии. Там, където няма отговорност, ИИ се внедрява бързо. Там, където е институционализирана, разликата е стабилна. Наративът за „ИИ ще реши основните проблеми на човечеството” предполага, че технологията се движи в посока на най-голяма полза. Данните предполагат друго: тя се движи в посока на най-малко институционално съпротивление.

Това не е едно и също.

 

  • Потребител
Публикувано
Преди 19 минути, Skubi said:

 

Жалко, че възхищението от ИИ е, че би накарал някого да се разтрепери от страх. Не от дулата да изковем сърпове, а да прибавим ИИ към дулата. Но какво се чудя. Някои хора са ходили на екзекуции за да се порадват. 

Аз се радвам, че ИИ ми е оръдие на труда.

  • Потребител
Публикувано
Преди 1 час, Мълчаливец said:

Жалко, че възхищението от ИИ е, че би накарал някого да се разтрепери от страх. Не от дулата да изковем сърпове, а да прибавим ИИ към дулата. Но какво се чудя. Някои хора са ходили на екзекуции за да се порадват. 

Аз се радвам, че ИИ ми е оръдие на труда.

Не се възхищавам. само слагам факти.

И на тях е оръдие на труда. Буквално.....🤣😅😂 

Незнам какво се трудиш, но със сигурност мога да кажа, че може да се използва за военни нужди.🤪

  • Глобален Модератор
Публикувано

Израелски изследователи от Университета в Тел Авив, заедно с колеги публикуваха ново изследване в списание Science Advances на тема "Biased AI writing assistants shift users’ attitudes on societal issues". Там те доказаха, че инструментите за писане на текстове, базирани на изкуствен интелект, са способни незабележимо да коригират възгледите на потребителите по остри социални теми.

В хода на мащабни експерименти с участието на над 2500 души доброволците са съставили есета по такива остри въпроси като смъртното наказание, като са използвали подсказки за автозапълване, подбрани пристрастно от ИИ.

Резултатите показват, че мненията на участниците са започнали да се накланят към позициите, наложени от алгоритъма, като хората не са осъзнавали тези промени.

Особено безпокойство у учените предизвика фактът, че традиционните методи за защита от дезинформация се са оказали неефективни.

Професор Мор Нааман, един от ръководителите на проекта, подчерта сериозността на ситуацията в условията, когато подобни ИИ системи стават повсеместни.

Това доказва, че ИИ алгоритмите могат не просто да предоставят информация, но и да действат като мощен инструмент за скрито формиране на общественото мнение.

  • Глобален Модератор
Публикувано

И едно мнение на представители на военната индустрия по отношение вграждането на изкуствен интелект в оръжейните системи. Мнението е от интервю на Палмър Лаки, младия основател на високотехнологичната оръжейна компания Anduril Industries.

• Автономното оръжие с изкуствен интелект може да изглежда плашещо. Но това е светът, в който живеем. И всъщност много по-страшно е оръжието без никакъв интелект. Няма никакво морално превъзходство в създаването, например, на мина, която не може да различи училищен автобус от руски брониран автомобил. Ние не правим избор между „умно“ оръжие и липса на оръжие като такова. Оръжието ще съществува. Въпросът е само дали ще бъде умно или глупаво.

• Може ли оръжието с ИИ да излезе извън контрол? Това е тема, по отношение на която трябва да бъдем бдителни. Но в глобален мащаб има неща, по повод на които трябва да бием тревога много по-активно. Лаки е много по-загрижен за злите хора със страшни допотопни военни технологии, отколкото за възможното решение на ИИ да ни унищожи всички.

• В отговор на забележката на журналистката: „Генералният секретар на ООН нарече смъртоносното автономно оръжие политически неприемливо и морално отвратително. Какво отговаряте на хората, когато казват, че роботите са зло?“ — Лаки казва: „Ако се налага да споря с такива хора, ги питам: „Искате ли НАТО да бъде въоръжено с водни пистолети? Или с прашки? Или НАТО да наеме хиляда служители, които да пишат строги писма до Путин с молби да не напада Украйна?“ Цялото ни общество досега съществува само защото зад мира стои реалната заплаха от силата на САЩ и техните съюзници. И слава Богу, че е така“.

• САЩ трябва да сменят ролята си на „световен полицай“ с ролята на „световен оръжеен магазин“. Щатите са принудени да станат такъв. Американците не трябва да изпращат своите хора да воюват в други страни. Вместо това трябва да изпращат там американско оръжие. Позицията на Лаки е, че Съединените щати трябва да въоръжат своите партньори и съюзници по целия свят, за да се превърнат те в „бодли“, върху които никой не би искал да стъпи, които никой не би искал да ухапе. Враговете на тези страни трябва да повярват, че оръжията, базирани на изкуствен интелект, могат да бъдат реално приложени.

• Военните симулации показват, че САЩ ще изразходват всичките си боеприпаси за осем дни във война с Китай. Ако на САЩ се наложи да воюват едновременно с Иран, Китай и Русия — това ще бъде краят им. Лъки счита, че дейността на Anduril Industries ще се състои в това да свързва помежду си оръжейни системи, които преди просто не са взаимодействали една с друга, и при това да произвежда огромно количество крилати ракети, изтребители, надводни и подводни системи.

 

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Вашето предишно съдържание е възстановено.   Изчистване на редактора

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Дори малко дарение от 5-10 лева от всеки, който намира форума за полезен, би направило огромна разлика. Това не е просто финансова подкрепа - това е вашият начин да кажете "Да, този форум е важен за мен и искам да продължи да съществува". Заедно можем да осигурим бъдещето на това специално място за споделяне на научни знания и идеи.