Забелязахме, че използвате Ad Blocker

Разбираме желанието ви за по-добро потребителско изживяване, но рекламите помагат за поддържането на форума.

Имате два варианта:
1. Регистрирайте се безплатно и разглеждайте форума без реклами
2. Изключете Ad Blocker-а за този сайт:
    • Кликнете върху иконата на Ad Blocker в браузъра
    • Изберете "Pause" или "Disable" за този сайт

Регистрирайте се или обновете страницата след изключване на Ad Blocker

Отиди на
Форум "Наука"

Препръчано мнение

  • Потребител
Публикувано

Като се спомена по-горе OpenAI някой знае ли дали имат финансови проблеми. Струва ми се, че безплатната версия на ChatGPT "оглупя", а и много скъсиха сесиите на един чат. Общо взето оставам с впечатления, че искат да разкарат ползвателите на безплатния план. 

  • Потребител
Публикувано

   На доста места пишат, че след събитията с Open AI и Anthropic, масово потребители прекратяват абонаментите си за Chat GPT и преминават към Claude.

Преди 31 минути, Atom said:

Като се спомена по-горе OpenAI някой знае ли дали имат финансови проблеми. Струва ми се, че безплатната версия на ChatGPT "оглупя", а и много скъсиха сесиите на един чат. Общо взето оставам с впечатления, че искат да разкарат ползвателите на безплатния план. 

   Доколкото знам имат огромни, все още са във фаза "горене на пари" и мисля, че според най-оптимистичните оценки могат да излязат на печалба през 2030 г., това е според обявените засега разходи за хардуеар и инфраструктура, а те непрекъснато се променят, в смисъл растат. Това разбира се не означава много засега, много от големите компании започват да печелят след 10,15 и повече понякога години. Скоро им предстои листване на борсата (както и на Anthropic) и ако хайпа се задържи могат да продължат да набират капитал и да растат. Освен това, наскоро обявиха, че ще работят с рекламодатели с цел повишаване на приходите, въпреки че доскоро това беше категорично отхвърляно, та ползвателите на безплатни планове могат да очакват и това.

  • Потребител
Публикувано (edited)
On 1.03.2026 г. at 18:19, Р. Теодосиев said:

Не знам колко е добре за компаниите подобна обвързаност. Това би свалило доверието, а с това и акциите и масовото използване на дадената услуга.

    Това за съжаление не е съвсем така. Това че и двете компании не са публично търгувани и нямат акции в общия смисъл на думата е само детайл, те скоро ще се листнат на борсите и ще имат акции. Цените на акциите обаче, се определят от пазарните участници, а те се интересуват от бъдещите парични потоци и от това доколко благосклонна е администрацията към тях и бизнеса им, моралът и доверието на масовия потребител нямат особено значение, докато подкрепяща администрация и държавни поръчки имат.

   Типичен пример за това са Мета, те от години имат проблеми с доверието на потребителите, срещу тях са водени много дела и много са спечелени. Те всъщност са рекордъор по глоби с 5 млрд $ през 2019 г. след скандала Cambridge Analytica, най-голямата глоба, налагана някога на технологична компания за нарушаване на поверителността на потребителите, тяхна е и най-голямата глоба по GDPR в историята1,2 милиарда евро (2023 г.), наложена за незаконно прехвърляне на данни на европейски потребители към сървъри в САЩ. В момента е в ход дело на 41 щата в САЩ, чиито прокурори съдят Meta с обвинението, че компанията съзнателно е проектирала алгоритмите си да бъдат пристрастяващи за децата и е скрила доказателства и вътрешни изследвания за вредата им върху психичното здраве като депресия, тревожност, хранителни разстройства и др. Това са най-големите, но има още доста. Въпреки това обаче, с благосклонна администрация, която направи каквото можеше по отношение на разследванията за монополни практики и др., а и заради стабилните си финансови резултати разбира се, акциите на Мета поскъпнаха 3-4 пъти в последните няколко години. Та за акциите, на Уолстрийт имат поговорка-"always follow the money", доверието и морала нямат голяма стойност.

  Какво ще стане с Антропик предстои да видим, но със сигурност от това решение не ги очаква по-леко бъдеще.

Редактирано от Grifin
  • Глобален Модератор
Публикувано

По темата: един поглед от мрежата, изпълнен с доста сарказъм...

Докато всички говорят за Иран, с удоволствие наблюдавам конфликта, който дава изчерпателна представа за начините и логиката на вземане на решения в кабинета на Тръмп. Скандалът „дворът на Тръмп“ срещу „Антропик“ възникна около недостатъчния ентусиазъм на шефовете на компанията по повод изтичането на информация, че техният модел е бил използван по време на залавянето на Мадуро.

Това е чист Ярослав Хашек. Швейк в Пентагона.

Станало е така. Армията е заловила злодея от далечните южни земи. При залавянето е бил използван изкуствен интелект на компанията „Антропик“. Как точно е бил използван, не е известно. Според оценките на инсайдери – по никакъв специален начин: таблички на екраните за наблюдение. Но това не е важно. Важно е, че победата, технологиите, Америка се завръщат.

Ръководството очаква аплодисменти.

А представителят на „Антропик” на рутинна среща с „Палантир” пита: „А вие използвахте ли нашето нещо по правилата?”. Не „как смеете!”. Не „протестираме”. Просто въпрос. С интонацията на човек, който проверява дали не е оставил ютията включена.

Представителят на безотказния „Палантир“ тича да докладва: „Те НЕ СЕ РАДВАТ!“ Смея да докладвам, господин обер-лейтенант, арестуваният мълчеше подозрително, когато минавахме покрай портрета на Негово Величество. Обер-лейтенант (мрачно): „Запишете в протокола“.

И се започва.

Министърът на войната произнася историческата фраза: „Няма да използваме ИИ-модели, които не позволяват да се водят войни“. На него му обясняват: моделът позволява да се водят войни, договорът задължава да не се следи собствените граждани и да не се позволява на роботите да стрелят без окончателно одобрение от човек.

Заместникът му по технологиите (бивш вицепрезидент на „Юбер“ – компания, чиято корпоративна култура се състои от думата „МАЧКАЙ“) задава въпроса: „А ако към нас лети ракета, ще разрешите ли на ИИ да я свали?“ Отговарят му: „Да, разбира се. Това винаги е било в договора. Написахме го с ясни думи“.

Но министърът и заместникът чуват само интонацията, в която няма достатъчно обожание. Заместникът излиза в X и пише, че шефът на „Antropic“ е „лъжец с комплекс на бог, който иска лично да контролира армията на САЩ“. Присъединява се и Тръмп с традиционния поток от лични обиди.

Дарио Амодей от „Антропик“ е човекът, който пръв в историята пусна своя ИИ в секретни военни мрежи, изключи китайските клиенти по молба на разузнаването и помогна за отблъскването на кибератаките на КНР. Орден? Не, класиката на Хашек: „Ако в батальона се появят подобни елементи, те трябва да бъдат изкоренени, наказани и хвърлени в затвора“.

Сем Алтман от OpenAI – майстор на правилните изражения на лицето. Същата вечер Алтман обяви: „Ние също подписваме договор с Пентагона! Със същите червени линии!“ Тоест: със същите ограничения, за които на „Antropic“ току-що обявиха, че са заплаха за националната сигурност. „Antropic“ е враг на народа, защото не позволява следене. OpenAI е патриот с договор, защото не позволява следене.

В същото време стотици инженери от Google, OpenAI, Microsoft и Amazon подписаха писмо в знак на солидарност с „Anthropic“. Общото мнение на авторитетите в бранша, изразено от Иля Суцкевер: „Добре е, че „Anthropic“ не отстъпи“.

Изслушвания в Сената: „Никой американец, демократ или републиканец, не иска масово следене на американския народ“.

За Алтман всичко изглежда умно до момента, в който шефовете му обърнат гръб. А те ще го направят: гупито плува в кръг. И тогава Алтман няма да има нито репутационния капитал на Амодеи, нито подкрепата на инженерите, нито симпатията на Конгреса – това, което Амодеи е придобил, като тихо е помолил да се спази договора.

За тези, които мислят, че „Антропик” е загубила. Загубеният договор е 1,4% от годишните им приходи. Етикетът „заплаха за веригата на доставки” работи, докато шефовете помнят защо са ядосани. Но „компанията, която каза „не” и не отстъпи” – това е завинаги.

Един и същ сценарий като този с тарифите. Тези, които се унижиха, получиха и тарифи, и унижение. Тези, които не се унижиха – само тарифи. А после дойде Върховният съд и отмени тарифите. След което Тръмп предложи на тези, които са готови да се унижат още веднъж, да го направят и все пак да получат тарифите.

 

  • Глобален Модератор
Публикувано

Икономическата революция за сметка на ИИ се отлага?

Известният икономист Дарон Аджемоглу (нобелов лауреат по икономика за 2024 г.) от Масачузетския технологичен институт счита шума около изкуствения интелект за неоправдан. „Икономическа революция няма да има“, цитира Bloomberg думите на експерта.

Аджемоглу, известен професор от MIT, не е от пророците на края на света, обсебени от нарастващите икономически и финансови опасности, но гледа негативно на ажиотажа около ИИ, както и на предизвикания от него инвестиционен бум и ръст на акциите на технологичните компании.

Според Аджемоглу, колкото и перспективен да изглежда ИИ, той едва ли ще оправдае вдигнатия шум. Според неговите изчисления, изкуственият интелект ще засегне сериозно само 5% от работните места през следващото десетилетие. Това е добра новина за работниците, но лоша за компаниите, които инвестират милиарди в ИИ и очакват той да доведе до растеж.

Успоредно с това Anthropic публикува данни, че изкуственият интелект не разрушава пазара на труда, както обещават алармистите. ИИ работи там, където му позволяват да работи. А му позволяват там, където никой не носи отговорност за грешки. "ИИ не увеличава производителността". Аджемоглу в подкаст на MIT:
 

1. Аджемоглу: ИИ ще добави 1,1–1,6% към американския БВП за десет години. Историческият среден темп на растеж на производителността е 2% годишно. Тоест ефектът е статистически трудно различим от шума. ИИ реално засяга около 5% от икономиката – сумиране на данни, разпознаване на модели, визуална класификация. Ще продължим да имаме журналисти, финансови анализатори, специалисти по човешки ресурси. Данните на Anthropic потвърждават това. Езиковите модели теоретично са способни да ускорят 94% от задачите в категорията „компютри и математика”. Реално покриват – 33%. Разликата не се намалява пропорционално на растежа на възможностите на моделите.

2. Проблемът с отговорността. Anthropic дава пример: задачата „оторизиране на издаването на рецепта“ се оценява като напълно достъпна за LLM. В реалния трафик на Claude тя почти не се среща поради „правни ограничения и изисквания за верификация“. Правилно, но меко казано. Истината е, че специалистът, делегирал оторизацията на рецептата на езиковата модел и получил иск, завършва кариерата си. ИИ работи там, където грешката не се приписва на конкретен субект. Не работи там, където за последствията отговаря лицензиран специалист, застраховател или съд.

3. Криза на наемането на млади хора. От 2024 г. младите работници на възраст 22–25 години статистически по-рядко се наемат в професии с висока степен на проникване на ИИ. ИИ „изяжда“ именно онези позиции, където отговорността е минимална – входни точки в професията, задачи без подпис и без лиценз.

Така изчезват не работните места – изчезва пътят. Стартовите позиции не са просто евтина работа „подай-донеси“, а школа за отговорност, където човек се учи да отговаря за резултата, преди цената на грешката му да стане висока. ИИ премахва този етап. Обществото получава дефицит не на работна ръка, а на възпитана отговорност.

4. Войната като идеална среда. Във военното приложение няма ищец. Няма регулатор, който да изисква обяснение на алгоритъма за таргетиране. Няма застраховател. Суверенното насилие на държавата води до отговорност за неговото превишение само в идеалния свят. В реалността Хегсет говори за „неполитически коректна война“. Резултатът е логичен: именно тук ИИ се внедрява най-бързо и с най-малко съпротива.

Условното „лекарство за рак“ е 10-15 години клинични изпитвания, като всяка стъпка е потенциален съдебен прецедент. AlphaFold предсказва структурите на протеините от 2020 г. Разстоянието от това знание до лекарството на пазара се измерва не с изчислителни ресурси, а с институционално време. ИИ не го съкращава.

5. Аджемоглу казва: технологията няма предопределена съдба, ние сами избираме посоката. Вярно е. Но има една теза, която той не довършва: разпределението на приложенията на ИИ не е пазарна неутралност, класическа политическа икономика.

Инвестициите отиват там, където печалбата е лесна: автоматизацията на офисната работа спестява незабавно от заплатите, държавните поръчки в областта на отбраната не изискват етика, рекламното таргетиране няма регулатор с реални правомощия. „Лекарството за рака“ разпределя печалбата в обществото, разтяга възвръщаемостта за едно поколение и незабавно наказва отговорните за неуспехите. Това е пазар, който работи точно така, както е устроен.

Заключение:

ИИ е способен на повече, отколкото реално прави. Разликата между „практически и теоретично“ не се намалява пропорционално на растежа на възможностите, а се определя от структурата на отговорността в конкретни професии. Там, където няма отговорност, ИИ се внедрява бързо. Там, където е институционализирана, разликата е стабилна. Наративът за „ИИ ще реши основните проблеми на човечеството” предполага, че технологията се движи в посока на най-голяма полза. Данните предполагат друго: тя се движи в посока на най-малко институционално съпротивление.

Това не е едно и също.

 

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Вашето предишно съдържание е възстановено.   Изчистване на редактора

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Дори малко дарение от 5-10 лева от всеки, който намира форума за полезен, би направило огромна разлика. Това не е просто финансова подкрепа - това е вашият начин да кажете "Да, този форум е важен за мен и искам да продължи да съществува". Заедно можем да осигурим бъдещето на това специално място за споделяне на научни знания и идеи.