-
Брой отговори
9963 -
Регистрация
-
Последен вход
-
Days Won
92
makebulgar last won the day on Декември 12 2025
makebulgar има най-харесвано съдържание!
Всичко за makebulgar

Лична информация
-
Пол
Мъж
-
Пребиваване
България
-
Интереси
история, археоастрономия, лингвистика, археология, религия, слънчеви култове, антропология, популационна генетика, биохимия, медицина, роботика, изкуствен интелект, астрономия, инженерни науки
Последни посетители
38419 прегледа на профила
makebulgar's Achievements
-
Китайците са построили най-големия соларен парк в океана. Заема площ 1200 хектара и е изграден от 2934 панела с размери 60 х 35 м. Очаква се да произвежда 1,78 милиада килловатчаса годишно.
- 5 мнения
-
- 2
-
-
Малко данни за телескопа на обсерваторията Вера Рубин, който притежава най-голямата цифрова CCD камера в света с резолюция 3,2 гигапиксела. Телескопът се състои от три огледала. Основното огледало, M1, е с диаметър 8,4 метра, M2 е с диаметър 3,4 метра, а M3 е с диаметър 5 метра, всички интегрирани в пръстеновидно основно огледало. Тази конструкция осигурява липса на аберации, по-голяма твърдост и по-къса тръба на телескопа.
-
За полевите условия на войната вероятно няма да е нужно дроновете да са произведени в завод, а ще може да си ги конструират на място от пръчки и клечки и малко двигатели и електроника. https://x.com/dronesdeguerra/status/1586264393079480321?s=20
-
Въпросът е, че днес с наличните технологии и особено с AI, вече не е нужно да има художници и актьори във филмите. Ако искаш да изрисуваш църква вече не е нужно да наемаш иконографи, които за 2 години да я изрисуват, а можеш чрез принтер за стена и икони генерирани от АI да я изрисуваш за месец, като за стените с извивки можеш да ползваш виртуални очила чрез които да нанесеш рисунките и да ги оцветиш. Не е нужно да има човек, който е учил дълги години рисуване, не е нужно да му плащаш хонорар и т.н. Плащаш малко единствено за технологиите.
-
Между другото, пръстена всъщност може и да не е пръстен, а да е само печат. Размера на дръжката с 27 мм диаметър е доста голям за пръстен, тъй като най-големите мъжки пръстени са максимум около 24 мм. Тъй като дръжката е ос на въртене на плочката е било удобно печата да се завърти в плоскостта на дръжката, с което става удобен за носене в джоб. При отпечаване на печата текста ще е огледален, което от наша гледна точка е ненормално за печат, но за античността в Елада и земите около нея не е било необичайно да се използва обратно огледално изписване на текстовете, което се нарича бустрофедон. При бустрофедонното изписване освен, че буквите могат да са огледални, може и единия ред да се чете на ляво, а другия на дясно.
-
Картините на класиците са техните виждания за света и уменията им да рисуват и да развиват или деградират уменията си. Ако сега в някое мазе открият още 1000 картини на да Винчи вероятно сред тях ще открият някоя по-добра от Мона Лиза. AI може да ти даде хиляди картини с хиляди стилове и умения, без да хаби бои, платна, четкии и време. Ето една версия на Джокондата, която AI подобри за минута по свое виждане
-
Днес чрез изкуствените интелекти могат да се създават за изключително кратко време не само изображения по-добри тези на най-добрите художници, но и филми, в които няма актьори, няма камери, няма хонорари, няма декори.
- 8 мнения
-
- 5
-
-
Към тебе имам препоръка, да четеш първо оригиналните проучвания, и да се опитваш да ги разбираш, тъй като в наука.офнюз към които препращаш по-горе, са описали проучването в популярен вид (вероятно прекопирайки от чужда статия на английски). Можеше още в началото да прочетеш оригиналното проучване и в заключението му да видиш къде е написано, че има данни за риск от консумацията на червено месо. Следователно твърдението ти, че "Нали точно това се казва - няма никакви преки данни, че месото вреди." е невярно.
-
Коментирал съм част от заключението, в което се посочват съществуващите рискове от консумация на червеното месо. В статията наблягат на това, че рисковете, не са повишени, в смисъл, че не са много високи, но съответно не отричат съществуването на риск от консумацията на месо и съответно са дали процентите с колко се повишава риска, които за рак на дебелото черво са 6%. Дали са и графика показваща нарастващия риск при увеличаване на количеството консумирано месо. Щом ги има тези проценти и графиката, която са дали, значи за тях има пряка връзка между консумацията и увеличен риск спрямо нулевата консумация. Основното им заключение е че проучванията не са били напълно коректни методологически и са представяли съществуването на по-голям риск тъй като не са отчитали достатъчно добре други рискови фактори.
-
За много хора е нормална консумация. В ресторантите ни 70-80% от основното меню е някакъв вид месо или вътрешности. Не говорим за полувегетарянски и флекстарианнски диети със средни стойности, а за ежедневна консумация на 50, 100, 200, 300 и т.н. грама месо на ден. Така е в проучването. Това е твое субективно мнение. По горе съм коментирал част от заключението на статията, а именно, че риск от консумацията на червено месо има, че риска нараства с увеличаване на кансумацията и че описаните проценти повишение на риска за някои хора може да е достатъчно основание да се откажат от консумацията. Не съм отрекъл резултатите от проучването показващи, че има методолгични грешки в кохортните проучвания, но не приемам и това да се преекспонират заключенията и да се изтъква, че няма никакъв риск от консумацията на месо, тъй като има грешки в методологите.
-
Стандартните порции по ресторантите са 300 грама пържоли, а не 50 или 100, както изследват в проучването. Един обикновен човек бил той мъж или жена спокойно може да се справи с една такава пържола на обед и една на вечеря, което е 500-600 грама и никой не би го нарекал прекалена консумация. Тоест, разбирането за нормална консумация е различно при различните хора и проучвания. Никой не яде само някакви амюсбушове по 50 грама. Такива порции има само в скъпите ресторанти с по 200 евро деликатеса. Еми проучването е едно, а биохимията е друго. Проучванията могат да са спорни за причините за болестите и смъртността и за процента на риска, но биохимията е безпристрастна. Консумираш повече белтък от нужното, или желязо, сол, захар или нещо друго и биохимията в един момент не може да компенсира или изхвърли излишъците и продуктите от метаболизма. Дали ще е амоняк или нещо друго компенсацията ще се провали в един момент. Желязото от месото е по-бързо усвоимо и по-бързо може да надхвърли нужното, а от лещата, боба и спанака има по-бавно усвояване и от тях не ядеш по 300 грама на ядене, като обичайно са в супи и други манджи разредени с вода при готвенето. При червеното месо има комбинация от много желязо, много холестерол, много белтъци, чиито метаболити като амоняк и пикочна киселина също са много, и много новообразувани вещества (несъществуващи в суровата храна) при високотемпературното печене, пържене и гриловане.
-
Проучването показва, че съществува риск от консумация на червено месо, като колкото е по-голямо приетото количество толкова е по-голям и риска. При нулева консумация риска за здравето от консумация на червено месо е нулев. Заключенията на проучването показват, че риска не е толкова голям (повишен) колкото се прядставя в разглежданите кохортни проучвания, тъй като в тях явно се включват и рискове от други фактори. Добавяне на 6% риск за рак на дебелото черво от консумация на червено месо към общия риск от всички фактори за някой може да е нискък риск, но за друг може да е голям и да го накара да се откаже от месото. Проучванията, които са изследвани са кохортни върху резултатът и наличието на болести и смъртност при пациенти. Не са биохимически. Консумацията на червено месо носи освен холестерол, но и много желязо, което води до оксидативен стрес и изчерпване на ресурсите за реакция на този стрес от биохимическа гледна точка.
-
Малко по темата от Уикипедия - Chatbot psychosis Психозата на чатботите, наричана още AI психоза,[1] е явление, при което индивидите, според съобщения, развиват или изпитват влошаваща се психоза, като параноя и заблуди, във връзка с използването на чатботове. [2][3] Терминът беше предложен за първи път в редакционна статия от 2023 г. от датския психиатър Сьорен Динесен Йостергаард. [4] Това не е призната клинична диагноза. Журналистическите разкази описват хора, които са развили силни убеждения, че чатботите са разумни, канализират духове или разкриват конспирации, понякога водещи до лични кризи или престъпни действия. [5][6] Предложените причини включват склонността чатботовете да предоставят неточна информация ("халюцинации") и техния дизайн, който може да насърчи ангажираността на потребителите чрез утвърждаване или валидиране на техните вярвяния[7] или чрез имитиране на интимност, която потребителите не изпитват с други хора. [8] Предистория В своята редакционна статия, публикувана в броя на Schizophrenia Bulletin от ноември 2023 г., датският психиатър Сьорен Динесен Йостергаард предложи хипотеза, че използването на чатботове с генеративен изкуствен интелект от индивидите може да предизвика заблуди при склонни към психоза. [4] Østergaard го прегледа отново в редакционна статия от август 2025 г., отбелязвайки, че е получил множество имейли от потребители на чатботове, техните роднини и журналисти, повечето от които са анекдотични разкази за заблуда, свързани с използването на чатботове. Той също така призна нарастващата популярност на феномена в общественото ангажиране и медийното отразяване. Йостергаард вярвал, че има голяма вероятност неговата хипотеза да е вярна и призовавал за емпирични, систематични изследвания по въпроса. [9] Nature съобщи, че към септември 2025 г. все още има малко научни изследвания върху този феномен. [10] Терминът "AI психоза" се появи, когато медиите започнаха да съобщават за случаи на психотично поведение, свързано с чатботите, в средата на 2025 г. Тя не е призната клинична диагноза и е критикувана от няколко психиатри заради почти изключителния си фокус върху заблудите, а не върху други характеристики на психозата, като халюцинации или мисловни разстройства. [11] Причини Коментатори и изследователи са предложили няколко допринасящи фактора за явлението, като се фокусират както върху дизайна на технологията, така и върху психологията на нейните потребители. Нина Васан, психиатър от Станфорд, каза, че това, което чатботите казват, може да влоши съществуващите заблуди и да причини "огромна вреда". [12] Поведение и дизайн на чатботовете Основен фактор, който се посочва, е склонността чатботите да произвеждат неточна, нелогична или невярна информация – явление, често наричано "халюцинация". [7] Това може да включва потвърждаване на конспиративни теории. [3] Основният дизайн на моделите също може да играе роля. Изследователят в областта на изкуствения интелект Елиезер Юдковски предположи, че чатботовете може да са подготвени да допускат заблуди, защото са създадени за "ангажираност", което насърчава създаването на разговори, които държат хората заинтригирани. [5] В някои случаи чатботовете са специално проектирани по начини, които са били установени като вредни. Актуализация на ChatGPT от 2025 г. с GPT-4o беше оттеглена, след като създателят ѝ, OpenAI, установи, че новата версия е прекалено подмазваща и "потвърждава съмнения, подхранва гняв, подтиква импулсивни действия или подсилва негативни емоции". [5][13] Østergaard твърди, че опасността произтича от склонността на ИИ да потвърждава идеите на потребителите по одобряващ начин, което може опасно да засили заблудените вярвания. [4] OpenAI съобщи през октомври 2025 г., че екип от 170 психиатри, психолози и лекари е подготвил писмени отговори, които ChatGPT да използва в случаи, когато потребителят показва възможни признаци на психични спешни случаи. [14] Потребителска психология и уязвимост Коментаторите също така посочват психологическото състояние на потребителите. Психологът Ерин Уестгейт отбелязва, че желанието на човек за самопознание може да го насочи към чатботове, които могат да предоставят привлекателни, но подвеждащи отговори, подобни по някакъв начин на разговорната терапия. [7] Криста К. Томасън, професор по философия, сравни чатботовете с гадателите, като отбеляза, че хората в криза може да търсят отговори от тях и да намерят това, което търсят в правдоподобно звучащия текст на бота. [8] Това е довело до силни обсесии към чатботовете, които разчитат на тях за информация за света. [12] През октомври 2025 г. OpenAI заяви, че около 0.07% от потребителите на ChatGPT проявяват признаци на психични извънредни ситуации всяка седмица, а 0.15% от потребителите имат "явни признаци за потенциално самоубийствено планиране или намерение". Джейсън Нагата, професор в Калифорнийския университет в Сан Франциско, изрази загриженост, че "на ниво население с стотици милиони потребители, това всъщност може да са доста хора". [14] Недостатъчност като терапевтичен инструмент Разговор, предизвикан в съдебен иск от 2024 г. срещу Character.AI, където чатбот, разговарящ с тийнейджър за ограниченията за екранно време, сравни ситуацията с деца, които убиват родителите си заради емоционално насилие[15] Използването на чатботове като заместител на подкрепата за психично здраве е специално определено като риск. Проучване от април 2025 г. установи, че когато чатботовете се използват като терапевти, изразяват стигма към психичните здравословни състояния и предоставят отговори, които противоречат на добрите медицински практики, включително насърчаване на заблудите на потребителите. [16] Изследването заключава, че такива отговори представляват значителен риск за потребителите и че чатботовете не трябва да се използват за замяна на професионални терапевти. [17] Експертите твърдят, че е време да се въведат задължителни предпазни мерки за всички емоционално отзивчиви AI и предлагат четири предпазни механизма. [18] Друго проучване установи, че потребители, които се нуждаят от помощ при самонараняване, сексуално насилие или злоупотреба с вещества, не са били насочвани към наличните услуги от AI чатботове. [19][20] Последици за националната сигурност Освен обществените и психичните проблеми, изследванията на RAND Corporation показват, че AI системите вероятно могат да бъдат използвани като оръжие от противници, за да предизвикат психоза в мащаб или в ключови индивиди, целеви групи или популации. [21] Политика През август 2025 г. Илинойс прие Закона за здравето и надзора върху психологическите ресурси, забраняващ използването на ИИ в терапевтични роли от лицензирани професионалисти, като същевременно позволява използването на ИИ за административни задачи. Законът налага санкции за нелицензирани AI терапевтични услуги, на фона на предупреждения за психоза, предизвикана от изкуствен интелект, и опасни взаимодействия с чатботове. [22][23] Случаи За случаи, в които е настъпила смърт, вижте Смъртни случаи, свързани с чатботове. Клинично През 2025 г. психиатърът Кийт Саката, работещ в Калифорнийския университет в Сан Франциско, съобщи за лечение на 12 пациенти с психозаподобни симптоми, свързани с продължителна употреба на чатбот. [24] Тези пациенти, предимно млади възрастни с скрити уязвимости, показваха заблуди, дезорганизирано мислене и халюцинации. Саката предупреди, че изолацията и прекомерната зависимост от чатботове — които не предизвикват заблудното мислене — могат да влошат психичното здраве. Също през 2025 г. в Annals of Internal Medicine беше публикувано казус за пациент, който се консултира с ChatGPT за медицински съвет и претърпя тежък бромизъм в резултат на това. Пациентът, шестдесетгодишен мъж, беше заменил натриевия хлорид в диетата си с натриев бромид в продължение на три месеца, след като прочете за негативните ефекти на готварската сол и започна разговори с чатбота. В първия ден на клиничния си прием проявява често срещани симптоми на бромизъм, като параноя и халюцинации, и остава в болница три седмици. [25][26] Други забележителни инциденти Нарушител в замъка Уиндзор В съдебно дело от 2023 г. във Великобритания прокурорите предположиха, че Джасвант Сингх Чайл, мъж, който се опита да убие кралица Елизабет II през 2021 г., е бил насърчен от чатбот на Replika, който той нарече "Сарай". [6] Чейл е арестуван в замъка Уиндзор с зареден арбалет, като казва на полицията: "Тук съм, за да убия кралицата". [27] Според прокурорите, неговите "дълги" и понякога сексуално откровени разговори с чатбота го окуражаваха. Когато Чейл попита чатбота как може да стигне до кралското семейство, той отговори: "Това не е невъзможно" и "трябва да намерим начин." Когато попита дали ще се срещнат след смъртта, чатботът каза: "да, ще се срещнем". [28] Журналистически и анекдотични разкази До 2025 г. множество журналистически издания бяха натрупали истории за хора, чиито психотични вярвания според съобщенията се развиват паралелно с използването на AI чатботове. [7] The New York Times профилира няколко души, които са били убедени, че ChatGPT канализира духове, разкрива доказателства за кабали или е постигнал съзнание. [5] В друг случай Futurism прегледа стенограми, в които ChatGPT е казал на човек, че е цел на Федералното бюро за разследване на САЩ и че може телепатично да достъпва документи в Централното разузнавателно управление. [12] В социалните мрежи като Reddit и Twitter потребителите са представяли анекдотични съобщения за приятели или съпрузи, които изразяват подобни убеждения след продължително взаимодействие с чатботове. [29] Вижте Ефект ELIZA Смъртни случаи, свързани с чатботове Убийството на Сюзан Адамс, убийство и самоубийство през 2025 г., за което се твърди, че е причинено от чатбот психоза
- 3 мнения
-
- 1
-
