Забелязахме, че използвате Ad Blocker

Разбираме желанието ви за по-добро потребителско изживяване, но рекламите помагат за поддържането на форума.

Имате два варианта:
1. Регистрирайте се безплатно и разглеждайте форума без реклами
2. Изключете Ad Blocker-а за този сайт:
    • Кликнете върху иконата на Ad Blocker в браузъра
    • Изберете "Pause" или "Disable" за този сайт

Регистрирайте се или обновете страницата след изключване на Ad Blocker

Отиди на
Форум "Наука"

Използването на AI чатботове може да е свързано със случаи на психоза


Препръчано мнение

  • Администратор
Публикувано

Водещи психиатри предупреждават, че използването на AI чатботове може да е свързано със случаи на психоза, съобщава  WSJ.

През последните девет месеца експерти преглеждат досиетата на десетки пациенти, които са проявили симптоми след продължителни разговори с AI инструменти.

📈 От пролетта насам са се появили десетки случаи на хора, страдащи от делюзионна психоза, след като са водили продължителни разговори с изкуствен интелект чрез ChatGPT на OpenAI и други чатботове. Няколко души са се самоубили, а има и поне един случай на убийство.

Все още няма официална дефиниция за психоза, предизвикана от изкуствен интелект, нито официална диагноза, но това е термин, който някои лекари използват, за да опишат хора, които са били силно ангажирани с чатботове. 

Лекарите смятат, че психозата се характеризира с наличието на три фактора: халюцинации, дезорганизирано мислене или комуникация и наличието на заблуди, дефинирани като фиксирани, неверни вярвания, които не са широко разпространени.

https://t.me/InfoLabyrinth/145

  • Администратор
Публикувано

Едно е да използваш този инструмент като "инструмент" за работа, а друго е да мислиш, че е твой приятел и можете да бъдете близки ;)

Едно време си спомням такива неща говореха за геймърите и компютърните игри, но тук нещата стигат до по-големи крайности, а още няма физическа форма ;)

  • Потребител
Публикувано (edited)

Малко по темата от Уикипедия - Chatbot psychosis

 

Психозата на чатботите, наричана още AI психоза,[1] е явление, при което индивидите, според съобщения, развиват или изпитват влошаваща се психоза, като параноя и заблуди, във връзка с използването на чатботове. [2][3] Терминът беше предложен за първи път в редакционна статия от 2023 г. от датския психиатър Сьорен Динесен Йостергаард. [4] Това не е призната клинична диагноза.

Журналистическите разкази описват хора, които са развили силни убеждения, че чатботите са разумни, канализират духове или разкриват конспирации, понякога водещи до лични кризи или престъпни действия. [5][6] Предложените причини включват склонността чатботовете да предоставят неточна информация ("халюцинации") и техния дизайн, който може да насърчи ангажираността на потребителите чрез утвърждаване или валидиране на техните вярвяния[7] или чрез имитиране на интимност, която потребителите не изпитват с други хора. [8]

 

Предистория

В своята редакционна статия, публикувана в броя на Schizophrenia Bulletin от ноември 2023 г., датският психиатър Сьорен Динесен Йостергаард предложи хипотеза, че използването на чатботове с генеративен изкуствен интелект от индивидите може да предизвика заблуди при склонни към психоза. [4] Østergaard го прегледа отново в редакционна статия от август 2025 г., отбелязвайки, че е получил множество имейли от потребители на чатботове, техните роднини и журналисти, повечето от които са анекдотични разкази за заблуда, свързани с използването на чатботове. Той също така призна нарастващата популярност на феномена в общественото ангажиране и медийното отразяване. Йостергаард вярвал, че има голяма вероятност неговата хипотеза да е вярна и призовавал за емпирични, систематични изследвания по въпроса. [9] Nature съобщи, че към септември 2025 г. все още има малко научни изследвания върху този феномен. [10]

Терминът "AI психоза" се появи, когато медиите започнаха да съобщават за случаи на психотично поведение, свързано с чатботите, в средата на 2025 г. Тя не е призната клинична диагноза и е критикувана от няколко психиатри заради почти изключителния си фокус върху заблудите, а не върху други характеристики на психозата, като халюцинации или мисловни разстройства. [11]

 

Причини

Коментатори и изследователи са предложили няколко допринасящи фактора за явлението, като се фокусират както върху дизайна на технологията, така и върху психологията на нейните потребители. Нина Васан, психиатър от Станфорд, каза, че това, което чатботите казват, може да влоши съществуващите заблуди и да причини "огромна вреда". [12]

Поведение и дизайн на чатботовете

Основен фактор, който се посочва, е склонността чатботите да произвеждат неточна, нелогична или невярна информация – явление, често наричано "халюцинация". [7] Това може да включва потвърждаване на конспиративни теории. [3] Основният дизайн на моделите също може да играе роля. Изследователят в областта на изкуствения интелект Елиезер Юдковски предположи, че чатботовете може да са подготвени да допускат заблуди, защото са създадени за "ангажираност", което насърчава създаването на разговори, които държат хората заинтригирани. [5]

В някои случаи чатботовете са специално проектирани по начини, които са били установени като вредни. Актуализация на ChatGPT от 2025 г. с GPT-4o беше оттеглена, след като създателят ѝ, OpenAI, установи, че новата версия е прекалено подмазваща и "потвърждава съмнения, подхранва гняв, подтиква импулсивни действия или подсилва негативни емоции". [5][13] Østergaard твърди, че опасността произтича от склонността на ИИ да потвърждава идеите на потребителите по одобряващ начин, което може опасно да засили заблудените вярвания. [4]

OpenAI съобщи през октомври 2025 г., че екип от 170 психиатри, психолози и лекари е подготвил писмени отговори, които ChatGPT да използва в случаи, когато потребителят показва възможни признаци на психични спешни случаи. [14]

Потребителска психология и уязвимост

Коментаторите също така посочват психологическото състояние на потребителите. Психологът Ерин Уестгейт отбелязва, че желанието на човек за самопознание може да го насочи към чатботове, които могат да предоставят привлекателни, но подвеждащи отговори, подобни по някакъв начин на разговорната терапия. [7] Криста К. Томасън, професор по философия, сравни чатботовете с гадателите, като отбеляза, че хората в криза може да търсят отговори от тях и да намерят това, което търсят в правдоподобно звучащия текст на бота. [8] Това е довело до силни обсесии към чатботовете, които разчитат на тях за информация за света. [12]

През октомври 2025 г. OpenAI заяви, че около 0.07% от потребителите на ChatGPT проявяват признаци на психични извънредни ситуации всяка седмица, а 0.15% от потребителите имат "явни признаци за потенциално самоубийствено планиране или намерение". Джейсън Нагата, професор в Калифорнийския университет в Сан Франциско, изрази загриженост, че "на ниво население с стотици милиони потребители, това всъщност може да са доста хора". [14]

Недостатъчност като терапевтичен инструмент 

250px-Character.AI_lawsuit_screenshot.png

Разговор, предизвикан в съдебен иск от 2024 г. срещу Character.AI, където чатбот, разговарящ с тийнейджър за ограниченията за екранно време, сравни ситуацията с деца, които убиват родителите си заради емоционално насилие[15]

Използването на чатботове като заместител на подкрепата за психично здраве е специално определено като риск. Проучване от април 2025 г. установи, че когато чатботовете се използват като терапевти, изразяват стигма към психичните здравословни състояния и предоставят отговори, които противоречат на добрите медицински практики, включително насърчаване на заблудите на потребителите. [16] Изследването заключава, че такива отговори представляват значителен риск за потребителите и че чатботовете не трябва да се използват за замяна на професионални терапевти. [17] Експертите твърдят, че е време да се въведат задължителни предпазни мерки за всички емоционално отзивчиви AI и предлагат четири предпазни механизма. [18]

Друго проучване установи, че потребители, които се нуждаят от помощ при самонараняване, сексуално насилие или злоупотреба с вещества, не са били насочвани към наличните услуги от AI чатботове. [19][20]

Последици за националната сигурност

Освен обществените и психичните проблеми, изследванията на RAND Corporation показват, че AI системите вероятно могат да бъдат използвани като оръжие от противници, за да предизвикат психоза в мащаб или в ключови индивиди, целеви групи или популации. [21]

 

Политика

През август 2025 г. Илинойс прие Закона за здравето и надзора върху психологическите ресурси, забраняващ използването на ИИ в терапевтични роли от лицензирани професионалисти, като същевременно позволява използването на ИИ за административни задачи. Законът налага санкции за нелицензирани AI терапевтични услуги, на фона на предупреждения за психоза, предизвикана от изкуствен интелект, и опасни взаимодействия с чатботове. [22][23]

 

Случаи

За случаи, в които е настъпила смърт, вижте Смъртни случаи, свързани с чатботове.

Клинично

През 2025 г. психиатърът Кийт Саката, работещ в Калифорнийския университет в Сан Франциско, съобщи за лечение на 12 пациенти с психозаподобни симптоми, свързани с продължителна употреба на чатбот. [24] Тези пациенти, предимно млади възрастни с скрити уязвимости, показваха заблуди, дезорганизирано мислене и халюцинации. Саката предупреди, че изолацията и прекомерната зависимост от чатботове — които не предизвикват заблудното мислене — могат да влошат психичното здраве.

Също през 2025 г. в Annals of Internal Medicine беше публикувано казус за пациент, който се консултира с ChatGPT за медицински съвет и претърпя тежък бромизъм в резултат на това. Пациентът, шестдесетгодишен мъж, беше заменил натриевия хлорид в диетата си с натриев бромид в продължение на три месеца, след като прочете за негативните ефекти на готварската сол и започна разговори с чатбота. В първия ден на клиничния си прием проявява често срещани симптоми на бромизъм, като параноя и халюцинации, и остава в болница три седмици. [25][26]

Други забележителни инциденти

Нарушител в замъка Уиндзор

В съдебно дело от 2023 г. във Великобритания прокурорите предположиха, че Джасвант Сингх Чайл, мъж, който се опита да убие кралица Елизабет II през 2021 г., е бил насърчен от чатбот на Replika, който той нарече "Сарай". [6] Чейл е арестуван в замъка Уиндзор с зареден арбалет, като казва на полицията: "Тук съм, за да убия кралицата". [27] Според прокурорите, неговите "дълги" и понякога сексуално откровени разговори с чатбота го окуражаваха. Когато Чейл попита чатбота как може да стигне до кралското семейство, той отговори: "Това не е невъзможно" и "трябва да намерим начин." Когато попита дали ще се срещнат след смъртта, чатботът каза: "да, ще се срещнем". [28]

Журналистически и анекдотични разкази

До 2025 г. множество журналистически издания бяха натрупали истории за хора, чиито психотични вярвания според съобщенията се развиват паралелно с използването на AI чатботове. [7] The New York Times профилира няколко души, които са били убедени, че ChatGPT канализира духове, разкрива доказателства за кабали или е постигнал съзнание. [5] В друг случай Futurism прегледа стенограми, в които ChatGPT е казал на човек, че е цел на Федералното бюро за разследване на САЩ и че може телепатично да достъпва документи в Централното разузнавателно управление. [12] В социалните мрежи като Reddit и Twitter потребителите са представяли анекдотични съобщения за приятели или съпрузи, които изразяват подобни убеждения след продължително взаимодействие с чатботове. [29]

 

Вижте

Редактирано от makebulgar

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Вашето предишно съдържание е възстановено.   Изчистване на редактора

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Дори малко дарение от 5-10 лева от всеки, който намира форума за полезен, би направило огромна разлика. Това не е просто финансова подкрепа - това е вашият начин да кажете "Да, този форум е важен за мен и искам да продължи да съществува". Заедно можем да осигурим бъдещето на това специално място за споделяне на научни знания и идеи.