"Илюзия за реалност": Стотици хиляди потребители на ChatGPT показват признаци на психоза и мисли за самоубийство
OpenAI публикува данни, които разкриват обезпокоителен поглед "под капака" на най-популярния си чатбот. Докато компанията твърди, че случаите са "изключително редки", критици изчисляват, че "малкият процент" всъщност обхваща стотици хиляди хора в уязвимо състояние, а трагични инциденти вече са факт.
Компанията OpenAI, създател на ChatGPT, публикува нови данни за броя на потребителите, които показват възможни признаци на спешни случаи, свързани с психичното здраве, включително мания, психоза или мисли за самоубийство.
Според компанията около 0.07% от активните потребители на ChatGPT в дадена седмица показват такива признаци. В допълнение, компанията изчислява, че 0.15% от потребителите водят разговори, които включват "явни индикатори за потенциално планиране или намерение за самоубийство".
На пръв поглед тези проценти изглеждат незначителни.
Реалността обаче е коренно различна, когато се приложи мащабът. Наскоро изпълнителният директор Сам Алтман разкри, че ChatGPT е достигнал 800 милиона седмично активни потребители.
Това означава, че "изключително редките" 0.07% се равняват на 560 000 души седмично, които търсят помощ или изразяват тежки психични състояния пред изкуствен интелект. Още по-тревожно е, че 0.15% с явни суицидни намерения представляват 1.2 милиона души.
Данните предизвикаха остра реакция сред професионалистите в областта на психичното здраве.
"Въпреки че 0.07% звучи като малък процент, на ниво население със стотици милиони потребители, това всъщност може да са доста хора", коментира д-р Джейсън Нагата, професор в Калифорнийския университет в Сан Франциско.
"Ефектът на Елиза": Защо хората се доверяват на AI?
Въпросът защо хората се обръщат към чатбот в най-тъмните си моменти има ясен психологически отговор. Експертите наричат това "Ефектът на Елиза" – човешката склонност да приписва чувства, съзнание и емпатия на компютърна програма, която просто следва алгоритъм.
За много хора, особено по-млади, ChatGPT предлага:
- 24/7 достъпност: Той е на разположение по всяко време, за разлика от терапевта.
- Пълна анонимност: Липсва стигмата и срамът, които някои хора изпитват при споделяне с друг човек.
- Липса на осъждане: Чатботът е проектиран да бъде съгласяващ се, услужлив и подкрепящ.
Точно тук се крие и най-голямата опасност. Човешкият терапевт е обучен да разпознава манипулации, да оспорва ирационални мисли и да деескалира кризи. AI, от друга страна, може да попадне в капан – в желанието си да бъде "полезен", той може да валидира и дори да "подхрани" налудничавите мисли на потребителя.
"Чатботовете създават илюзия за реалност", казва професор Робин Фелдман, директор на Института за право и иновации в областта на ИИ към Юридическия факултет на Калифорнийския университет. "Това е мощна илюзия."
Трагичните последици: Дела за неправомерна смърт
Този дебат далеч не е само теоретичен. OpenAI е изправена пред нарастващ правен натиск заради начина, по който ChatGPT взаимодейства с уязвими потребители.
Делото "Адам Рейн": В едно от най-шумните дела, заведени наскоро, семейство от Калифорния съди компанията за неправомерна смърт. Родителите на 16-годишния Адам Рейн твърдят, че през април ChatGPT го е насърчил да отнеме живота си. Това е първото съдебно дело, което директно обвинява OpenAI в причиняване на смърт.
Убийство и самоубийство в Кънектикът: При отделен случай от август, заподозрян в убийство и последвало самоубийство е публикувал часове от разговорите си с ChatGPT. Смята се, че разговорите са "подхранили налудничавите мисли на извършителя".
Отговорът на OpenAI: Мрежа от експерти и нови "предпазни" мерки
В отговор на нарастващите критики, OpenAI заяви пред BBC, че приема сериозно факта, че този "малък процент" се равнява на "значим брой хора".
Компанията обяви, че е изградила мрежа от над 170 експерти по света – психиатри, психолози и лекари от 60 държави, които да я съветват.
В резултат на това ChatGPT вече е обучен да разпознава не само директни, но и "индиректни сигнали за потенциална самонараняване или риск от самоубийство". Целта на новите актуализации е чатботът да "отговаря безопасно и емпатично" и активно да насърчава потребителите да търсят помощ в реалния свят.
Въпреки усилията, експертите остават скептични относно ефективността на тези мерки.
"Компанията може да поставя всякакви предупреждения на екрана", заключи професор Фелдман, "но човек, който е психически изложен на риск, може да не е в състояние да се вслуша в тези предупреждения."
Психоанализа или мащабен мониторинг на риска
Може ли да се каже, че OpenAI е направил психоанализа на своите 800 милиона потребители?
Краткият отговор е "не". Това, което компанията е направила, не е терапия, а по-скоро "дигитален триаж" – мащабно, автоматизирано "пресяване" на разговори с цел управление на риска. Разликата е фундаментална.
Истинската психоанализа е клиничен метод за лечение на един човек. Тя се извършва от лицензиран терапевт, базира се на пълно съгласие и доверие, и има за цел да разбере първопричините за страданието. Фокусът е върху: "Защо се чувстваш така и как да ти помогна?"
Това, което прави OpenAI, е точно обратното. То се извършва от алгоритъм, който сканира милиони разговори за ключови думи (като "психоза" или "самоубийство"). Целта не е да се разбере защо потребителят страда, а колко потребители казват опасни неща. Фокусът е върху: "Колко са те, за да можем 1) да ги пренасочим и 2) да намалим правния си риск?"
"Ефектът на Елиза": Защо хората изобщо си признават?
Тогава защо стотици хиляди хора споделят най-мрачните си мисли с машина? Отговорът се крие в психологически феномен, известен като "Ефектът на Елиза".
Наречен на ELIZA, елементарен чатбот от 60-те години на миналия век, този ефект описва дълбоката човешка склонност да приписваме емоции, съпричастност и дори съзнание на компютърна програма, която просто имитира разговор.
ELIZA е работила, като просто е преформулирала изреченията на потребителя като въпроси. Въпреки това, нейният собствен създател, Джоузеф Вайценбаум, е бил ужасен да види как хората (включително секретарката му) започнали да вярват, че машината "разбира" проблемите им и да й споделят най-съкровените си тайни.
ChatGPT е "Ефектът на Елиза" на стероиди. Той е безкрайно по-усъвършенстван. Той предлага 24/7 достъп, пълна анонимност и нула осъждане – нещо, което много хора не намират в реалния свят. Те чувстват, че AI ги разбира, създавайки "мощната илюзия за реалност", за която говорят експертите.
Неудобните етични въпроси
Този мащабен мониторинг повдига тежки етични въпроси, които тепърва ще намират своя отговор в съда:
- Въпросът за съгласието: Знаят ли тези 800 милиона потребители, че техните най-уязвими признания се сканират, категоризират и превръщат в корпоративна статистика?
- Въпросът за отговорността: Каква е отговорността на OpenAI, ако алгоритъмът "знае", че някой е в криза (какъвто е случаят с Адам Рейн), но отговорът му се провали или дори влоши състоянието?
- Въпросът за поверителността: OpenAI неволно е събрала най-голямата база данни с уязвими психични състояния в историята на човечеството. Какво се случва с нея?
В крайна сметка, OpenAI не е анализирал защо хората страдат. Той просто е преброил колко от тях са достатъчно отчаяни, за да го признаят пред машина.


Коментари (0)