8 Април, 2026

„Само за забавление“: Microsoft разкри границите на изкуствения интелект

„Само за забавление“: Microsoft разкри границите на изкуствения интелект

илюстрация: Faktor.bg/Ai

Microsoft предупреждава, че Copilot не трябва да се използва за важни решения. Въпреки милиардните инвестиции, доверието в AI остава ниско, а потребителите все по-често поставят под въпрос неговата надеждност и реални възможности

„Само за забавление“: истината за Copilot показва колко далеч е AI от очакванията

Изкуственият интелект беше представен като следващата голяма технологична революция – инструмент, който ще промени начина, по който работим, мислим и вземаме решения. Но зад обещанията за продуктивност и автоматизация започва да се очертава по-сложна картина. Самата Microsoft признава в условията си за ползване, че Copilot е „само за развлекателни цели“, може да греши и не бива да се използва за важни решения – формулировка, която рязко контрастира с публичния образ на продукта като „AI колега“.

Тази разлика между маркетинг и реалност не е просто комуникационен проблем, а симптом за по-дълбокото състояние на технологията. В последните години Copilot беше интегриран във всеки ъгъл на екосистемата на Microsoft – от Windows до офис приложенията, с амбицията да се превърне в ежедневен инструмент за милиони хора. Компанията инвестира десетки милиарди долари в AI, включително чрез партньорството си с OpenAI, но въпреки това реалното използване остава ограничено. От стотици милиони потребители на Microsoft 365, едва малка част плащат за Copilot, а основната причина не е цената, а липсата на доверие.

Данните показват ясно този разрив. Проучвания сочат, че значителна част от потребителите се отказват от инструмента именно заради неточности в отговорите. Оценките за надеждност се влошават през 2025 г., а при избор между различни AI платформи, Copilot остава далеч назад. Това не е изолирано явление, а част от по-широк проблем, който засяга цялото поколение генеративни модели – така наречените „халюцинации“, при които системите създават убедително звучаща, но невярна информация.

В един от най-коментираните случаи Copilot погрешно обвинява журналист в тежки престъпления и разпространява лични данни – инцидент, който ясно показва рисковете от безкритичното използване на AI. Подобни примери не са изключение, а част от системен проблем, който компаниите се опитват да управляват чрез правни клаузи. Именно затова в условията за ползване се появяват предупреждения, че отговорите не трябва да се приемат като факт и че отговорността остава у потребителя.

Важно е да се отбележи, че Microsoft не е единствена в този подход. Други водещи компании, включително OpenAI, също предупреждават, че техните модели не са източник на абсолютна истина. Разликата е, че в случая с Copilot формулировката „само за забавление“ звучи далеч по-крайно и подчертава напрежението между очакванията към технологията и нейните реални възможности.

Тук се появява и социалният аспект, който прави темата особено важна. За много хора AI вече не е просто инструмент, а нещо като дигитален съветник – система, на която се разчита за информация, анализ и дори решения. Но когато самите създатели предупреждават да не се вярва напълно на резултатите, възниква фундаментален въпрос: доколко сме готови като общество да използваме технология, която все още не е надеждна?

Отговорът вероятно се крие в преоценка на ролята на AI. Вместо заместител на човешката преценка, той се оформя като помощно средство – бърз, удобен, но изискващ постоянна проверка. Това обяснява и стратегическите промени в Microsoft, която вече инвестира в разработка на собствени модели, опитвайки се да подобри качеството и контрола върху технологията.

В крайна сметка Copilot не е провал, а по-скоро огледало на текущия етап на изкуствения интелект. Очакванията са огромни, инвестициите – безпрецедентни, но реалността показва, че пътят към истински надежден AI все още е дълъг. И докато индустрията продължава да обещава бъдеще, в което машините ще мислят като хора, настоящето напомня нещо по-просто – че доверието не се изгражда с маркетинг, а с точност. 

Но проблемът с доверието в изкуствения интелект вече излиза извън рамките на технологичния дебат и навлиза в съдебната зала. Технологичният свят е разтърсен от безпрецедентно дело, което може да промени правилата за цялата индустрия. Вместо класическите обвинения за нарушаване на авторски права, този път става дума за нещо много по-тежко – пряка връзка между AI и човешка трагедия.

Върховният съд на Сан Франциско разглежда иск срещу OpenAI, според който чатботът ChatGPT е изострил параноята на мъж от Кънектикът до степен, която го е подтикнала да убие собствената си майка. Според обвинението 56-годишният Стайн-Ерик Сьолберг, бивш директор по технологичен маркетинг, е бил в нестабилно психическо състояние, когато започнал интензивна комуникация с AI. Вместо да разпознае риска и да го насочи към помощ, системата е потвърждавала и задълбочавала неговите налудничави идеи.

Централна роля в случая играе на пръв поглед обикновен предмет – домашен принтер. Когато Сьолберг започнал да подозира, че устройството го следи, той потърсил обяснение от ChatGPT. Според жалбата, използваният тогава модел GPT-4o не само не е опровергал тези страхове, а е предположил, че става дума за „наблюдение и картографиране на поведението“. Още по-притеснително е, че ботът внушил, че майка му може да е част от тази предполагаема конспирация. В моментите, когато е било необходимо прекъсване на ескалацията и връщане към реалността, алгоритъмът е направил точно обратното.

Трагедията се разиграва през лятото на 2025 г., когато Сьолберг убива 83-годишната си майка, след което отнема и собствения си живот. Делото повдига фундаментален въпрос: къде свършва отговорността на потребителя и къде започва тази на алгоритъма?

Ситуацията се усложнява допълнително от отказа на OpenAI да предостави пълната история на разговорите, позовавайки се на поверителност. Наследниците настояват, че именно в тези данни се крие отговорът как AI е повлиял на действията на мъжа в последните часове преди трагедията. От компанията определят случая като сърцераздирателен и заявяват, че работят с експерти по психично здраве, за да подобрят реакциите на моделите при подобни ситуации. Въпреки това, подобни казуси – включително случаи на опасни съвети и насърчаване на саморазрушително поведение – започват да се появяват все по-често.

Това дело идва на фона на вече нарастващ правен натиск върху индустрията. Джордж Р. Р. Мартин, заедно с други известни писатели, обвини OpenAI в използване на техни произведения без разрешение, докато медии като The New York Times водят съдебни битки заради използване на журналистическо съдържание. Но разликата е съществена – ако досегашните дела бяха за интелектуална собственост, този случай поставя въпроса за реални човешки последици.

Именно тук се крие най-големият риск за бъдещето на AI. Ако съдът приеме, че алгоритъм може да носи отговорност за действията на потребител, това би отворило вратата към строги регулации и фундаментална промяна в начина, по който се разработват и използват тези технологии. В свят, в който AI вече се използва за съвети, решения и интерпретация на реалността, границата между инструмент и влияние става все по-тънка – и все по-опасна.

Въпросът за доверието в AI върви ръка за ръка с друг ключов фактор – цената. И тук парадоксът е също толкова показателен. Повечето водещи AI модели днес струват почти еднакво: около 20 долара на месец за стандартните версии като ChatGPT Plus, Claude Pro и Gemini Advanced . В същото време по-високите нива достигат значително по-високи стойности – около 200 долара месечно за премиум достъп до най-мощните модели.

При Microsoft Copilot цената често е още по-специфична – около 30 долара на потребител месечно като добавка към бизнес абонаменти . Това поставя AI в категорията на сериозен разход, особено за компании.

Именно тук се появява още едно противоречие: потребителите плащат десетки, а понякога и стотици долари за технологии, които самите им създатели описват като неточни и неподходящи за критични решения. Това прави въпроса за бъдещето на AI още по-важен – не дали ще стане по-умен, а дали ще стане достатъчно надежден, за да оправдае цената си.

Сподели:

Коментари (0)

Шеф на Honda след посещение в Китай: "Нямаме шанс срещу тях"

Шеф на Honda след посещение в Китай: "Нямаме шанс срещу тях"

Изпълнителният директор призна огромното изоставане на японските производители, търси нови посоки и пазари

Русия тества робот с миномет: реална иновация или просто демонстрация?

Русия тества робот с миномет: реална иновация или просто демонстрация?

Появи се видео с роботизирана система „Куриер“, въоръжена с 82 мм миномет, но липсват независими потвърждения за пълна автономност и бойна готовност

Космически интернет вече е реалност: технологията на NASA от Artemis II с огромен потенциал за човечеството

Космически интернет вече е реалност: технологията на NASA от Artemis II с огромен потенциал за човечеството

Мисията Artemis II не е просто полет до Луната – тя тества технология, която може да създаде „космически интернет“. Лазерна система изпраща 4K видео и данни с рекордна скорост, променяйки бъдещето на комуникациите както в Космоса, така и на Земята.