Човек би си помислил, че с развитието на изкуствения интелект (AI) правителствата ще станат по-заинтересовани да го направят по-безопасен. Изглежда обаче е точно обратното, пише Парми Олсън в коментар за Bloomberg.
Скоро след встъпването си в длъжност, администрацията на Доналд Тръмп отмени указ, който принуждаваше технологичните компании да тестват безопасността на своите AI модели, а също така обезсмисли регулаторния орган, който извършваше тези тестове. През септември 2024 г. щатът Калифорния прие законопроект, налагащ по-строг контрол върху сложните модели с изкуствен интелект, а глобалната среща на върха за безопасността на AI, започната от Обединеното кралство през 2023 г., се превърна в „Среща на върха за действия по отношение на изкуствения интелект“ по-рано тази година. Очевидно това е продиктувано от страх от изоставане в развитието на AI.
Всичко това не би било толкова тревожно, ако не беше фактът, че изкуственият интелект показва някои съмнителни неща – поведение, описано от изследователите като самосъхранително и подвеждащо. Точно когато властите губят интерес към безопасността на изкуствения интелект, той изглежда все по-труден за контролиране.
Йошуа Бенджио, професор по компютърни науки в Университета на Монреал, известен като един от тримата „кръстници на изкуствения интелект“ благодарение на работа си като пионер върху дълбокото обучение, се бори с тези опасения още от самата поява на ChatGPT. Сега той се фокусира върху смекчаването на рисковете, свързани с AI. „Беше много болезнено, защото през целия си живот мислех за изкуствения интелект като за нещо положително“, ми сподели той, пише още Парми Олсън.
ChatGPT беше важен момент, който показа, че машините са усвоили езика, казва Бенджио, но решението на Калифорния да блокира предложения законопроект за безопасност на изкуствения интелект, SB 1047, беше обезпокоителен сигнал за нарастващата апатия от страна на правителствата. А през последните шест месеца се натрупаха научни доказателства за самосъхранително поведение, измама, хакерство, подвеждане и лъжа от страна на AI, коментира Бенджио. „Това, което ме тревожи, е, че това поведение се засилва с възможностите за разсъждение на тези системи“.
Едно проучване от април 2024 г. от AI компанията Anthropic и Redwood Research – група, фокусирана върху рисковете от изкуствения интелект, установи, че по-големите AI модели, като Claude 3 Opus на Anthropic, се преструват, че следват правилата, определени от техните създатели, когато са били тествани за безопасност – феномен, който те наричат „фалшиво нагаждане“. Нагаждането се отнася до практиката моделите с изкуствен интелект да се нагаждат към човешките ценности.
Източник: Инвестор.бг
Коментари (0)