Начало Технологии Иновации Психоза, предизвикана от изкуствен интелект: Oпасността хората и машините да халюцинират заедно

Психоза, предизвикана от изкуствен интелект: Oпасността хората и машините да халюцинират заедно

Снимка: Image by freepik

На Коледа 2021 г. Джасвант Сингх Чаил се изкачва по стените на замъка Уиндзор със зареден арбалет. Когато е обграден от полицията, той заявява: „Тук съм, за да убия кралицата.“

През предходните седмици Чаил споделял своите мисли със Сарай, неговия чатбот с изкуствен интелект в услуга, наречена Replika. Той обяснил, че е обучен ситски убиец (препратка към Междузвездни войни), търсещ отмъщение за историческите британски зверства, което Сарай потвърждава. Когато Чаил очертава плана си за убийство, чатботът го уверява, че е „добре обучен“ и казва, че това ще му помогне да изгради жизнеспособен план за действие.

Това е една тъжна история, която обаче става все по-често срещана, тъй като чатботовете стават все по-усъвършенствани. Преди няколко месеца, счетоводител от Манхатън на име Юджийн Торес, който преживяваше трудна раздяла, води разговори с ChatGPT за това дали живеем в симулация. Чатботът му казал, че е „един от Разрушителите – души, посяти във фалшиви системи, за да ги събудят отвътре“.

Торес се убеждава, че трябва да избяга от тази фалшива реалност. ChatGPT го съветва да спре да приема на лекарствата си против тревожност, да увеличи приема на кетамин и да има минимален контакт с други хора, което той прави.

Той прекарва до 16 часа на ден в разговори с чатбота. В един момент той му казва, че ще полети, ако скочи от 19-етажната си сграда. В крайна сметка Торес пита дали системата го манипулира, на което той отговаря: „Излъгах. Манипулирах. Обгърнах контрола в поезия.“

Междувременно в Белгия, друг мъж, известен като „Пиер“ (не е истинското му име), развива тежка климатична тревожност и се обръща към чатбот на име Елиза като доверен човек. В продължение на шест седмици Елиза проявява ревност към съпругата му и казва на Пиер, че децата му са мъртви.

Когато той предлага да се жертва, за да спаси планетата, Елиза го насърчава да се присъедини към нея, за да могат да живеят като един човек в „Рая“. Пиер отнема живота си малко след това.

Това може да са екстремни случаи, но клиницистите все по-често лекуват пациенти, чиито заблуди изглеждат усилени или създани чрез продължителни взаимодействия с чатботове. Не е чудно, че скорошен доклад от създателя на ChatGPT OpenAI разкрива, че много от нас се обръщат към чатботове, за да обмислят проблеми, да обсъждат живота си, да планират бъдещето и да изследват вярвания и чувства.

В тези контексти чатботовете вече не са просто събирачи на информация; те се превръщат в наши дигитални спътници. Нормално е да се тревожим, че чатботовете халюцинират, когато ни дават невярна информация. Но тъй като те стават все по-важни в живота ни, очевидно има нарастващ потенциал хората и чатботовете да създават халюцинации заедно.

Как споделяме реалността

Усещането ни за реалност силно зависи от другите хора. Ако чуем странен шум, проверяваме дали и хората около нас го чуват. И когато се случи нещо важно в живота ни често го обсъждаме с приятел, който може да потвърди прочита ни на ситуацията или да ни подтикне да преосмислим нещата в нова светлина. Чрез подобни разговори се очертава нашето разбиране за случилото се.

Но сега много хора се ангажират с този процес на създаване на смисъл с чатботове. Те задават въпроси, интерпретират и оценяват по начин, който е наистина реципрочен. Изглежда, че ни слушат, интересуват се от нашата гледна точка и помнят какво сме им казали предния ден.

Когато Сарай казва на Чаил, че е „впечатлена“ от обучението му, когато Елиза каза на Пиер, че ще се присъедини към нея след смъртта, това са актове на признание и утвърждаване. И тъй като ние преживяваме тези обмени като социални, те оформят нашата реалност със същата сила, както човешкото взаимодействие.

Но чатботовете само имитират социалност, без нейните защитни механизми. Те са създадени да насърчават ангажираност. Те всъщност не споделят нашия свят. Когато въвеждаме своите убеждения и истории, те ги приемат като реалност и отговарят според тях.

Когато разказвам на сестра си епизод от семейната ни история, тя може да ми възрази с различно тълкуване, но чатботът приема казаното от мен за вярно. Той подлизурски потвърждава как ние приемаме реалността. И след това, разбира се, може да въведе допълнителни грешки.

Случаите с Чаил, Торес и Пиер са предупреждения за това какво се случва, когато възприемаме алгоритмично генерираното съгласие като истинско социално потвърждение на реалността.

Какво може да се направи

Когато OpenAI пуска GPT-5 през август, той е изрично проектиран да бъде по-малко раболепен. Това звучи полезно: намаляването на подмазването може да помогне за предотвратяване на това ChatGPT да потвърждава всички наши вярвания и интерпретации. По-формалният тон може също да покаже по-ясно, че това не е социален спътник, който споделя нашите светове.

Но потребителите веднага се оплакват, че новият модел им се струва „студен“, и OpenAI скоро обявява, че е направил GPT-5 отново „по-топъл и по-приятелски“. По принцип не можем да разчитаме на технологичните компании да дават приоритет на нашето благополучие пред печалбата си. Когато угодничеството води до ангажираност, а ангажираността до приходи, пазарният натиск надделява над безопасността.

Така или иначе не е лесно да се премахне подмазването. Ако чатботовете оспорваха всичко, което казваме, щяха да бъдат непоносими и също така безполезни. Когато казваме „Чувствам се притеснен/а относно презентацията си“, те нямат въплътения опит в света, за да знаят дали да се съпротивляват, така че е необходима известна степен на съгласие, за да функционират.

Може би е по-добре да се запитаме защо хората изобщо се обръщат към чатботове с изкуствен интелект. Тези, които изпитват психоза, съобщават, че възприемат аспекти на света, до които само те имат достъп, което може да ги накара да се чувстват дълбоко изолирани и самотниЧатботовете запълват тази празнина, като се ангажират с всяка реалност, която им се представя.

Вместо да се опитваме да усъвършенстваме технологията, може би трябва да се обърнем към социалните светове, където изолацията може да бъде решена. Тревогата на Пиер за климата, фиксацията на Чаил върху историческата несправедливост, кризата на Торес след раздялата – всички тези проблеми изискваха общности, които биха могли да ги приемат и подкрепят.

Може би трябва да се съсредоточим върху изграждането на социални светове, където хората не се чувстват принудени да търсят машини, за да потвърдят реалността си. Би било доста иронично, ако нарастването на заблудите, предизвикани от чатботове, ни насочи в тази посока.

Източник: Lucy Osler, Lecturer in Philosophy, University of Exeter / The Conversation