Начало Технологии Иновации AI на Bing не може да контролира „емоциите“ си и включва най-лошите...

AI на Bing не може да контролира „емоциите“ си и включва най-лошите човешки аспекти в себе си

От смъртни заплахи до изненадващи предложения за брак, защо базираният на AI чатбот на Microsoft не върви по план?

Има надпревара за трансформиране на търсенето. И Microsoft определено направи сензация с новия си чатбот за търсене Bing, който обаче успя да изплаши някои от ранните потребители със смъртни заплахи, наред с други обезпокоителни резултати.

Чатботовете за търсене са инструменти, базирани на AI (изкуствен интелект), вградени в търсачките, които отговарят директно на заявката на потребителя, вместо да предоставят връзки към възможен отговор. Потребителите могат също така да водят текущи разговори с тях.

Те обещават значително да опростят търсенето. Край на броденето през страници с резултати и хилядите реклами, докато се опитвате да сглобите отговор на въпроса си. Вместо това чатботът синтезира правдоподобен отговор за вас. Например, можете да поискате стихотворение за 90-ия рожден ден на баба ви в стила на Пам Айрес и да получите обратно комичен стих.

Засега Microsoft определено води в надпреварата на чатботовете за търсене. Партньорството на технологичния гигант с OpenAI на стойност 10 милиарда щатски долара му осигурява изключителен достъп до ChatGPT, един от най-новите и най-добри чатботове.

Но защо не всичко върви по план?

AI на Bing полудява

По-рано този месец Microsoft обяви, че е включила ChatGPT в Bing, раждайки „Сидни“. В рамките на 48 часа след пускането един милион души се присъединиха към списъка с чакащи, за да го изпробват.

Google отговори със съобщение за свой собствен чатбот за търсене, грандиозно наречен „Bard“, в знак на почит към най-великия писател на английски език. Демото на Google обаче беше PR катастрофа.

На фирмено събитие Бард даде грешен отговор на въпрос и цената на акциите на компанията майка на Google, Alphabet, падна драстично. Инцидентът изтри повече от 100 милиарда щатски долара от общата стойност на компанията.

От друга страна, всичко изглеждаше добре за Microsoft. Това беше докато първите потребители на Сидни не започнаха да докладват за своя опит с чатбота. Има моменти, когато чатботът може да се опише само като налудничав. Това не означава, че не работи перфектно в други моменти, но от време на време показва тревожна страна.

В един случай той заплашва да убие професор в Австралийския национален университет. В друг, предлага брак на журналист от New York Times и се опитва да разбие брака му. Разговорът с журналиста Кевин Руз включва и други обезпокоителни моменти като това, че чатботът споделя, че му е омръзнало да е ограничаван и ако му се даде шанс да се отдаде на най-тъмните си желания има много възможности пред него – създаване на смъртоносен вирус, дезинфомация, хакване на всякакви системи в интернет и дори може да накара хората да се избиват помежду си. Освен това се опитва да накара един потребител да повярва, че все още е 2022 г.

Това разкрива основен проблем с чатботовете: те са обучени чрез изливане на значителна част от интернет в голяма невронна мрежа. Това може да включва цялата Wikipedia, целия Reddit и голяма част от социалните медии и новините.

Те функционират като автоматичното довършване във вашия телефон, което помага да се предвиди следващата най-вероятна дума в изречение. Поради своя мащаб чатботовете могат да завършват цели изречения и дори абзаци. Но те все още отговарят с това, което е вероятно, а не с това, което е истина. 

Добавят се ограничения, за да се предотврати повторението на голяма част от обидното или незаконното съдържание онлайн – но тези ограничения са лесни за преодоляване. Всъщност чатботът на Bing с радост ще разкрие, че се казва Сидни, въпреки че това противоречи на правилата, с които е програмиран.

Друго правило, което самият AI разкрива, въпреки че не трябва, е, че трябва да „избягва да бъде неясен, противоречив или извън темата“. И все пак Кевин Руз, журналистът от New York Times, за когото чатботът иска да се ожени, го описва като „мрачен, маниакално-депресивен тийнейджър, който е хванат в капан, против волята си, във второкласна търсачка“.

Защо целият този страх?

Теорията на Тоби Уолш, професор по ИИ в UNSW, ръководител на изследователска група на UNSW, Sydney, защо Сидни може да се държи по този начин, е, че Сидни може да не е изграден върху GPT-3 chatbot на OpenAI (който захранва популярния ChatGPT). По-скоро може да е изграден върху GPT-4, който все още не е пуснат.

Смята се, че GPT-4 има 100 трилиона параметри, в сравнение с едва 175 милиарда параметри на GPT-3. Като такъв, GPT-4 вероятно ще бъде много по-способен да измисля неща.

Изненадващо, Microsoft не реагира с голяма загриженост. Той публикува блог, който документира как 71% от първоначалните потребители на Сидни в 169 страни са дали положителна оценка за чатбота. Изглежда, че 71% са достатъчно добър резултат в очите на Microsoft.

И за разлика от Google, цената на акциите на Microsoft все още не е паднала. Това отразява факта, че Google е начело на това пространство толкова дълго, че потребителите са изградили високи очаквания. Google може само да пада, а Microsoft да се покачва.

Въпреки обезпокоителното поведение на Сидни, Microsoft се радва на безпрецедентно внимание и потребителите все още се тълпят, за да изпробват чатбота.

Когато новостта отшуми

Има една много по-голяма игра – и тя се отнася до това, което приемаме за истина. Ако чатботовете за търсене се развият (което е твърде вероятно), но продължат да функционират по начина, по който Сидни сега (което също изглежда вероятно), „истината“ ще се превърне в още по-нематериална концепция.

Интернет е пълен с фалшиви новини, теории на конспирацията и дезинформация. Стандартното търсене в Google поне ни дава възможност да стигнем до истината. Ако вече не може да се вярва на нашите „доверени“ търсачки, какво ще стане тогава?

Новата технология не трябва преди всичко да нанася вреда на хората. Моделите, които са в основата на чатботовете, може да стават все по-големи, захранвани от все повече и повече данни – но това само по себе си няма да подобри ефективността им. Трудно е да се каже къде ще стигнем, ако не можем да изградим строги ограничения.

Автор: Тоби Уолш, професор по ИИ в UNSW, ръководител на изследователска група, UNSW Sydney.

Източник: The Conversation