Начало Технологии Иновации Моделите с изкуствен интелект могат да създават собствени социални норми без човешка...

Моделите с изкуствен интелект могат да създават собствени социални норми без човешка помощ

Снимка: Image by freepik

Изследователите разкриват, че големите езикови модели (LLM) могат спонтанно да развиват споделени социални норми само чрез взаимодействие. Те твърдят, че когато тези агенти общуват в групи, те не просто следват скриптове или повтарят модели, а се самоорганизират, постигайки консенсус по езиковите норми подобно на човешките общности.

LLM са мощни алгоритми за дълбоко обучение, които могат да разбират и генерират човешки език, като най-известният до момента е ChatGPT.

Изследователският екип от лондонския университет „Сейнт Джордж“ и Университета по информационни технологии в Копенхаген подчертава, че тези езикови модели не просто следват сценарии или повтарят модели, когато общуват в групи.

Взаимодействащи агенти

„Повечето изследвания досега разглеждаха LLM в изолация“, казва водещият автор Ариел Флинт Ашери, докторант в City St George’s.

„Но реалните системи за изкуствен интелект все повече ще включват много взаимодействащи си агенти. Искахме да разберем: могат ли тези модели да координират поведението си, като формират общоприети правила (норми) – градивните елементи на едно общество? Отговорът е „да“, а това, което правят заедно, не може да се сведе до това, което правят поотделно?“

Класическа рамка е адаптирана за изучаване на социалните норми при хората, като се основава на модела на формиране на правила „игра на имена“.

Експериментални резултати

Експерименталните резултати на изследователите, публикувани в Science Advances, демонстрират спонтанното възникване на универсално приети социални конвенции в децентрализирани популации от агенти с голям езиков модел (LLM).

„След това показваме как по време на този процес могат да се появят силни колективни предразсъдъци, дори когато агентите не проявяват индивидуални предразсъдъци. Накрая изследваме как ангажирани малцинствени групи от враждебни LLM агенти могат да предизвикат социална промяна, като наложат алтернативни социални норми на по-голямата популация“, казват изследователите в изследването.

Системите с изкуствен интелект могат самостоятелно да развиват социални норми

Те подчертават, че системите за ИИ могат автономно да развиват социални конвенции без изрично програмиране и че това има значение за проектирането на системи за ИИ, които да се съгласуват и да останат съгласувани с човешките ценности и обществените цели.

В техните експерименти групите от агенти на LLM варират по размер от 24 до 200 индивида, а във всеки експеримент двама агенти на LLM се свързват по двойки на случаен принцип и са помолени да изберат „име“ (напр. буква от азбуката или произволен низ от символи) от общ набор от възможности.

Ако и двамата агенти изберат едно и също име, те получават награда; ако това не стане, те получават наказание и им се показва изборът на другия, се посочва в съобщение за пресата.

Изследователите разкриват, че агентите са имали достъп само до ограничена памет за собствените си скорошни взаимодействия – не за цялата популация – и не са били информирани, че са част от група.

В продължение на много такива взаимодействия спонтанно може да възникне споделена конвенция за именуване в цялата популация, без централна координация или предварително определено решение, което имитира начина, по който се формират нормите в човешките култури.

Още по-забележително е, че екипът наблюдава колективни предразсъдъци, които не могат да бъдат проследени до индивидуалните агенти.

Източник: InterestingEngineering