Китайски изследователи твърдят, че са открили доказателства, че големите езикови модели (LLM) могат да разбират и обработват естествени обекти като хората. Те предполагат, че това се случва спонтанно, дори без да са били изрично обучени за това.
Според изследователите от Китайската академия на науките и Южнокитайския технологичен университет в Гуанджоу някои изкуствени интелектуални активи (като ChatGPT или Gemini) могат да отразяват ключова част от човешкото познание, а именно сортирането на информация.
Тяхното проучване, публикувано в Nature Machine Intelligence, изследва дали LLM моделите могат да развият когнитивни процеси, подобни на тези при представянето на човешки обекти. Или, с други думи, да се установи дали LLM моделите могат да разпознават и категоризират неща въз основа на функция, емоция, среда и т.н.
LLM създават концептуални измерения, точно както хората
За да разберат дали това е така, изследователите дават на ИИ задачи с „нечетен“ текст (за ChatGPT-3.5) или изображения (за Gemini Pro Vision). За тази цел те събират 4,7 милиона отговора за 1854 естествени обекта (като кучета, столове, ябълки и автомобили).
Те установяват, че моделите създават шестдесет и шест концептуални измерения за организиране на обектите, точно както биха направили хората. Тези измерения се простират отвъд основните категории (като „храна“), за да обхванат сложни атрибути, включително текстура, емоционална значимост и пригодност за деца.
Учените установяват също, че мултимодалните модели (съчетаващи текст и изображение) се доближават още повече до човешкото мислене, тъй като изкуствените интелекти обработват едновременно визуални и семантични характеристики.
Освен това екипът открива, че данните от мозъчното сканиране (невроизображения) разкриват припокриване между начина, по който ИИ и човешкият мозък реагират на обекти.
Констатациите са интересни и изглежда предоставят доказателства, че системите с изкуствен интелект могат наистина да „разбират“ по начин, подобен на човешкия, а не само да имитират реакции.
Освен това се предполага, че бъдещите ИИ биха могли да имат по-интуитивно и съвместимо с човека мислене, което е от съществено значение за роботиката, образованието и сътрудничеството между човека и ИИ.
Въпреки това е важно да се отбележи също, че LLM не разбират обектите по начина, по който хората ги разбират емоционално или емпирично.
Разбирането на ИИ не се основава на житейски опит
ИИ работят чрез разпознаване на модели в езика или изображенията, които често отговарят в голяма степен на човешките понятия. Макар че на пръв поглед това може да изглежда като „разбиране“, то не се основава на житейски опит или обосновано сетивно-двигателно взаимодействие.
Освен това някои части от представите на ИИ могат да корелират с мозъчната дейност, но това не означава, че те могат да „мислят“ като хората.
Резултатите от изследването предполагат, че LLM и хората може би се доближават до сходни функционални модели, като например организиране на света в категории. Това оспорва мнението, че изкуствените интелекти могат да „изглеждат“ умни само чрез повтаряне на модели в данните.
Но ако, както се твърди в проучването, LLMs започват да изграждат самостоятелно концептуални модели на света, това би означавало, че може да се доближаваме до изкуствения общ интелект (AGI) – система, която може да мисли и разсъждава по много задачи като човек.
Можете да се запознаете с проучването в списание Nature Machine Intelligence.
Източник: InterestingEngineering

































