
Taylor & Francis
„Изправени сме пред почти гарантирано събитие с потенциал да причини екзистенциална катастрофа“, казва д-р Роман В. Ямполски.
Експерт в областта на изкуствения интелект (AI) е извършил задълбочено проучване на научната литература за AI и е стигнал до заключението, че няма доказателства в подкрепа на идеята, че AI може да бъде контролиран безопасно.
Освен това, дори ако има някои механизми или методи, предложени за контролиране на AI, д-р Роман В. Ямполски смята, че тези мерки няма да са достатъчни, за да гарантират безопасността.
Д-р Ямполски е доцент в университета в Луисвил, който е публикувал резултатите от своите изследвания в книгата, озаглавена „AI Unexplainable, Unpredictable, Uncontrollable.“
Неговата работа по безопасността на изкуствения интелект е частично финансирана от Илон Мъск и Future of Life Institute (FLI), които са основани от Макс Тегмарк, професор в MIT и Яан Талин, съосновател на Skype.
FLI е същият институт, който поиска шестмесечен мораториум върху разработването на инструменти за изкуствен интелект, по-мощни от GPT-4 на OpenAI.
Отвореното писмо на института е подписано от над 33 000 души, включително Мъск, съоснователят на Apple, Стив Возняк, „кръстникът на изкуствения интелект“ Йошуа Бенджио и други експерти.
Загриженост относно управлението и регулирането на рисковете от AI

С навлизането на нови AI инструменти на пазара през последната една година, д-р Ямполски предполага, че усъвършенстваните AI системи винаги ще представляват риск, въпреки потенциалните им ползи, поради присъщата им непредсказуемост и автономност.
„Защо толкова много изследователи приемат, че проблемът с контрола на AI е разрешим? Доколкото ни е известно, няма доказателства за това, никакви доказателства. Преди да се впуснете в мисията за изграждане на контролиран AI, е важно да докажем, че проблемът е разрешим“, казва д-р Ямполски в прессъобщение.
Развитието на суперинтелигентност е неизбежно

Тъй като AI, включително суперинтелигентността, може да се учи, адаптира и действа полуавтономно, става все по-голямо предизвикателство да се гарантира неговата безопасност, особено с нарастването на възможностите му.
Може да се каже, че суперинтелигентният AI ще има собствен ум. Тогава как да го контролираме? Дали законите на роботиката на Айзък Азимов, които установяват етично поведение между хората и роботите, все още важат за днешния свят?
Д-р Ямполски, чиято основна област на интерес е безопасността на AI, обяснява: „Изправени сме пред почти гарантирано събитие с потенциал да причини екзистенциална катастрофа. Нищо чудно, че мнозина смятат това за най-важния проблем, с който човечеството някога се е сблъсквало. Резултатът може да бъде просперитет или изчезване, а съдбата на Вселената виси на косъм“, добавя той.
Едно голямо предизвикателство са безкрайните потенциални решения и провали на свръхинтелигентните същества, което затруднява прогнозирането и смекчаването.
Освен това липсата на обяснение в решенията на AI поражда загриженост, тъй като разбирането на тези решения е от решаващо значение за намаляване на злополуките и осигуряване на резултати без пристрастия, особено в критични области като здравеопазването и финансите, където AI е проникнал.
С увеличаването на автономията на AI човешкият контрол намалява, което води до опасения за безопасността. Д-р Ямполски предлага баланс между способности и контрол, като признава, че суперинтелигентността може по своята същност да няма контролируемост.
Той също така обсъжда значението на привеждането в съответствие на AI с човешките ценности, като предлага методи за минимизиране на рисковете, като например да направи AI модифицируем, прозрачен и категоризиран като контролируем или неконтролируем.
Въпреки тези предизвикателства д-р Ямполски насърчава продължаването на изследванията и инвестициите в безопасността и сигурността на AI, като подчертава, че докато постигането на 100% безопасен AI може да е неуловимо, усилията за подобряване на безопасността си заслужават.
Източник: InterestingEngineering
































