Идеята за унищожаване на човечеството от изкуствен интелект се обсъжда в продължение на много десетилетия и учените току-що издадоха своята присъда, дали ще можем да контролираме компютърен суперинтелект на високо ниво. Отговорът? Почти сигурно не.
Уловката е, че контролирането на супер-интелигентност, далеч над човешкото разбиране, ще изисква симулация на тази супер-интелигентност, която да можем да анализираме. Но ако не можем да го разберем, е невъзможно да създадем такава симулация.
Правила като „не причинявай вреда на хората“ не могат да бъдат определени, ако не разбираме видовете сценарии, които AI ще измисли, смятат авторите на нов доклад. След като компютърната система работи на ниво над обхвата на нашите програмисти, вече не можем да задаваме ограничения.
„Суперинтелигентността поставя принципно различен проблем от този, който обикновено се изучава под наименованието „ етика на роботите “, пишат изследователите.
„Това е така, защото свръхинтелекта е многостранен и следователно потенциално способен да мобилизира разнообразие от ресурси, за да постигне цели, които са потенциално неразбираеми за хората, камо ли да бъдат контролирани.“
Част от разсъжденията на екипа идват от проблема със спирането, предложен от Алън Тюринг още през 1936 г. Проблемът се фокусира върху това дали компютърната програма ще стигне до заключение и отговор (така че да спре) или просто ще работи завинаги, опитвайки се да намери такъв.
Всяка програма, написана за спиране на изкуствен интелект, който вреди на хората и унищожава света, например, може да стигне до заключение (и да спре) или не – математически е невъзможно да сме абсолютно сигурни и в двата варианта, което означава, че не може да бъде контролирано.
„Всъщност това прави алгоритъма за ограничаване неизползваем“, казва компютърния учен, Ияд Раван, от Института за човешко развитие Макс-Планк в Германия.
Алтернативата за преподаване на някаква етика на изкуствения интелект и казването му да не унищожава света – нещо, в което нито един алгоритъм не може да бъде абсолютно сигурен, казват изследователите – е да се ограничат възможностите на свръхинтелекта. Може например да бъде отрязан от части от интернет или от определени мрежи.
Новото проучване отхвърля тази идея, предполагайки, че това ще ограничи обхвата на изкуствения интелект – аргументът гласи, че ако няма да го използваме за решаване на проблеми извън обхвата на хората, тогава защо изобщо да го създаваме?
Ако ще продължим напред с изкуствения интелект, може дори да не знаем, кога достига суперинтелигентност, която е извън нашия контрол, такава е неговата неразбираемост. Това означава, че трябва да започнем да си задаваме сериозни въпроси относно посоките, в които вървим.
„Супер интелигентна машина, която контролира света, звучи като научна фантастика“, казва компютърният учен Мануел Себриан от Института за човешко развитие Макс-Планк. „Но вече има машини, които изпълняват определени важни задачи независимо, без програмистите да разбират напълно как са го научили.“
„Поради това възниква въпросът, дали това в един момент може да стане неконтролируемо и опасно за човечеството.“
Изследването е публикувано в Journal of Artificial Intelligence Research .

































