Според редици източници, технологичните милиардери, сред които Марк Зукърбърг, Сам Алтман и Рийд Хофман, строят или купуват бункери, тайни комплекси и разработват планове за „застраховка срещу апокалипсис“.
Това кара хората да се чудят дали те знаят нещо, което ние не знаем, като например предстояща катастрофа, причинена от изкуствен интелект (AI), климатични промени или война. Въпреки това, нов доклад на BBC установява, че такива страхове вероятно са преувеличени или неоснователни.
Експертите по темата са склонни да се съгласят, че разговорите за изкуствен общ интелект (AGI) или изкуствен интелект, който е умен, колкото или повече от хората, може да са по-скоро рекламен трик и маркетинг, отколкото неизбежна реалност.
Това обаче не спира милиардерите да „инвестират“ в отдалечени убежища и бункери. Зукърбърг, например, строи огромен комплекс в Хавай, за който се твърди, че разполага с огромно подземно убежище, въпреки че той отрича, че това е „бункер за края на света“.
Други фигури от технологичния сектор, като Рийд Хофман от LinkedIn, открито признават, че притежават имоти, които са „застраховка срещу апокалипсиса“ (особено в Нова Зеландия). Разбираемо е, че това поведение подхранва спекулациите в обществото, че свръхбогатите се подготвят за социален колапс, климатична катастрофа или излязъл извън контрол ИИ.
Бункери за края на света: застраховка или преувеличена реакция?
Някои в Силициевата долина, дори тези, които разработват усъвършенствана изкуствена интелигентност, искрено се страхуват от това, докъде може да доведе тази технология. Иля Суцкевер, съосновател на OpenAI, според слуховете е казал: „Определено ще построим бункер, преди да пуснем AGI.“
Според песимистите по отношение на AGI, идеята е, че след като AGI съществува, той може да бъде непредсказуем или неконтролируем, а може би и опасен за човечеството. Това се смесва с по-широки опасения за ядрена война, пандемии, климатичен колапс и социални вълнения – всички сценарии, които богатите смятат, че могат да преживеят в луксозни бункери.
Някои лидери в областта на технологиите (по-специално Сам Алтман, Демис Хасабис и Дарио Амодей) смятат, че AGI може да се появи в рамките на следващото десетилетие. Други, като професор Уенди Хол (професор по компютърни науки в Университета в Саутхемптън), казват, че това е силно преувеличено.
Тя заявява пред BBC, че все още сме далеч от постигането на нещо, което наистина да прилича на човешки разум. Научната общност казва, че технологията на изкуствения интелект е невероятна, обяснява тя, но е далеч от човешката интелигентност.
Днес изкуственият интелект може да анализира данни и да имитира разсъждения, но не разбира и не чувства. Той не е съзнателен, а просто предсказва думи или модели.
Така че много от разговорите за „близкото настъпване на AGI“ може да са маркетингови трикове, или с други думи, начин да се привлекат финансиране или внимание. Освен ултрабогатите, правителствата също са разделени по темата.
САЩ (под ръководството на Байдън) се опитват да регулират тестовете за безопасност на AI, докато настоящата администрация на Тръмп отменя това, наричайки го пречка за иновациите. От своя страна, Великобритания създава Институт за безопасност на AI, за да проучи и тези рискове.
Много шум за нищо
Някои учени предупреждават, че разговорите за „суперинтелигентен AI“ отвличат вниманието от по-неотложни проблеми като вградени предубеждения, дезинформация, загуба на работни места и концентрация на властта в големите технологични компании.
Експерти като професор Нийл Лорънс твърдят, че терминът „AGI“ е безсмислен, като посочват, че интелигентността винаги е контекстуална. Според него не съществува един-единствен вид „обща интелигентност“.
Той го сравнява с представата за „изкуствено общо превозно средство“, което може да лети, плава и кара еднакво добре, което очевидно не е реалистично. Вместо да се тревожим за изкуствен интелект на ниво фантастика, той казва, че трябва да се съсредоточим върху това как настоящият изкуствен интелект вече оформя властта, икономиката и обществото.
Както посочва статията на BBC, „подготовката за края на света“ на милиардерите отразява смесица от неща, като истинския страх от загуба на контрол над мощни технологии. Това може да бъде и форма на демонстрация на статус, при която свръхбогатите ефективно показват богатството и предпазливостта си.
Какъвто и да е случаят, научният консенсус е, че AGI и „суперинтелигентността“ не са зад ъгъла и че трябва да се притесняваме повече за това как настоящият AI вече преобразува обществата.
Източник: InterestingEngineering

































