Ръководителката на хардуерния отдел на OpenAI, Кейтлин Калиновски, заявява, че е напуснала компанията, след като изразила опасения относно неотдавнашното споразумение с Министерството на отбраната на САЩ.
В публикация в X тя посочва, че е предприела тази стъпка след решението на OpenAI да внедри своите AI модели в класифицираните облачни мрежи на Пентагона.
Според нея компанията е действала прибързано, за да финализира споразумението, без да остави достатъчно време за по-широка вътрешна и публична дискусия относно последствията.
Калиновски отбелязва, че макар изкуственият интелект да може да играе важна роля в националната сигурност, определени граници изискват много по-внимателно разглеждане.
Наблюдението на американски граждани без съдебен контрол и разработването на автономни смъртоносни системи без ясен човешки контрол са въпроси, които според нея изискват повече обсъждане, преди партньорството да продължи напред.
OpenAI защитава предпазните мерки след оставката на Калиновски
Бившият ръководител на хардуерния отдел заявява, че изпитва „дълбоко уважение“ към главния изпълнителен директор на OpenAI Сам Алтман и целия екип, но изтъква, че партньорството с Пентагона е било обявено, преди да бъдат определени ясни предпазни мерки.
„Това е преди всичко въпрос на управление. Тези въпроси са твърде важни, за да се бърза с договори или обявления“, пише Калиновски в последващ пост.
OpenAI заявява ден след обявяването на споразумението, че партньорството включва допълнителни предпазни мерки, предназначени да ограничат начините, по които може да се използва технологията. В събота компанията повтаря, че „червените линии“ забраняват приложения като вътрешно наблюдение или разгръщане на автономни оръжия.
В изявление пред Ройтерс компанията заявява, че разбира, че работата й в тази област може да предизвика силни реакции и дебати. Тя добавя, че планира да продължи да си сътрудничи със служители, представители на правителството, групи на гражданското общество и общности по целия свят, докато дискусията се развива.
Преди малко повече от седмица OpenAI разкрива партньорството си с Пентагона, след неуспешни преговори между Министерството на отбраната и компанията Anthropic, която търсеше гаранции, че изкуственият интелект няма да бъде използван за масово вътрешно наблюдение или напълно автономни оръжия.
Алтман подчертава човешкия надзор и правната защита
След като компанията подписва споразумението миналата седмица, Алтман обяснява, че договорът включва защитни мерки, подобни на тези, които са предмет на спорове в преговорите с Anthropic.
Технологичният лидер подчертава, че два от основните принципи на OpenAI за безопасност – забрана на масовото наблюдение в страната и гарантиране на човешка отговорност за употребата на сила, включително в автономни оръжейни системи – са отразени в споразумението с Пентагона.
Той добавя, че Министерството на отбраната е съгласно с тези принципи, е ги кодифицира в закони и политики и че договорът ги прилага на практика.
„Ние също ще изградим технически предпазни мерки, за да гарантираме, че нашите модели функционират както трябва – нещо, което Министерството на отбраната също поиска. Ще разположим FDE специалисти, които да подпомагат работата с моделите и да гарантират тяхната безопасност, като внедряването ще бъде само в облачни мрежи“, пише Алтман в X.
Той добавя, че компанията призовава Министерството на финансите на САЩ да разшири същите условия за всички AI фирми, като аргументира, че тези условия трябва да бъдат валидни за цялата индустрия. Той добавя, че OpenAI предпочита да разрешава конфликтите чрез практически споразумения, а не чрез правни или правителствени действия.
Според медийни съобщения Алтман също така е казал на служителите по време на общо събрание, че правителството ще позволи на OpenAI да разработи свой собствен „пакет от мерки за безопасност“, за да предотврати злоупотреби. Той подчерта, че ако AI моделът откаже да изпълни задача, правителството няма да принуди компанията да пренебрегне този отказ.
Източник: InterestingEngineering

































