Google предприема значителна промяна в своите „Принципи за изкуствен интелект“, като премахва ключов ангажимент за избягване на използването на изкуствен интелект (ИИ) за вредни цели, като например оръжия и наблюдение.
Преди това компанията се ангажира да не използва технологии, чиято основна цел е да причиняват вреда или да улесняват нараняването на хора. Това включваше ИИ, използван за наблюдение, което нарушаваше международните норми.
Сега обаче тези обещания липсват в актуализираните ѝ принципи, които компанията споделя в неотдавнашна публикация в блога си.
Актуализираните принципи за ИИ идват в момент, когато Google се позиционира за по-голяма роля в индустрията на изкуствения интелект. Компанията прави стъпки в предлагането на своите технологии на правителствата и се фокусира върху нарастващото търсене на услуги с ИИ в световен мащаб.
В своя блог пост от вторник Демис Хасабис, главен изпълнителен директор на Google DeepMind, отбелязва, че глобалната конкуренция за лидерство в областта на ИИ се засилва. „Вярваме, че демокрациите трябва да са водещи в развитието на ИИ, водени от основни ценности като свобода, равенство и зачитане на човешките права“, пише Хасабис.
ИИ в управлението и глобалната конкуренция
Промяната в подхода на Google към ИИ е свързана и с нарастващото напрежение между САЩ и Китай в надпреварата за доминиране в областта на ИИ.
Шиам Санкар, главен технически директор на Palantir, коментира въпроса, заявявайки, че „ще са необходими усилията на цялата нация“, за да могат САЩ да спечелят надпреварата в областта на ИИ.
Тази идея става все по-разпространена в Силициевата долина, където компании като Google се стремят да увеличат държавните си поръчки. Този ход е сигнал за нов етап, в който компанията е по-малко фокусирана върху избягването на определени проекти и повече се съсредоточава върху потенциалните ползи от ИИ в сектори като националната сигурност.
В миналото Google е заявявала, че ще разглежда различни социални и икономически фактори, преди да се включи в проекти за изкуствен интелект. Новите принципи са преработени, за да отразят по-агресивна позиция: „ще действаме, когато смятаме, че общите вероятни ползи значително надвишават предвидимите рискове и недостатъци“.
Тази промяна повдигна въпроси относно готовността на компанията да осъществява по-рискови и високодоходни проекти, особено такива с потенциални военни приложения.
Вътрешна реакция и противоречия
Промяната в стратегията на Google за изкуствен интелект не минава без вътрешна съпротива. През 2018 г., след като няколко хиляди служители протестират, компанията решава да не подновява договора си за проекта Maven – правителствена инициатива, която включва използването на ИИ за анализ на кадри от дронове.
Служителите изразяват опасения, че този проект е стъпка към милитаризиране на ИИ, опасявайки се, че той може да бъде използван за смъртоносни цели. Този ход съответства на първоначалните принципи на компанията за ИИ, които подчертават важността на това да се гарантира, че технологиите са от полза за човечеството и зачитат човешките права.
Въпреки предишната позиция, неотдавнашният стремеж на компанията да си осигури държавни поръчки предизвиква търкания сред служителите ѝ. През 2023 г. компанията се сблъсква с вътрешни протести във връзка с проекта Nimbus – сделка за 1,2 млрд. долара с Amazon за предоставяне на облачни услуги и инструменти за изкуствен интелект на израелското правителство.
Въпреки възраженията на служителите, включително опасенията относно потенциалното използване на ИИ за наблюдение и военни приложения, ръководителите на Google твърдят, че договорът не нарушава нейните принципи за ИИ.
След подписването на договора за Nimbus компанията е подложена на критики за предоставянето на инструменти на ИИ на израелските военни, които включват технология за категоризиране на изображения и проследяване на обекти.
Документите разкриват, че преди да се съгласят на сделката, служителите на компанията са били загрижени за потенциалното въздействие върху репутацията на компанията, особено след като договорът може да бъде свързан с нарушения на човешките права.
Съобщава се, че вътрешните дискусии по тези геополитически въпроси са били ограничавани от компанията, което допълнително е подхранвало напрежението сред служителите на Google.
Бъдещи перспективи: Национална сигурност и глобални партньорства
Въпреки противоречията, Google продължава да подчертава значението на ИИ за глобалния растеж и националната сигурност.
В последната си публикация в блога компанията заявява, че вярва, че компаниите, правителствата и организациите, които споделят нейните ценности, трябва да работят заедно за създаването на изкуствен интелект, който защитава хората и насърчава международната стабилност.
Източник: InterestingEngineering

































