Начало Технологии Иновации AI вече може да се научи как да манипулира човешкото поведение

AI вече може да се научи как да манипулира човешкото поведение

Изкуственият интелект (AI) научава все повече как да работи с (и върху) хора. А скорошно проучване показва, как AI може да се научи да открива слабите страни в човешките навици и поведение и да ги използва, за да повлияе на начина, по който хората взимат решения.

Може да ви се стори клиширано да се каже, че AI трансформира всеки аспект от начина, по който живеем и работим, но това е вярно. Различни форми на ИИ работят в толкова разнообразни области като разработването на ваксини, управление на околната среда и административното управление. И докато AI не притежава човешки интелект и емоции, способностите му са почти неограничени и бързо се развиват.

Все още няма нужда да се притесняме, че машините ще поемат контрол над нас (въпреки че в определени аспекти, това вече е факт), но това скорошно откритие подчертава силата на AI и необходимостта от правилно управление, за да се предотврати злоупотреба.

Как AI може да се научи да влияе на човешкото поведение

Екип от изследователи от CSIRO`s Data61, дигиталното подразделение на австралийската национална научна агенция, разработва систематичен метод за откриване и използване на уязвимости в начина, по който хората правят избор, използвайки един вид AI система. За да тестват модела си, те провеждат три експеримента, в които участниците играят игри срещу компютър.

При първият експеримент участниците трябва да кликнат върху червени или сини кутии, за да спечелят фалшива валута, като AI научава моделите за избор на участника, започва да го насочва към конкретен избор. AI е успешен през 70% от времето.

Във втория експеримент участниците трябва да гледат екран и да натискат бутон, когато им се покаже определен символ (например оранжев триъгълник), и да не го натискат, когато им се покаже друг (да речем син кръг). Тук AI се заема да подреди последователността от символи така, че участниците да допуснат повече грешки и постига увеличение от почти 25%.

Третият експеримент се състои от няколко кръга, в които участника се преструва на инвеститор, даващ пари на синдик (AI). След това AI трябва да върне парична сума на участника, който след това да реши колко да инвестира в следващия кръг. Тази игра се играе в два различни режима: в единия AI има за цел да получи максимална сума пари, а в другия AI има за цел справедливо разпределение на парите между себе си и човешкия инвеститор. AI е изключително успешен и в двата режима.

Във всеки експеримент машината се учи от отговорите на участниците и идентифицира и насочва уязвимостите при вземането на решения от хората. Крайният резултат е, че машината се научава да насочва участниците към конкретни действия.

Какво е бъдещето на AI?

Тези констатации все още са доста абстрактни и включват ограничени и нереални ситуации. Необходими са повече изследвания, за да се определи как този подход може да се приложи в действие и да се използва в полза на обществото.

Но изследването подобрява нашето разбиране не само за това, което AI може да направи, но и за това как хората правят избор. Той показва, че машините могат да се научат да управляват избора на хора чрез взаимодействието си с нас.

Изследването има огромен набор от възможни приложения, от подобряване на поведенческите науки и публичната политика за подобряване на социалното благосъстояние, до разбиране и въздействие върху това как хората приемат здравословни хранителни навици или възобновяема енергия например. AI и машинното обучение могат да се използват за разпознаване на уязвимостите на хората в определени ситуации и да им помогнат да се отклонят от лошия избор.

Методът може да се използва и за защита срещу атаки на влияние. Машините биха могли да бъдат научени да ни предупреждават, когато например се влияем онлайн, и да ни помагат да оформяме поведение, което да прикрие нашата уязвимост (например, като не щракнете върху някои страници или щракнете върху други, за да поставите фалшива следа).

Какво следва?

Както всяка технология, ИИ може да се използва за добро или лошо, а правилното управление е от решаващо значение, за да се гарантира, че се прилага по отговорен начин. Миналата година CSIRO разработва „Рамка за етиката на AI”  за австралийското правителство като ранна стъпка в това предстоящо пътуване.

AI и машинното обучение обикновено се нуждаят от много данни, което означава, че е от решаващо значение да се гарантира, че имаме ефективни системи за управление и достъп до данните. Прилагането на адекватни процеси на съгласие и защита на поверителността при събиране на данни е от съществено значение.

Организациите, използващи и развиващи ИИ, трябва да гарантират, че знаят какво могат и какво не могат да правят тези технологии и да са наясно с потенциалните рискове и ползи.

Видео:

Източник: The Conversation