Начало Технологии Иновации Deadbots могат да говорят вместо вас след смъртта ви. Колко етично е...

Deadbots могат да говорят вместо вас след смъртта ви. Колко етично е това?

Машинното обучение и AI може да са отишли ​​твърде далеч.

Системите за машинно обучение все повече проникват в ежедневието ни, предизвиквайки моралните и социални ценности и правилата, които ги управляват.

Виртуалните асистенти застрашават поверителността на дома ни; препоръчителите на новини оформят начина, по който разбираме света; системите за прогнозиране на риска подсказват на социалните работници кои деца да защитават от злоупотреба; докато инструментите за наемане, управлявани от данни, класират шансовете ви за намиране на работа.

Въпреки това, етиката на машинното обучение остава неясна за мнозина.

И ето, че стигаме до случая с Джошуа Барбо, 33-годишен мъж, който използва уебсайт, наречен Project December, за да създаде робот – чатбот – който да симулира разговор с починалата му годеница Джесика.

Чатботи, имитиращи мъртви хора

Известен като deadbot, този тип чатбот позволява на Барбо да обменя текстови съобщения с виртуалната „Джесика“.

Project December е създаден от разработчика на игри Джейсън Рорър, за да даде възможност на хората да персонализират чатботове с личността, с която искат да взаимодействат, при условие че са платили за това.

Проектът е изграден на базата на API на GPT-3, езиков модел за генериране на текст от изследователската компания за изкуствен интелект OpenAI.

Случаят на Барбо отвори разрив между Рорър и OpenAI, тъй като насоките на компанията изрично забраняват GPT-3 да се използва за сексуални, любовни, самонараняващи или тормозни цели.

Наричайки позицията на OpenAI хиперморалистична и твърдейки, че хора като Барбо са „отговорни възрастни“, Рорър закри GPT-3 версията на Project December.

Макар че всички може да имаме различно усещане за това, дали е правилно или грешно да се разработва мъртъв бот с машинно обучение, изясняването на неговите последици едва ли е лесна задача. Ето защо е важно да разгледаме етичните въпроси, повдигнати от случая, стъпка по стъпка.

Достатъчно ли е съгласието на Барбо, за да разработи мъртвия бот на Джесика?

Тъй като Джесика е истински (макар и мъртъв) човек, съгласието на Барбо за създаването на чатбот, който я имитира, изглежда недостатъчно.

Дори когато умрат, хората не са просто неща, с които другите могат да правят каквото си искат. Ето защо нашите общества смятат, че е погрешно да се осквернява или да се проявява неуважение към паметта на мъртвите.

С други думи, ние имаме определени морални задължения към мъртвите, доколкото смъртта не означава непременно, че хората престават да съществуват по морално релевантен начин.

По същия начин е открит дебатът дали трябва да защитаваме основните права на мъртвите (например поверителност и лични данни).

Разработването на мъртъв бот, възпроизвеждащ нечия личност, изисква големи количества лична информация, като данни от социалните мрежи, които доказано разкриват силно чувствителни черти. 

Ако сме съгласни, че е неетично да се използват данните на хората без тяхното съгласие, докато са живи, защо трябва да е етично да се прави това след смъртта им? В този смисъл при разработването на deadbot изглежда разумно да се поиска съгласието на този, чиято личност ще се генерира – в този случай Джесика.

Ако човек даде зелена светлина за това докато е жив

Следователно вторият въпрос е: дали съгласието на Джесика ще бъде достатъчно, за да се счита създаването на нейния deadbot за етично? Ами ако се превърне в нещо унизително за нейната памет?

Границите на съгласието наистина са спорен въпрос. Вземете за парадигматичен пример „Ротенбургския канибал“, който е осъден на доживотен затвор, въпреки факта, че жертвата му се е съгласила да бъде изядена.

В тази връзка се твърди, че е неетично да се съгласяваме с неща, които могат да бъдат вредни за нас самите, било то физически (да продаваме собствените си жизненоважни органи) или абстрактно (да отчуждаваме собствените си права).

В какво конкретно отношение нещо може да бъде пагубно за мъртвите е особено сложен въпрос. Но, дори и мъртвите да не могат да бъдат наранени или обидени по същия начин като живите, това не означава, че те са неуязвими за лоши действия, нито че такива действия са етични.

Мъртвите могат да понесат вреди на своята чест, репутация или достойнство, а неуважението към мъртвите вреди и на близките им. Нещо повече, лошото отношение към мъртвите ни води до общество, което е по-несправедливо и по-малко уважително към достойнството на хората като цяло.

И накрая, като се има предвид гъвкавостта и непредсказуемостта на системите за машинно обучение, съществува риск това, за което имитираното лице е дало съгласие (приживе), да се разминава с крайния резултат.

Като се има предвид всичко това, изглежда разумно да се заключи, че ако разработката или използването на мъртвия бот не съответства на това, с което имитираното лице се е съгласило, съгласието трябва да се счита за невалидно. Освен това, ако това явно и умишлено накърнява тяхното достойнство, дори тяхното съгласие не трябва да е достатъчно, за да се счита за етично.

Кой носи отговорност?

Съвсем друг въпрос е дали системите с изкуствен интелект трябва да се стремят да имитират какъвто и да е вид човешко поведение (независимо дали това е възможно).

Четвъртият етичен въпрос е кой носи отговорност за резултатите от мъртвия бот – особено в случай на вредни ефекти.

Представете си, че мъртвият бот на Джесика самостоятелно се е научил да действа по начин, който унижава паметта й или необратимо уврежда психичното здраве на Барбо. Кой би поел отговорност?

Експертите по ИИ отговарят на този хлъзгав въпрос чрез два основни подхода: първо, отговорността пада върху онези, които участват в проектирането и разработването на системата, стига да го правят според техните специфични интереси и мироглед; второ, системите за машинно обучение са зависими от контекста, така че моралните отговорности на техните резултати трябва да бъдат разпределени между всички агенти, взаимодействащи с тях.

Първо, би било трудно да се търси отговорност на OpenAI, след като изрично забранява използването на системата си за сексуални, любовни, самонараняващи или тормозни цели.

Изглежда разумно да се припише значително ниво на морална отговорност на Рорър, защото той: (1) проектира системата, която направи възможно създаването на мъртвия бот; 2) прави го, без да предвижда мерки за избягване на потенциални неблагоприятни резултати; (3) наясно е, че не спазва насоките на OpenAI; и (4) печели от това.

И тъй като Барбо е персонализирал мъртвия бот, изхождайки от конкретни черти на Джесика, изглежда законно да се държи отговорен, в случай че това накърни паметта й. 

Етично, при определени условия

И така, етично ли е да се разработва мъртъв бот с машинно обучение, бихме могли да дадем утвърдителен отговор при условие, че:

  • както лицето, което имитира, така и този, който персонализира и взаимодейства с него, са дали своето свободно съгласие за възможно най-подробно описание на дизайна, разработката и използването на системата;
  • забранени са разработки и употреби, които не се придържат към това, с което имитираното лице се е съгласило или които противоречат на неговото достойнство;
  • хората, участващи в неговото развитие и тези, които печелят от него, поемат отговорност за потенциалните му отрицателни резултати. Както със задна дата, за отчитане на случилите се събития, така и в перспектива, за активно предотвратяване на случването им в бъдеще.

Този случай илюстрира защо етиката на машинното обучение има значение. Той също така илюстрира защо е важно да се започне публичен дебат, който може да информира по-добре гражданите и да ни помогне да разработим политически мерки, за да направим системите за изкуствен интелект по-отворени, социално справедливи и в съответствие с основните права. 

Източник: The Conversation