Начало Технологии Иновации Да по-Chat-им (GPT) малко за AI!

Да по-Chat-им (GPT) малко за AI!

Снимка: Алиант

Рисковете при работа с Chat AI за хората и бизнеса

AI е основна тема на разговор след излизането на версия 4 на ChatGPT. Развитието на оригиналната версия от едва ноември 2022 наистина показва скоростта, с която се движи технологичният свят.

Не е чудно, че GPT-4 генерира огромен интерес, имайки предвид потенциала си да промени посоката на развитие на бизнеса и начина на живот на хората (както и технофобията, която идва с напредъка). За някои сме свидетели на нова ера в автоматизацията, която ще улесни живота ни, докато за други се материализира кошмар от сериала Black Mirror. И все пак, знаем ли какво е Chat AI и как GPT-4 е различен?

Какво е AI?

ChatAI е подраздел на AI, който срещаме все по-често – когато използваме уебсайтове с интерактивни чатове за обслужване на клиенти (известни като чатботове). ChatGPT е пионер в тази бързо развиваща се технология.

Накратко, ChatAI приема входни данни като въпроси, изображения или видео емисия и предоставя изходни данни като отговори, решения или информация. Целта е да се създадат машини, които да работят като човешкия интелект, да разпознават реч, да разбират различни езици и да вземат решения.

Колкото и добър да е дори най-сложният ChatAI обаче, той не е съвършен. Съществуват множество сигнали за отклонения и неточности в получаваните резултати, но също е установено и че изкуственият интелект е способен да се учи и да подобрява резултатите си.

Технологията, която е в основата на ChatGPT, разчита отчасти на техника, позната като Reinforcement Learning from Human Feedback, която обучава изкуственият интелект какви са очакванията на потребителите, когато зададат въпрос. Това може да бъде нож с две остриета. Човешкото разбиране помага за генерирането на по-точни резултати, но също така привнася в тези резултати пристрастия и предразсъдъци, присъщи на учителите в реалния живот.

Точно както човешкият принос може да изкриви качеството на резултатите, размерът и обхватът на набора от данни, достъпни за технологията, също ще повлияят на производителността. Разработчиците непрекъснато се сблъскват с подобни казуси и възможностите за смекчаване на тяхното въздействието в ChatGPT.

GPT-4 се описва от компанията за разработка на изкуствен интелект – OpenAI като притежаващ „по-широки общи познания и способности за решаване на проблеми“. Версията може да обработва 25 000 думи наведнъж, което я прави 8 пъти по-мощна от своя предшественик. Вече може да се учи от изображения – например да създаде рецепта по снимка на съставки – или да обработи информация, която му давате, като композиране на песни, писане на сценарии или използване на вашия стил на писане.

OpenAI твърди също, че новата версия е по-безопасна и по-точна. Има 82% по-малка вероятност да отговори на заявки за забранено съдържание и е 40% по-вероятно да предостави информация, основаваща се на факти, в сравнение с предишната версия.

Свързани с ChatAI рискове

Колкото по-разпространен става ChatGPT, толкова по-важно е да оценим рисковете, които създава, и да разберем къде се крият свързаните с използването му наши отговорности.

Например, кой носи отговорност, ако неточна информация от чатбот доведе до предприемане на действия в служебно качество – от инженер, адвокат, счетоводител – които окажат негативно въздействие върху бизнеса или клиентите им?

А какво да кажем за използването на технологията в сферата на здравеопазването? Неправилна информация, генерирана от AI, може да доведе до грешна диагноза и неподходящо лечение на пациент. Кой ще носи отговорност, ако пациентът претърпи здравна вреда? Лекарят, медицинският център или доставчикът на технологията?

Интелектуалната собственост е друга област, в която ChatGPT създава значителни рискове, които трябва правилно да оценим и адресираме. Кой притежава съдържанието, създадено от AI-базиран чатбот? Разработчикът или потребителят? Винаги ще съществува и въпросът за собствеността на използваните за генериране на отговора материали и дали са били достъпени и/или използвани с разрешение.

Съществува опасност за използващите технологията да бъдат обвинени в нарушаване на интелектуалната собственост на друга компания. Обратно, те могат да открият, че трета страна е използвала тяхната интелектуална собственост без съответните разрешения. Защитата и/или предявяването на такива искове за интелектуална собственост може да бъде скъпо, сложно и времеемко.

Покрития за ChatAI рискове

Макар AI да изглежда като новост, застрахователната индустрия предоставя решения за тази технология, включително с покрития за професионална отговорност, нарушаване на интелектуална собственост и финтех рискове. Компаниите, работещи с AI, са изложени и на значителни рискове, свързани с изтичане на данни, така че застрахователните покрития могат да бъдат разширени с такива за кибер и GDPR пробиви на данни и ransomware.

Макар в България все още да не е на дневен ред, в световен мащаб бързо се развива и законодателството за AI-базирани технологии. С възникването на въпросите за отговорността, трябва да се обмисли цялостна политика, насочена към регулиране на редица проблеми за всички, които не само разработват изкуствен интелект, но и го използват.

За застрахователната индустрия, идентифицирането и правилното разбиране на възникващите отговорности ще бъде от решаващо значение за подпомагане на по-широкото използване на AI технологията и напредването на автоматизацията.

Ако ChatGPT е стигнал толкова далеч само за последните няколко месеца, какво ни очаква в близко бъдеще? Застрахователната индустрия би била небрежна, ако не поддържа темпото.

В случай, че имате въпроси относно ChatGPT или AI и как могат да бъдат застраховани технологичните рискове, можете да изпратите своето запитване на email: [email protected]