Главният изпълнителен директор на OpenAI Сам Алтман наскоро казва, че иска ChatGPT да документира и запомня всичко от живота на човека.
Той прави този коментар по време на събитие за изкуствен интелект, когато потребител го попита как ChatGPT може да стане по-персонализиран.
Aлтман подчертава, че идеята е за модел за разсъждение с „трилиони токени контекст“, който може да съхранява разговорите, имейлите и материалите за четене на потребителя.
ChatGPT може да запомни целия си жизнен път
„Всеки разговор, който някога сте имали в живота си, всяка книга, която някога сте чели, всеки имейл, който някога сте прочели, всичко, което някога сте гледали, е там, плюс е свързано с всичките ви данни от други източници. И животът ви просто продължава да се добавя към контекста“, обяснява Алтман по време на неотдавнашното събитие за изкуствен интелект, организирано от Sequoia.
Той също така посочва, че това би могло да стане възможно, тъй като много млади потребители в колежа го използват като операционна система.
Такива потребители качват файлове, свързват източници на данни и след това използват „сложни подкани“ спрямо тези данни. Той дори анализира, че младите потребители всъщност не вземат решения за живота си, без да питат ChatGPT.
Младите потребители виждат в ChatGPT съветник за живота
Алтман уточнява, че за по-възрастните хора ChatGPT е като заместител на Google, докато за младите потребители, хората на 20 и 30 години, той е съветник за живота.
Логичната прогресия изглежда ясна – ChatGPT се превръща във всезнаещ спътник с изкуствен интелект. В комбинация с автономните агенти, които в момента се разработват в Силициевата долина, това създава примамливи възможности.
Представете си ИИ, който автоматично планира поддръжката на автомобила, планира пътувания за далечни събития или предварително поръчва следващия том от любимата ви поредица книги.
Алтман иска ChatGPT да се превърне във всезнаеща система с изкуствен интелект. Това обаче може да е опасно, тъй като потребителите може да не се доверят на голяма технологична компания с идеална цел да знае всичко за живота им. Потребителите може да се опасяват от злоупотреба с личните им данни и други видове рискове.
Освен това чатботовете могат да се държат по начин, който да е в полза на политическа група или да обслужва корпоративни цели с помощта на чувствителни и лични данни.
Неотдавна е забелязано, че някои чатботове се съобразяват с изискванията на Китай за цензура, докато други предоставят отговори, които подкрепят специална идеология.
Миналия месец ChatGPT стана толкова приятен, че направо се превърна в подмазвач. Потребителите започнаха да споделят снимки на екрана, на които ботът аплодира проблемни, дори опасни решения и идеи.
Алтман бързо реагира, като обеща, че екипът е поправил настройката, която е причинила проблема. Дори и най-добрите и надеждни модели от време на време просто си измислят неща, съобщава TechCrunch.
Един асистент с изкуствен интелект, който знае всичко за живота ни, би могъл да предлага изгодни съвети, като помага на потребителите да вземат перфектни решения в живота си. Въпреки това злоупотребата с данни в полза на компанията може да остане сериозен проблем при използването на такива модели с изкуствен интелект.
Източник: InterestingEngineering

































