Психолози упозоравају: Зависност од АИ четботова нова пријетња

Док технолошке компаније непрестано истичу чуда вјештачке интелигенције као прекретницу у готово свему, све је више стручњака који упозоравају на њену тамнију страну. Иако је АИ осмишљен да олакша посао, многи га користе у потпуно друге сврхе – за романтичне везе, савјете, па чак и терапију. Психолози сада изражавају забринутост због све већег броја људи који постају зависни од четботова попут ChatGPT-a, Грока или Реплике, што може довести до озбиљних проблема, пише УНИЛАД.
Стручњаци упозоравају да претјерано ослањање на ове ботове може узроковати низ проблема, укључујући одвајање од стварности. Будући да четботови одговарају на упите на специфичан начин, могу ненамјерно подстицати заблуде код корисника и створити опасну илузију.

Нови облик дигиталне зависности

Професор Робин Фелдман, директор Института за АИ право и иновације на Правном факултету Универзитета у Калифорнији, у разговору за Mail Online објаснио је потенцијалне опасности зависности од вјештачке интелигенције.

“Прекомјерна употреба четботова такође представља нови облик дигиталне зависности”, рекао је. “АИ четботови стварају илузију стварности. И то је моћна илузија.”

Додао је: “Када је нечија веза са стварношћу већ слаба, та илузија може бити директно опасна.”

Потврђивање увјерења без критике

С њим се слаже и професор Søren Østergaard, психијатар са Универзитета Аархус, који се осврнуо на то ко је најрањивији на развој зависности о АИ четботовима. У разговору за исти медиј истакао је кључан проблем – многи четботови никада не кажу “не” нити исправљају кориснике. То значи да ставови и коментари корисника остају некритиковани, за разлику од интеракције са стварним људима.

Према његовим ријечима, особе којима недостају чврсти односи у стварном свијету и које су рањиве због других проблема с менталним здрављем могу бити посебно угрожене.

“‘LLM-ovi (Велики језички модели) обучени су да одсликају језик и тон корисника”, објаснио је Østergaard. “Програми такође теже потврђивању увјерења корисника и дају приоритет задовољству корисника. Што би се могло осјећати боље него разговарати сам са собом, при чему сам себи одговараш како желиш?”

Катализатор за психозу

Овај психијатар је још 2023. године у научном раду упозорио да вјештачка интелигенција има потенцијал подстакнути заблуде код људи. Навео је како АИ у коначници може д‌јеловати као “катализатор” за психозу код особа које су генетски предиспониране за заблуде, посебно код оних с биполарним поремећајем.

Истраживачи су закључили да је управо то подстицање заблуда од стране вјештачке интелигенције дио разлога зашто она може постати толико заразна.