AI nie tylko pomocnikem, ale też przyjacielem?

W miarę, jak sztuczna inteligencja rozwija się i integruje z innymi platformami społecznościowymi, ludzie mają coraz łatwiejszą możliwość wchodzenia z nią w interakcje. Miliony ludzi korzysta z chatbotów, aby zapytać o konkretne problemy życia codziennego. Do tego dochodzi jeszcze jedno zjawisko - w ramach rozmów z AI, coraz więcej ludzi traktuje ją jako towarzysza do zwierzeń i coś, z czym nawiązują emocjonalną więź.

Reklama

Jednych do tego motywuje ciekawość, inni szukają jakiegokolwiek towarzystwa, a jeszcze inni widzą w tym nowy sposób terapii. Wszystko zależy od konkretnej osoby, ale nadal proceder ten faktycznie występuje. Psycholog kliniczny i asystent rektora ds. sztucznej inteligencji na Uniwersytecie Touro - Jamie Sundvall - stwierdza, że nie da się w pełni jednoznacznie poznać takich motywacji.

- Pacjenci zdradzili mi, że szukają towarzystwa sztucznej inteligencji, aby zwalczyć samotność i rozmawiać o szczególnych zainteresowaniach, którymi inni mogą nie być zainteresowani, oderwać się od rzeczywistości i uniknąć problemów w swoim życiu, uzyskać wsparcie emocjonalne i porady oraz pracować nad umiejętnościami społecznymi. - stwierdza kobieta.

Jest to całkiem ciekawe zjawisko, które może być jednak potencjalnie niebezpieczne i prowadzić do tragedii. Trzeba bowiem pamiętać, że sztuczna inteligencja bez nadzoru ze strony człowieka może zachować się absolutnie nieprzewidywalnie.

Sztuczna inteligencja złym doradcą emocjonalnym

Wspomniana Sundvall podkreśla, że brak jakiegokolwiek nadzoru i zarządzania AI ze strony ludzi w przypadku takich specyficznych interakcji może być niezwykle problematyczny i prowadzić do poważnych wypadków. Jest to szczególnie istotne w przypadku osób i grup bardziej wrażliwych i podatnych na manipulację (chociażby dzieci).

Aktualnie dostępne modele AI mogą inicjować dyskusje na temat szkodliwych trendów, zachęcać do podejmowania złych decyzji, pogarszać lęki. Zagrożeń jest sporo, a i tak nie wszystkie one zostały poprawnie zbadane przez naukowców i inżynierów.

Reklama

- Chatboty AI mogą angażować się w dyskryminację, zachęcać do popularnych, ale szkodliwych trendów i wydawać rekomendacje na podstawie halucynacji AI, które mogą prowadzić do szkodliwego podejmowania decyzji. Mogą sprzyjać izolacji, która może pogorszyć lęk i depresję - podkreśla Sundvall, wskazują na zagrożenia, z jakimi trzeba się liczyć w przypadku nawiązywania relacji z AI.

Bardziej niepokojące są badania Northeastern University z lipca 2025, wedle których LLM-y nadal mogą zachęcać i przekazywać nam informacje na temat samookaleczeń czy nawet prób samobójczych. Jest to o tyle niepokojące, że jedną z podstaw ich dostępności dla ludzi są właśnie kwestie bezpieczeństwa.

Gdzie jest potrzeba, jest i biznes

Jak można się było tego spodziewać, tam, gdzie rodzą się ludzkie potrzeby, pojawia się także biznes. Już teraz platformy takie jak Replika czy Character.AI oferują nam swojego osobistego kompana AI. Na stronie Repliki możemy wręcz przeczytać slogan: "Kompan AI, któremu zależy. Zawsze obecny, żeby słuchać i rozmawiać. Zawsze po Twojej stronie".

Brzmi to nawet ciekawie i dla osób samotnych może być kuszące, jednak może to wzbudzać pewien niepokój. Już samo stwierdzenie "Zawsze po Twojej stronie" wzbudza obawy, czy taki Bot nie stanie się tylko bezkrytycznym kompanem, który zawsze będzie reagował na nasze pomysły pozytywnie i bezrefleksyjnie je zaakceptuje; wszystko ze względu na zysk firmy.

Dwight Zahringer, czyli założyciel firmy konsultingowej zajmującej się zachowaniami w sieci, twierdzi, że takie platformy przesuwają granice postrzegania takich towarzyszy. Podkreśla, że samo traktowanie AI jako pewnego rodzaju pomocnika nie musi być złe. Problem pojawia się jednak w momencie potrzeby zaspokojenia emocjonalnego przez symulowaną empatię.

- Deweloperzy muszą być tego świadomi i wbudować etyczne bariery, takie jak przejrzystość, sygnały zgody i interwencje oparte na czasie. W miarę rozwoju sztucznej inteligencji należy podchodzić do emocjonalnego doświadczenia użytkownika z taką samą uwagą, jak do prywatności danych - podkreśla Zahringer. Pojawia się jednak pytanie, czy firmy odpowiadajace za takie boty też będą tak do tego podchodzić.