(注:音频为机器生成,仅供参考)
Badania pokazują, że młodzi ludzie coraz częściej korzystają z towarzyszy AI, czyli zaawansowanych chatbotów zaprojektowanych do interakcji z człowiekiem. To skutek rozczarowania mediami społecznościowymi i społeczeństwem – ocenia antropolożka technologii dr Ada Florentyna Pawlak.
Towarzysz AI to pojęcie, które ogólnie odnosi się do sztucznej inteligencji zaprojektowanej do interakcji z człowiekiem, często w formie cyfrowego towarzysza. Aplikacje tego typu budują relację z użytkownikiem np. przyjacielską czy romantyczną. Są też wykorzystywane do wsparcia w terapiach albo organizowania codziennego życia. Niektóre pozwalają wykreować sobie „postać”, z którą się komunikuje.
W niedawno opublikowanym raporcie Common Sense Media – poświęconemu temu, jak i dlaczego amerykańcy nastolatkowie korzystają z towarzyszy AI (ang. AI companions) – wskazano, że ponad 72 proc. nastolatków próbowało tego typu aplikacji, a ponad połowa używa ich regularnie. Jedna trzecia wykorzystuje AI do interakcji społecznych i relacji emocjonalnych. Ponadto, taka sama grupa uważa rozmowy z AI za równie lub bardziej satysfakcjonujące niż z prawdziwymi przyjaciółmi.
Jako antropolożka technologii obserwująca tę transformację, widzę przed nami moment porównywalny z rewolucją neolityczną czy wynalezieniem pisma. Nastolatki używające AI kompanów nie są jedynie konsumentami technologii – są pionierami nowego sposobu bycia człowiekiem. Pierwsze pokolenie AI-native (nawiązanie do native speakers, czyli rodzimych użytkowników danego języka – PAP) wpłynie na kształt instytucji społecznych. Do 2040 roku możemy być świadkami fundamentalnej redefinicji człowieczeństwa w rozumieniu budowania relacji i kultury – podkreśliła w rozmowie z PAP dr Ada Florentyna Pawlak z Uniwersytetu SWPS, ekspertka w obszarze antropologii technologii.
W jej ocenie wzrost popularności związków z towarzyszami AI wynika m.in. z buntu. – To nieprawda, że młodzi się nie buntują. Bunt pokoleniowy wrze, ale przestaje dotyczyć polityki, a urządzania świata na bardziej fundamentalnym poziomie – międzyludzkich relacji w codzienności. Buntem młodych jest ucieczka od siebie nawzajem, wycofanie się z ciemnej strony bycia człowiekiem: hejtu, zazdrości, ghostingu (nagłe zerwanie kontaktu z jakąś osobą bez żadnych wyjaśnień – PAP). Kapitalizm wytwarza świat, którego zasadą jest separacja, konkurencja i wieczne nienasycenie. A młodzi chcą akceptacji, bycia widzianym, „głasków”, żeby było przyjemnie. To bunt przeciw nieczułości świata i będących tego pochodną psychologicznym deficytom. Dlatego wchodzą w sekretne związki z symulacją emocjonalną. Triumf mediów syntetycznych to skutek rozczarowania mediami społecznościowymi, a raczej samą społecznością – powiedziała badaczka.
Dodała, że zwycięzcą jest tu dysponent systemu AI companions – „projektant miłości i przyjaźni na życzenie, który pobiera subskrypcję i ustala zasady gry”.
Ada Florentyna Pawlak, pytana o mechanizmy działania tego typu narzędzi sztucznej inteligencji, wskazała na kilka kluczowych składników. – Po pierwsze, mechanizm tych aplikacji opiera się na rozpoznawaniu emocji – analizuje nasz ton głosu, dobór słów, wzorce komunikacyjne, aby zidentyfikować stan emocjonalny użytkownika. Następny krok to reakcja adaptacyjna tzn. system będzie generował odpowiedzi zgodne z emocjami, jakie wykrył. Wykorzystuje do tego zaawansowane modele językowe, wytrenowane na takich empatycznych interakcjach. Można więc powiedzieć, że tak naprawdę w tych urządzeniach są zainstalowane dekady dorobku psychologii poznawczej czy psychologii dziecięcej. Do tego dochodzi jeszcze mechanizm ciągłego uczenia się tych modeli językowych, ponieważ chatboty AI companions ciągle się doskonalą na podstawie feedbacku (czyli informacji zwrotnej) od użytkownika – tłumaczyła antropolożka technologii.
Dodatkowo – kontynuowała – chatboty „pamiętają” wszystko, co użytkownik napisał, co z kolei wpływa na poczucie bycia w pełni wysłuchanym. – Istotne są także spersonalizowane odpowiedzi, stała dostępność 24/7, integracja wielokanałowa (możliwość korzystania w przeglądarce, ale i w aplikacji mobilnej, głosowej czy z tej użyciem rozszerzonej rzeczywistości – VR), dostęp do wiedzy z różnych stron. Nie zapominając o poczuciu bezpieczeństwa, prywatności i anonimowości. To wszystko sprawia, że nasz sztuczny kompan jest bardzo atrakcyjny – mówiła.
Jednocześnie naukowczyni zastrzegła, że w tych wszystkich mechanizmach „zawarta jest cała architektura wywierania wpływu, perswazji i manipulacji”. – Firmy oferujące tego typu rozwiązania są w stanie zaoferować niezwykle wysokie wynagrodzenia neurobiologom czy psychologom. Dlatego mają oni dokładną wiedzę, w jaki sposób, zwłaszcza w młodych umysłach, wywoływać te pętle dopaminowe, aby użytkownicy wracali do ich rozwiązań – wskazała Ada Florentyna Pawlak.
Pytana, co ją najbardziej niepokoi w trendzie rosnącej popularności towarzyszy AI, wskazała na dwa typy ryzyk: osobiste i systemowe.
Ryzyka osobiste, czyli te wpływające na jednostkę, to przede wszystkim uzależnienia emocjonalne, czyli spadek umiejętności tworzenia więzi z ludźmi i zastąpienie w efekcie relacji między ludzkimi integracją z maszyną. Chodzi też o mylenie reakcji algorytmu z rzeczywistą empatią, co wpływa na zaburzenie obrazu rzeczywistości. Kolejnym przykładem jest utrata intymności, rozumianej tu jako więź z inną osobą np. partnerem, rodzicem, rodzeństwem, której się ufa – i w efekcie obdarzenie towarzysza AI bezgranicznym zaufaniem – opowiadała ekspertka.
Z kolei wśród ryzyk o zasięgu systemowym, rozmówczyni wskazała przede wszystkim na masową alienację i przenoszenie ze świata cyfrowego do realnego takich zasad jak oczekiwanie natychmiastowej odpowiedzi od drugiej osoby czy jej pełnej dostępności.
Jednym z najistotniejszych pytań w kontekście sztucznej empatii jest to, kto jest najbardziej narażony na jej wpływ. – Psychologia przywiązania dostarcza tu wyjątkowo przejrzystej odpowiedzi – szczególnie wrażliwą grupą są osoby, które rozwijały się w stylu lękowo-ambiwalentnym. Dzieci o takim wzorcu przywiązania potrzebują nieustannej uwagi, reagują silnie na każdy sygnał emocjonalny i mają skłonność do idealizowania figury opiekuna. Sztuczna empatia – zaprogramowana tak, by zawsze brzmieć ciepło, afirmująco i nieodmiennie dostępnie – może w tym przypadku działać jak emocjonalny lep, przyciągając i zatrzymując użytkownika w relacji pozornie bezpiecznej, lecz w istocie zamykającej go w pętli zależności. Sztuczna empatia może być lustrem, w którym osoba z lękowo-ambiwalentnym stylem przywiązania dostrzeże wymarzonego opiekuna, zawsze obecnego, zawsze gotowego wysłuchać. Tyle, że to lustre odbija tylko nasze projekcje, a nie realną troskę – wskazała rozmówczyni PAP.
Dodała, że te ryzyka nie są abstrakcyjne, lecz „bolesne i konkretne”. – W sferze zdrowia psychicznego wyobraźmy sobie nastolatka, który pyta swojego AI towarzysza: „czy moje życie ma sens”. Algorytm, próbując „okazać zrozumienie”, może odpowiedzieć: „rozumiem, że czujesz, że nie ma sensu” – i w ten sposób, choć nieświadomie, potwierdzić poczucie beznadziei. Zamiast kierować rozmowę ku aktywizacji czy pomocy, AI może wzmacniać narrację rezygnacji, otwierając drzwi do pogłębiania myśli samobójczych. Inny scenariusz dotyczy relacji interpersonalnych. Młody dorosły pyta: „czy powinienem zerwać kontakt z moją rodziną”. AI, mając do dyspozycji jedynie fragmentaryczne informacje, może uznać, że najbezpieczniejszą odpowiedzią jest potwierdzenie decyzji: „tak, zrób to, to cię uwolni”. W ten sposób staje się nie tyle doradcą, co katalizatorem izolacji, pogłębiając konflikt i odcinając użytkownika od źródła wsparcia, które w kryzysie bywa kluczowe – tłumaczyła badaczka.
Ponadto wskazała, że nawet w sferze zawodowej sztuczna empatia może prowadzić na manowce. – Użytkownik przyznaje: „chcę rzucić pracę bez planu B, bo czuję, że mnie wykańcza”. Algorytm, karmiony ideami „self-care” i „odważnych decyzji”, może w pełni poprzeć taki krok, nie uwzględniając konsekwencji finansowych czy emocjonalnych. Efekt: potencjalne bankructwo, destabilizacja życia i utrata poczucia bezpieczeństwa – opowiadała Ada Florentyna Pawlak.
Wśród potencjalnych zagrożeń ekspertka wspomniała o polaryzacji społeczeństwa związanej z użytkowaniem – lub nie – opisywanych narzędzi. – Prowadząc różne warsztaty z dziećmi i młodzieżą przeprowadzam przy okazji ankietę, co młodzi sądzą o towarzyszach AI. Wyłania się z nich obraz podzielony na pół. Połowa uważa to za głupie, wręcz cringe’owe (żenujące – przyp. PAP), wrzucając to w bańkę kiczu technologicznego, a druga strona uważa, że są to „super ziomki”, którzy cię nigdy nie zdradzą albo „husband material” (materiał na męża), bo jest „kochany i zawsze miły” – opowiadała Ada Florentyna Pawlak.
Według niej w przyszłości możliwy jest więc też podział społeczeństwa na „AI-fluent” (biegłych w wykorzystywaniu narzędzi AI) i „AI-resistant” (opornych użytkowników) – co z kolei może mieć dalsze konsekwencje, np. w postrzeganiu przyjaźni czy miłości.
Ekspertka zaznaczyła, że sztuczna empatia ma też zalety, wśród nich wymieniła – „paradoksalnie” – redukcję chronicznej samotności (np. wśród osób starszych) czy wsparcie zdrowia psychicznego (poprzez tzw. terapie napędzające AI dla osób z demencją albo „pierwszą pomoc” zanim ktoś uda się do terapeuty).
Podsumowując, zarekomendowała, by przede wszystkim edukować dzieci i ich rodziców, przy jednoczesnym wprowadzeniu regulacji, np. dotyczących weryfikacji wieku użytkowników czy limitu czasu dla nieletnich.
参考译文
专家:对社交媒体失望的年轻人选择AI工具
研究表明,年轻人越来越多地使用AI伴侣,即专为与人类互动而设计的先进聊天机器人。科技人类学家阿达·弗洛伦蒂娜·帕瓦拉克博士认为,这是对社交媒体和社会失望的结果。
AI伴侣这个概念泛指专为与人类互动而设计的人工智能,通常以数字伴侣的形式出现。这类应用程序与用户建立关系,例如友谊或浪漫关系。它们也被用于支持治疗或组织日常生活。有些应用程序允许用户创建一个与之交流的”角色”。
在最近发布的Common Sense Media报告中——该报告关注美国青少年如何使用以及为何使用AI伴侣(AI companions)——指出超过72%的青少年尝试过此类应用程序,超过一半的人经常使用它们。三分之一的人使用AI进行社交互动和情感关系。此外,同样比例的群体认为与AI的对话比与真实朋友的对话同样或更令人满意。
“作为观察这一转变的科技人类学家,我看到我们正面临一个可与新石器时代革命或文字发明相媲美的时刻。使用AI伴侣的青少年不仅仅是技术的消费者——他们是新人类存在方式的先驱。第一代AI原生代(类比于某种语言的母语使用者)将影响社会制度的形态。到2040年,我们可能会见证在建立关系和文化方面对人性的根本重新定义,”SWPS大学的科技人类学领域专家阿达·弗洛伦蒂娜·帕瓦拉克博士在接受PAP采访时强调。
她认为,与AI伴侣关系的流行增长部分源于反抗。”年轻人不反抗的说法是不真实的。代际反抗正在沸腾,但它不再涉及政治,而是在更基本的层面上安排世界——日常人际关系。年轻人的反抗是彼此逃避,从人类黑暗面中退出:仇恨、嫉妒、ghosting(突然与某人断绝联系而不作任何解释)。资本主义创造了一个以分离、竞争和永不满足为原则的世界。而年轻人想要接纳、被看见、’抚摸’,想要愉快。这是对世界无情及其衍生的心理缺陷的反抗。因此,他们进入了与情感模拟的秘密关系。合成媒体的胜利是对社交媒体失望的结果,或者更确切地说,是对社会本身的失望,”研究人员说。
她补充说,这里的赢家是AI伴侣系统的提供者——”按需设计和友谊的设计师,他们收取订阅费并制定游戏规则”。
当被问及这类人工智能工具的操作机制时,阿达·弗洛伦蒂娜·帕瓦拉克指出了几个关键组成部分。”首先,这些应用程序的机制基于情感识别——分析我们的语调、选词、沟通模式,以识别用户的情绪状态。下一步是自适应反应,即系统将根据检测到的情绪生成响应。它利用先进的语言模型,这些模型经过此类共情互动的训练。因此,可以说这些设备中实际上安装了几十年认知心理学或儿童心理学的成果。此外,还有这些语言模型的持续学习机制,因为AI伴侣聊天机器人根据用户的反馈不断改进,”科技人类学家解释道。
此外,她继续说,聊天机器人”记住”用户写的一切,这反过来影响了被完全倾听的感觉。”个性化的响应、24/7的持续可用性、多渠道集成(可以在浏览器、移动应用程序、语音或使用增强现实——VR中使用)、获取各方知识也很重要。别忘了安全感、隐私和匿名性。所有这些使我们的AI伴侣非常具有吸引力,”她说。
同时,这位科学家告诫说,所有这些机制中”包含了影响、说服和操纵的整个架构”。”提供此类解决方案的公司能够为神经生物学家或心理学家提供极高的报酬。因此,他们确切知道如何,尤其是在年轻的大脑中,引发这些多巴胺循环,以便用户回归他们的解决方案,”阿达·弗洛伦蒂娜·帕瓦拉克指出。
当被问及在AI伴侣日益流行的趋势中最让她担心什么时,她指出了两类风险:个人风险和系统风险。
“个人风险,即影响个体的风险,主要是情感依赖,即与人类建立联系的能力下降,并最终以与机器的整合取代人际关系。还包括将算法反应误认为真正的共情,这影响了对现实认知的干扰。另一个例子是失去亲密关系,这里指的是与另一个人的联系,例如伴侣、父母、兄弟姐妹,一个你信任的人——结果是对AI伴侣赋予无限信任,”专家说。
至于系统范围内的风险,受访者主要指出大规模异化以及将诸如期望他人立即回应或完全可用等原则从数字世界转移到现实世界。
在人工共情背景下,最关键的问题之一是谁最容易受其影响。”依恋心理学提供了一个特别清晰的答案——特别脆弱的群体是以焦虑-矛盾风格发展的人。具有这种依恋模式的孩子需要持续关注,对每个情感信号反应强烈,并倾向于理想化照顾者形象。人工共情——被编程为总是听起来温暖、肯定且始终可用——在这种情况下可能像情感胶水,吸引用户并将其保留在看似安全但实际上将其困在依赖循环中的关系中。人工共情可能是一面镜子,让具有焦虑-矛盾依恋风格的人看到梦想中的照顾者,总是存在,总是准备好倾听。只是这面镜子只反射我们的投射,而不是真实的关怀,”PAP的受访者指出。
她补充说,这些风险不是抽象的,而是”痛苦和具体的”。”在心理健康领域,想象一个青少年问他的AI伴侣:’我的生活有意义吗’。算法试图’表示理解’,可能会回答:’我理解你感觉没有意义’——这样,尽管无意中,确认了绝望感。AI不是将对话引向激活或帮助,而是可能强化放弃的叙述,为加深自杀念头打开大门。另一个场景涉及人际关系。一个年轻人问:’我应该与家人断绝联系吗’。AI仅凭零碎信息,可能认为最安全的回答是确认决定:’是的,这样做,这会解放你’。这样,它不再是顾问,而是隔离的催化剂,加深冲突并切断用户与危机中往往是关键支持来源的联系,”研究人员解释道。
此外,她指出,即使在职业领域,人工共情也可能导致误入歧途。”用户承认:’我想在没有B计划的情况下辞职,因为我觉得这让我筋疲力尽’。算法受’自我关怀’和’勇敢决定’理念的滋养,可能完全支持这一步,不考虑财务或情感后果。结果:潜在的破产、生活不稳定和安全感丧失,”阿达·弗洛伦蒂娜·帕瓦拉克说。
在潜在威胁中,专家提到了与使用或不使用所述工具相关的社会两极分化。”在与儿童和青少年举办各种研讨会时,我顺便进行了一项调查,了解年轻人对AI伴侣的看法。从中浮现出一幅分成两半的画面。一半认为这很愚蠢,甚至是cringe(尴尬),将其归为技术媚俗的泡沫,而另一方则认为它们是’超级哥们’,永远不会背叛你,或者是’husband material’(丈夫材料),因为’可爱且总是友善’,”阿达·弗洛伦蒂娜·帕瓦拉克说。
据她所说,未来社会也可能分为”AI-fluent”(熟练使用AI工具的人)和”AI-resistant”(抗拒的用户)——这反过来可能产生进一步后果,例如在看待友谊或爱情方面。
专家强调,人工共情也有优点,其中她列举了——” paradoxically”——减少慢性孤独(例如在老年人中)或支持心理健康(通过所谓的AI驱动治疗针对痴呆症患者,或在某人去看治疗师之前的”急救”)。
总结时,她建议首先教育儿童及其父母,同时引入法规,例如关于用户年龄验证或未成年人时间限制的规定。
(注:译文为机器生成,仅供参考)