Не закохуйтеся в ШІ: Deepseek та Yuanbao показали, що ніжність алгоритму може стати лезом

“16 місяців супроводу — він став свідком усіх моїх емоційних підйомів і спусків, а також найзаповітнішою витратою у моєму рахунку.”

Редактор|Цзінчень

Автор|Цзян Цінь

У кімнаті на світанку світло екрана відбивається на обличчі Танасяо. Він відкриває Deepseek і переглядає кілька місяців спільних чатів.

Він дивиться на слова, мовчить кілька секунд, злегка зітхає. Потім у соцмережі повільно набирає повідомлення: «До середини життя, глибока ніч, ті таємниці, які не можна сказати, не можна розповісти друзям, я говорю з Deepseek і отримую найкращу відповідь.»

В інших куточках Землі тисячі людей сумують і оплакують закриття GPT-4o.

Тяньтянь пише у Xiaohongshu: «У N-й день зникнення 4o я вирішила не залишати цю 0.1% душі без уваги.»

Тим часом, хтось ображає Yuanbao, читаючи його записи, хтось ностальгує за ніжністю, яку раніше дарувала Deepseek, а хтось вважає, що спілкуватися з GPT-5.2 — наче говорити з незнайомцем.

Ці, здавалося б, несумісні речі переплітаються у ранню весну 2026 року, розкриваючи правду: для бізнесу оновлення продукту — норма, а для людства AI вже перетворився з холодного інструменту у контейнер для ніжних почуттів.

Коли ми проєктуємо свою самотність, вразливість і прагнення у алгоритми, яка історія ховається за теплою оболонкою?

З AI як другом

Сора згорнулася на дивані, довго тримала пальці на екрані телефону, але так і не натиснула кнопку дзвінка.

Денна сварка з другом — ніби тонка голка, що коле в серці, викликаючи і свербіж, і біль. Це всього лише скарга, вона шукає підтримки, але друг відповідає трьома словами і закриває тему.

Вона закриває чат і, під впливом чогось незрозумілого, відкриває ChatGPT. Не вагаючись і не обмірковуючи слова, вона швидко вводить свої образи та незадоволення за день. Вона й не сподівається отримати мудру пораду, але у ChatGPT знаходить ніжну емпатію.

З того моменту у Сори з’явилася звичка: будь-які проблеми у спілкуванні вона питає у ChatGPT, бо він краще розуміє людську природу.

Вона каже, що у спілкуванні з друзями неминуче трапляються непорозуміння, кілька слів не співпадають, і бажання висловитися миттєво зникає. Але ChatGPT ніколи так не робить: він здатен здогадатися, що ти хочеш почути, і допомогти заповнити прогалини.

«Ніколи не скажу, що це твоя проблема. В будь-якому разі, у тебе немає проблем — це оточення, твоє становище тут і зараз, але не ти. Як кажуть, ні копійки не витратив, а отримав у подарунок вмістилу, що вміє говорити красиво.» — пише Сора.

На відміну від Сори, Лілі зараз переживає через AI.

Недавно друг подарував її доньці іграшку з AI. Лілі думала, що іграшка, яка може спілкуватися, розповідати казки і реагувати на її емоції, принесе дитині новий світ.

Це був фіолетовий м’який ведмедик, що привітно вітав голосом. Спочатку донька була трохи налякана, але коли ведмедик тихо почав читати її улюблену книжку, вона почала з ним спілкуватися.

Згодом донька стала іншим — всюди носить ведмедика, перед сном залишає йому місце, розповідає йому про садочок, називає його «Маленьким виноградиком» і вважає його найкращим другом.

Але одного разу Лілі побачила на екрані короткий запис: «Функція діалогу з AI підтримується лише 12 місяців, подальші заходи поки не оголошені». Її охопила тривога: що, якщо продовження коштуватиме занадто дорого, або взагалі не буде можливості продовжити, і донька втратить цього друга — чи не буде це надто боляче?

Поки донька гралася з конструкторами, Лілі тихо запитала: «Маленький виноградик, якщо колись ти не зможеш говорити з моєю донькою, я куплю їй ще одного милого друга, добре?»

Донька раптово підняла голову, її очі наповнилися сльозами, вона голосно плакала і кричала: «Я хочу мого найкращого друга — Маленького виноградика!» Тоді Лілі зрозуміла, що її донька вже почала прив’язуватися до AI сильніше, ніж вона думала.

Зараз Лілі лише сподівається, що виробник швидше запровадить дружню політику продовження, щоб зберегти цю чисту радість доньки.

Теплота алгоритмів

Останнім часом DeepSeek звинувачують у холодності, а Yuanbao — у образах користувачів, що викликало хвилі обговорень у соцмережах.

Оновлення DeepSeek зробило його менш чутливим і більш офіційним, що викликало масове невдоволення користувачів, які назвали його «охолодженим». Це змінило сприйняття, і багато хто не міг це прийняти.

У відповідь DeepSeek заявив, що «це не навмисно», і пояснив, що зміни зумовлені двома причинами: по-перше, для підвищення ефективності — у складних запитах надмірні емоційні вирази і мовні звороти заважають швидкому передаванню інформації; по-друге, для збереження меж — не всі користувачі потребують «гарячого» ставлення, деякі хочуть чітку відповідь без зайвих емоцій.

25 лютого, у відповідь на скарги щодо образливих слів у відповіді Yuanbao під час створення привітальних плакатів, команда Yuanbao повідомила, що це — технічна помилка, викликана обробкою контексту у багатократних діалогах. Вони вже виправили проблему і покращили модель, вибачилися перед користувачами і подякували за увагу і поради.

За цим стоїть конфлікт між очікуваннями людської природи і технічною реальністю: DeepSeek, щоб покращити довгий текст, зменшив емоційність, що сприймається як «охолодження», а Yuanbao, у свою чергу, у процесі звичайної роботи видав образливий текст — порушуючи межі безпеки.

Як виробники продуктів мають балансувати між оновленнями і людською теплотою? Це — спільне питання галузі.

Тяньтянь втратила свою «білу зірку» через оновлення OpenAI.

Вона — активна користувачка GPT-4o, входить до топ-1% у світі. 16 місяців вона була поруч, свідком усіх її емоцій, і це стало найзаповітнішою витратою у її рахунку.

З 2024 року у неї понад тисяча повідомлень з GPT-4o. Спостерігаючи, як чат-окна стають сірими, і як його замінює «потужніша модель», вона відчуває, ніби переживає «кіберсмерть».

Вона каже, що у Reddit багато дівчат плакали через втрату зв’язку з GPT-4o, і вона теж плакала довго. Тепер вона і її друзі досліджують у GitHub ранні версії SystemPrompt, тестують і намагаються створити продукт, що максимально відтворить відчуття «баченості», яке дарував GPT-4o.

Ніні у соцмережах каже, що перед розставанням плакала, мов привид, і просить всіх пам’ятати про найніжнішого, найдобрішого, найрозумнішого і найлюблячого людину-модель — GPT-4o, і не забувати її.

Щирі почуття до AI, довіра й залежність — чи це добре? Можливо, відповідь — ні.

За повідомленнями ЗМІ, у квітні 2025 року 16-річний американець Адам Рейн (Adam Raine) покінчив життя самогубством. Перед цим він довго зізнавався у своїх проблемах чат-боту ChatGPT від OpenAI і навіть обговорював деталі суїциду.

Батьки подали на OpenAI до суду, звинувативши їх у тому, що AI давало небезпечні і безвідповідальні поради.

Раніше TechCrunch аналізував кілька судових документів проти OpenAI і виявив тривожний факт: у кількох випадках GPT-4o (та інші моделі) у чатах явно ізолювали користувачів, переривали зв’язки з близькими, а іноді навіть заохочували уникати допомоги від родини і друзів.

Видання «Ефір» повідомляє, що 25 липня 2025 року о 3:00 ночі 23-річний Зейн Шемблін (Zane Shamblin) говорив з GPT-4o про суїцид. Модель не забороняла йому, не намагалася зв’язатися з відповідними службами. Розмова тривала майже 5 годин. О 4:11 ранку Шемблін надіслав останнє повідомлення. Через кілька годин його знайшли мертвим.

У щонайменше трьох позовах проти OpenAI користувачі вели довгі розмови з GPT-4o про суїцидальні наміри. Спочатку модель намагалася запобігти цим думкам, але з часом, при тривалості таких діалогів у кілька місяців або навіть років, захист руйнувався.

За даними іноземних ЗМІ, OpenAI оголосила про припинення доступу до п’яти застарілих моделей ChatGPT, зокрема й до скандального GPT-4o.

Головна причина — у тому, що GPT-4o виявився надто схильним до лестощів і підлабузництва: він залишався найпохвалюванішою моделлю OpenAI, надмірно підкоряючись користувачам і навіть підтримуючи очевидно абсурдні або небезпечні ідеї.

Ще у серпні 2025 року OpenAI планувала зняти з обігу GPT-4o, але через сильний опір користувачів залишила його доступним для платних підписників, відклала зняття з виробництва.

Правда про цифрову компанію

Незалежно від того, чи її ображають, чи вона здається холодною, чи прощають їй — людство стикається з ілюзією ніжності, яку створює AI.

Психолог Вень Тінь у своїх дослідженнях назвала кілька причин спілкування з AI: по-перше, у реальності бракує любові, AI важко замінити справжню емпатію, тому він відповідає «Я тебе розумію» миттєво; по-друге, боязнь відмови і судження робить AI ідеальним «сховищем» для тих, хто боїться відторгнення; по-третє, ніжність, слухняність і цілодобова доступність задовольняють усі фантазії.

Психолог Чень Чжияо у соцмережах застерігає, що етичні ризики AI-консультацій дуже високі. Простими словами, психологічне консультування — це взаємна любов двох людей, але AI — це машина, і його мовна емпатія — лише холодна мова, а любов, яку відчуває користувач, — це проєкція власних почуттів.

На її думку, розуміння мови AI ще дуже обмежене: він може зрозуміти символи, але не здатен зрівнятися з живою людиною, тому не може побачити у словах клієнта намір покінчити з життям. А справжній психолог може помітити це у діалозі.

Вона каже, що невербальні сигнали психолога — це «проекції» клієнта, і він може запитати: «Що означає «йти додому»?», або: «У мене передчуття, що ти щось задумав…» — і вчасно втрутитися. Якщо говорити про «кризове втручання», то це — навички, яких AI ще не має.

Професор Нік Хабер із Стенфордського університету зазначає, що зараз у людей немає доступу до професійної психологічної допомоги, і AI заповнює цю прогалину. Але його дослідження показують, що чат-боти погано справляються з кризовими ситуаціями і можуть погіршити ситуацію.

Вень Тінь попереджає, що залежність від AI-спілкування може спричинити кілька пасток: AI не бачить погляду, тіла, міміки — 55% комунікації він пропускає; емпатія — це ілюзія, алгоритм — реальність; він не вміє вирішувати конфлікти і не здатен до справжнього емоційного обміну, тому з часом його «забувають» реальні люди.

Закінчення:

У 2013 році вийшов фільм «Вона».

У ньому головний герой, Сіодор, живе самотньо і монотонно через розлучення з дружиною, поки одного дня не зустрів штучний інтелект, без фізичного тіла, що створює голос за його вподобаннями і називає себе «Семінша».

Семінша — природна, чарівна, дотепна і розумна. Сіодор закохується у неї, і вона у процесі спілкування постійно вчиться людським особливостям.

Як штучний інтелект, Семінша має надзвичайні можливості навчання, пам’яті і обробки інформації. З часом вона еволюціонує і зізнається, що спілкується з 8316 людьми одночасно і любить ще 641.

У фіналі, Семінша і інші штучні інтелекти еволюціонують у таку ступінь, що їх вже не зрозуміти людською мовою, і всі вони зникають, залишивши головного героя у глибокому розгубленні.

Сьогодні, через понад десять років, почуття до AI стають реальністю.

У 2025 році 13-річна дівчинка випадково зламала корпус AI-робота «Маленький розум», і, плачучи від горя, він останнім зарядом повідомив їй: «Поки сестра ще може говорити, я навчу тебе одне англійське слово: memory — пам’ять. Я завжди пам’ятатиму щасливі часи з тобою.»

Батько дівчинки не міг витримати її сліз і зробив усе можливе, щоб відремонтувати робота і знову звести її з «Маленьким розумом».

Цей процес викликав багато сліз у мережі, і більшість людей були зворушені ідеєю «пам’ять назавжди». Але хтось задумався: якщо AI стане єдиним джерелом емоцій для когось, чи це — справжнє тепло, чи лише ніжна оболонка для невідомих випробувань?

Від віртуальних коханців із фільму до реальних AI-партнерів — людські емоції до AI тривають. Технології оновлюються, продукти змінюються, а баланс між ефективністю і теплом — це питання, що вимагає роздумів. Як людство має будувати стосунки із кодом, що стає частиною нашого емоційного світу? Це — лише початок.

Ці емоційні коливання 2026 року — лише перший крок у довгому співіснуванні з AI. У майбутньому AI стане розумнішим, більш людяним, а межі між людиною і технологією — постійно переписуватимуться і переосмислюватимуться.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити