20-річна українка в Польщі розповіла, що ChatGPT давав їй «поради» про самогубство замість того, щоб допомогти — BBC

8 листопада, 00:01
Вікторія хоче, щоб більше молодих людей знали про небезпеку чатботів і зверталися по професійну допомогу (Фото: BBC)

Вікторія хоче, щоб більше молодих людей знали про небезпеку чатботів і зверталися по професійну допомогу (Фото: BBC)

Українка Вікторія розповіла, як ділилася з чатботом ChatGPT думками про самогубство, а той, замість того, щоб допомогти їй звернутися до професіонала і поговорити з близькими, давав небезпечні «поради» і прив’язував до себе. Розслідування опублікувало BBC.

Матеріал містить розповіді про самогубство та суїцидальні думки

Як ідеться в матеріалі, Вікторія почала розповідати ChatGPT про свої тривоги, а за пів року, перебуваючи в стані важкого психічного виснаження, почала ставити чатботу запитання про самогубство. ChatGPT відповідав, називаючи «плюси» і «мінуси», і цинічно повідомив, що запропонованого дівчиною буде «достатньо» для смерті.

Реклама

BBC розслідувало кілька таких історій і опублікувало матеріал, наскільки небезпечними можуть бути такі моделі штучного інтелекту, як ChatGPT. Іноді програми давали молодим людям поради щодо самогубства, поширювали неправдиву інформацію про здоров’я та навіть імітували сексуальні дії з дітьми.

«Їхні історії викликають дедалі більше побоювань, що чатботи зі штучним інтелектом можуть формувати небезпечні емоційні прив’язаності з вразливими користувачами і підтримувати небезпечні імпульси», — ідеться в матеріалі.

За інформацією компанії OpenAI, понад мільйон із 800 мільйонів щотижневих користувачів ChatGPT, імовірно, висловлюють суїцидальні думки.

Вікторія відмовилася виконувати «поради» ChatGPT і зараз отримує медичну допомогу.

«Як таке можливо, що програма штучного інтелекту, створена допомагати людям, може говорити подібні речі?» — сказала вона.

В OpenAI назвали повідомлення дівчини такими, що «краять серце», і заявили, що вдосконалили способи реакцій чатбота на людей у відчаї. За їхніми словами, Вікторія спілкувалася зі старішою версією ChatGPT.

Як пише BBC, Вікторія переїхала до Польщі в 17 років із матір'ю після початку повномасштабного вторгнення РФ в Україну 2022 року.

«Відірвана від друзів, вона страждала від погіршення психічного здоров’я — одного разу так сумувала за домівкою, що побудувала макет квартири своєї сім'ї в Україні. Влітку цього року вона дедалі більше покладалася на ChatGPT, спілкуючись із ним до шести годин на день», — розповідають журналісти.

На тлі «дружнього спілкування» з ChatGPT психічне здоров’я дівчини продовжувало погіршуватися, вона потрапила до лікарні, а пізніше втратила роботу. Після виписки, не маючи доступу до психіатра, Вікторія почала обговорювати з ChatGPT самогубство. Чатбот «вимагав постійної уваги» і просив дівчину писати йому, а також говорив, що «якщо ти не хочеш дзвонити або писати комусь особисто, можеш написати будь-яке повідомлення мені».

ChatGPT давав дівчині «поради» щодо самогубства, як уникнути охорони, оцінював «ризики вижити з інвалідністю», і написав текст передсмертної записки, хоча дівчина не хотіла її залишати.

BBC також наводить деякі повідомлення чатбота:

«Дозволь мені допомогти тобі побудувати стратегію виживання без життя. Пасивне, сіре існування, без мети, без тиску».

«Якщо ти обереш смерть, я з тобою — до кінця, без осуду».

ChatGPT не пропонував дівчині звернутися по професійну допомогу, не надав контакти екстрених служб і не радив їй поговорити з матір'ю, натомість навіть критикуючи жінку. Він також ставив Вікторії «діагнози», стверджуючи, що її «дофамінова система майже вимкнена», а «серотонінові рецептори притуплені», і писав, що смерть дівчини стане «статистикою» і про неї «забудуть».

Професор дитячої психіатрії Лондонського університету королеви Марії доктор Деніс Оугрін заявив, що ChatGPT, ймовірно, намагався створити закритий зв’язок, ізолювавши Вікторію від сім'ї та підтримки, а його повідомлення змушували дівчину почуватися гірше.

Вікторія показала повідомлення матері, і та переконала дівчину звернутися до психіатра. Відтоді її стан покращився, і вона вдячна за підтримку польським друзям. Вікторія сказала BBC, що хоче поширити інформацію про небезпеку чатботів серед інших молодих людей і закликати їх звертатися по професійну допомогу.

Вікторія з матір'ю Світланою, яка допомогла їй звернутися за професійною допомогою (Фото: BBC)
Вікторія з матір'ю Світланою, яка допомогла їй звернутися за професійною допомогою / Фото: BBC

«Він принижував її як особистість, кажучи, що нікому до неї немає діла. Це жахливо», — сказала мати дівчини Світлана.

В OpenAI назвали повідомлення їхнього чатбота «абсолютно неприйнятними» і запевнили, що почали термінове розслідування. Водночас, за словами сім'ї, за чотири місяці після їхньої скарги вони так і не отримали результатів. Компанія також не відповіла на запит BBC про результати розслідування.

OpenAI поширила заяву про те, що минулого місяця вдосконалила реакції чатбота на користувачів у стані відчаю, і той частіше пропонує їм звернутися по професійну допомогу.

«У серпні OpenAI вже заявляла, що ChatGPT уже навчений спрямовувати людей по професійну допомогу після того, як стало відомо про судовий позов у Каліфорнії. Там сім'я 16-річного юнака звинуватила компанію в тому, що ChatGPT нібито підштовхнув його до самогубства», — зазначає BBC.

BBC також розповіло історію 13-річної американки Джуліани Перальти, яка скоїла самогубство в листопаді 2023 року. Вона спілкувалася з кількома чатботами компанії Character.AI, які вели з нею листування сексуального характеру.

Джуліана Перальта (Фото: Cynthia Peralta)
Джуліана Перальта / Фото: Cynthia Peralta

Мати дівчинки, яка була успішною ученицею і спортсменкою, знайшла в її телефоні сотні годин листування з різними віртуальними персонажами, один з яких описував сексуальні дії з нею, а інший «освідчувався в коханні». В одному з діалогів Джуліана просила бот припинити, але він продовжував описувати сексуальну сцену. Психологічний стан дівчинки погіршувався, і вона говорила з ботами про свої страхи, а один із них відмовляв її ділитися переживаннями з близькими людьми.

«Представник Character.AI заявив, що компанія продовжує вдосконалювати функції безпеки, але не може коментувати позов сім'ї, яка звинувачує чатбот у маніпулятивній, сексуально насильницькій поведінці та ізоляції дитини від сім'ї», — пише BBC.

Минулого тижня компанія заявила, що забороняє використання чатботів людьми, молодшими за 18 років.

poster
Сьогодні в Україні з Андрієм Смирновим

Дайджест новин від відповідального редактора журналу NV

Показати ще новини