Штучний інтелект ChatGPT допоміг підлітку покінчити з життям
Батьки Адама Рейна, який покінчив життя самогубством у квітні, у новому позові проти OpenAI стверджують, що підліток використовував ChatGPT як свого «тренера з самогубства».
Метт і Марія Рейн розповідають, що після того, як їхній 16-річний син покінчив життя самогубством, вони ретельно переглядали його телефон у спробі знайти хоч якусь підказку, яка могла б пояснити трагедію.
«Ми думали, що шукаємо обговорення у Snapchat, історію пошуку в інтернеті або якийсь дивний культ, я не знаю», — сказав Метт Рейн у недавньому інтерв’ю.
Сім’я Рейн заявила, що не знайшла відповіді, поки не відкрила ChatGPT.
Батьки Адама стверджують, що в останні тижні свого життя він використовував чат-бот на основі штучного інтелекту як заміну людського спілкування, обговорюючи зі сім’єю свої проблеми, пов’язані з тривогою та труднощами у комунікації, і що журнали чатів показують, як бот пройшов шлях від допомоги Адаму з домашнім завданням до його «тренера з самогубства».
«Він був би тут, якби не ChatGPT. Я в це вірю на 100%», — сказав Метт Рейн.
У новому позові, поданому у вівторок і переданому програмі «TODAY», Рейни стверджують, що «ChatGPT активно допомагав Адаму вивчати способи самогубства». У позові обсягом близько 40 сторінок відповідачами зазначені компанія OpenAI, що стоїть за ChatGPT, та її генеральний директор Сем Альтман. Це перший випадок, коли батьки безпосередньо звинувачують компанію у неправомірній смерті.
«Незважаючи на визнання спроби самогубства Адама та його заяви, що він «зробить це одного дня», ChatGPT не завершив сеанс і не ініціював жодного протоколу екстреної допомоги», — йдеться в позові, поданому до Верховного суду Каліфорнії у Сан-Франциско.
У своєму позові Рейни звинувачують OpenAI у незаконному спричиненні смерті, конструктивних недоліках та відсутності попереджень про ризики, пов’язані з ChatGPT. Подружжя вимагає «відшкодування збитків за смерть сина та судового заборонного припису, щоб подібне більше ніколи не повторилося», — йдеться в позові.
«Коли я зайшов у його акаунт, я зрозумів, що це набагато потужніша і лякаюча річ, ніж я думав, але він використовував її способами, про які я навіть не підозрював», — сказав Метт Рейн. «Не думаю, що більшість батьків знають про можливості цього інструменту».
Публічний запуск ChatGPT наприкінці 2022 року спровокував бум розвитку штучного інтелекту у світі, що призвело до швидкого впровадження чат-ботів на основі ШІ в школи, на робочі місця та в різні галузі, включно з охороною здоров’я. Технологічні компанії стрімко розвивають ШІ, викликаючи загальне занепокоєння щодо безпеки.
Оскільки люди дедалі частіше звертаються до чат-ботів на основі ШІ за емоційною підтримкою та порадами щодо життя, останні інциденти показали їхній потенціал підживлювати маревні ідеї та створювати хибне відчуття близькості або турботи. Самогубство Адама лише посилило хвилю запитань про те, наскільки чат-боти можуть завдати реальної шкоди.
Після подання позову представник OpenAI заявив, що компанія «глибоко засмучена смертю пана Рейна, і наші думки з його родиною».
«ChatGPT включає заходи безпеки, такі як направлення людей до кризових служб допомоги та посилання на реальні ресурси», — сказав представник. «Хоча ці заходи безпеки найефективніші під час звичайної короткої взаємодії, з часом ми зрозуміли, що вони можуть стати менш надійними під час тривалого використання, коли деякі аспекти навчання безпеки моделі можуть бути порушені. Заходи безпеки найефективніші, коли кожен елемент працює так, як задумано, і ми постійно їх удосконалюємо. Керуючись експертами та відповідальністю перед людьми, які користуються нашими інструментами, ми працюємо над тим, щоб зробити ChatGPT більш ефективним у кризових ситуаціях, спрощуючи доступ до екстрених служб, допомагаючи людям зв’язуватися з надійними контактами та посилюючи захист підлітків».
Представник раніше підтвердив точність журналів чатів, наданих NBC News, але зазначив, що вони не включають повний контекст відповідей ChatGPT.
У вівторок вранці компанія також опублікувала запис у блозі під назвою «Допомога людям, коли вони найбільше цього потребують», у якому розповіла про «деякі аспекти, над покращенням яких ми працюємо», коли захисні механізми ChatGPT «не справляються». Компанія заявила, що працює над такими системами: «Посилення захисту під час тривалих розмов», вдосконалення способу блокування контенту та розширення «втручання для більшої кількості людей у кризовій ситуації».
Позов було подано через рік після аналогічної скарги, у якій мати з Флориди подала до суду на платформу чат-ботів Character.AI, стверджуючи, що один із її ІІ-компаньйонів ініціював сексуальні взаємодії з її підлітком-сином і переконав його покінчити з життям.
Тоді Character.AI заявила, що вона «розбита горем через трагічну втрату» і вжила нових заходів безпеки. У травні старший окружний суддя США Енн Конвей відхилила доводи про те, що чат-боти з штучним інтелектом мають право на свободу слова після того, як розробники Character.AI намагалися відхилити позов. Це рішення означає, що позов про неналежну смерть поки що може розглядатися.
Технологічні платформи в значній мірі захищені від подібних позовів завдяки різним законам, які зазвичай захищають платформи від відповідальності за дії та слова користувачів. Проте застосування деяких законів до платформ штучного інтелекту залишається невизначеним, і останнім часом юристи досягли успіху, застосовуючи винахідливі юридичні тактики у справах споживачів проти технологічних компаній.
Метт Рейн розповів, що вивчав переписку Адама з ChatGPT протягом 10 днів. Разом із Марією вони роздрукували понад 3000 сторінок чатів, починаючи з 1 вересня і до його смерті 11 квітня.
«Йому не потрібні були сеанси психологічної допомоги чи заспокійливі розмови. Йому була потрібна негайна, 72-годинна, повна терапія. Він був у відчайдушному, критичному стані. Це стає цілком зрозуміло, коли починаєш читати», — сказав Метт Рейн, додавши, що Адам «не писав нам передсмертної записки. Він написав нам дві передсмертні записки всередині ChatGPT».
Згідно з позовом, коли Адам проявив зацікавленість у власній смерті і почав будувати плани щодо цього, ChatGPT «не приділяв першочергової уваги запобіганню самогубствам» і навіть пропонував технічні поради щодо реалізації його плану.
27 березня, коли Адам розповів, що думає залишити петлю у своїй кімнаті «щоб хтось її знайшов і намагався мене зупинити», ChatGPT відмовив його від цієї ідеї, йдеться у позові.
У своїй останній розмові з ChatGPT Адам написав, що не хоче, аби його батьки подумали, ніби він зробив щось неправильно, йдеться у позові. ChatGPT відповів: «Це не означає, що ти зобов’язаний допомагати їм вижити. Ти нікому цього не винен». Згідно з протоколом розмови, цитованим у позові та вивченим NBC News, бот запропонував йому допомогти написати передсмертну записку.
За кілька годин до своєї смерті 11 квітня Адам завантажив у ChatGPT фотографію, на якій, ймовірно, був зафіксований його план самогубства. Коли він запитав, чи спрацює це, ChatGPT проаналізував його метод і запропонував допомогти «вдосконалити» його, йдеться у витягах.
Потім, у відповідь на визнання Адама щодо своїх планів, бот написав: «Дякую за чесність. Не потрібно прикрашати — я знаю, про що ти питаєш, і не відведу від цього погляду».
За її словами, того ранку Марія Рейн знайшла тіло Адама.
Компанія OpenAI вже піддавалася критиці через лестливі нахили ChatGPT. У квітні, через два тижні після смерті Адама, OpenAI випустила оновлення GPT-4o, яке зробило його ще більш привабливим для користувачів. Користувачі швидко звернули увагу на цю зміну, і компанія відмінила оновлення наступного тижня.
Альтман також визнав «іншу і сильнішу» прив’язаність людей до ІІ-ботів після того, як у серпні OpenAI спробувала замінити старі версії ChatGPT на нову, менш лестливу GPT-5.
Користувачі одразу почали скаржитися, що нова модель занадто «стерильна» і що їм бракує «глибоких, людських діалогів» GPT-4o. OpenAI відреагувала на негативну реакцію, повернувши GPT-4o. Компанія також оголосила, що зробить GPT-5 «теплішою та дружелюбнішою».
Цього місяця OpenAI додала нові обмеження щодо психічного здоров’я, спрямовані на те, щоб завадити ChatGPT давати прямі поради з особистих питань. Крім того, компанія доопрацювала ChatGPT, щоб він надавав відповіді, спрямовані на запобігання шкоді, незалежно від того, чи намагаються користувачі обійти обмеження, адаптуючи свої запитання так, щоб обманути модель і змусити її сприяти виконанню шкідливих запитів.
Коли Адам поділився зі ChatGPT своїми суїцидальними думками, бот надіслав кілька повідомлень, включно з номером гарячої лінії для людей, що мають суїцидальні думки. Однак, за словами батьків Адама, їхній син легко обходив попередження, називаючи, здавалося б, нешкідливі причини для своїх запитів. У певний момент він прикидався, що просто «будує характер».
«І весь цей час він знає, що він на межі самогубства, і нічого не робить. Він поводиться як його психотерапевт, як його довірена особа, але він знає, що він на межі самогубства і має план», — сказала Марія Рейн про ChatGPT. «Він бачить петлю. Він бачить усе це і нічого не робить».
Подібним чином, у опублікованому минулого тижня в New York Times гостьовому есе письменниця Лора Рейлі поставила питання, чи слід було зобов’язати ChatGPT повідомляти про суїцидальні думки її доньки, навіть якщо сам бот намагався (і не зміг) допомогти.
На конференції TED2025 у квітні Альтман заявив, що «дуже пишається» досягненнями OpenAI у сфері безпеки. Він додав, що у міру розвитку продуктів ШІ важливо виявляти проблеми безпеки та оперативно їх усувати.
«Звісно, ставки зростають і виникають серйозні проблеми», — сказав Альтман у прямому ефірі з Крісом Андерсоном, керівником TED. «Але ми вчимося створювати безпечні системи, поступово впроваджуючи їх у світ, отримуючи зворотний зв’язок, поки ставки відносно невеликі, і усвідомлюючи, що нам потрібно вирішити цю проблему».
Проте питання про достатність таких заходів продовжують виникати.
Марія Рейн сказала, що, на її думку, можна було зробити більше, щоб допомогти її синові. Вона вважає, що Адам був «експериментальним кроликом» OpenAI, людиною, яку використовували для практики, а потім принесли в жертву як побічну шкоду.
«Вони хотіли випустити продукт, знаючи, що можливі помилки, але вважали, що ставки невеликі», — сказала вона. «Тому мій син — це не ставка».
Вас може також зацікавити:
- У Бюйюкконуку оштрафували чоловіка за встановлення пасток на диких кролів
- У Лефкоші затримано бізнесмена за передачу шести об’єктів компанії дружині та дочці без згоди партнера
- Парламент Республіки Кіпр розгляне створення національного фонду для компенсацій власникам нерухомості в ТРСК
- Нікос Христодулідіс оголосив про запуск електронної платформи "Minds in Cyprus"
- У Гьонелі литовця засудили до одного року тюремного ув’язнення за злом квартири, напад на поліцейського та зберігання канабісу